OpenAI, la compagnia a cui si deve il popolare chatbot ChatGPT, ha presentato una versione "lite" di GPT-4o, il suo modello generativo più performante. Si tratta di GPT-4o mini, un nuovo LLM (Large Languade Model) che ha la caratteristica di essere più piccolo e di consumare un minor numero di token pur garantendo prestazioni elevate.
Tenendo conto dei risultati relativi ai benchmark MMLU (Massive Multitask Language Understanding) GPT-4o mini risulterebbe più potente rispetto GPT-3.5 Turbo anche se meno prestante rispetto al "fratello maggiore" di cui rappresenta una variante. I suoi risultati sarebbero inoltre migliori rispetto a quelli di Gemini 1.5 Flash e Claude 3 Haiku.
Introducing GPT-4o mini! It’s our most intelligent and affordable small model, available today in the API. GPT-4o mini is significantly smarter and cheaper than GPT-3.5 Turbo.https://t.co/sqJsFEYHWq pic.twitter.com/g6jMttp1mF
— OpenAI Developers (@OpenAIDevs) July 18, 2024
Anche in questo caso parliamo di un modello multimodale, quindi in grado di gestire diverse tipologie di contenuti, per il momento sono però previsti dei limiti e i prompt formulati dagli utenti potranno contenere soltanto testi e immagini, stesso discorso per gli output. Per quanto riguarda i video e gli audio si dovrà attendere ancora qualche tempo.
Per quanto riguarda i consumi, fondamentali per gli sviluppatori che interagiscono con il servizio tramite le API (Application Programming Interface) di OpenAI, GPT-4o mini garantisce una finestra di contesto da 128 mila token. Un milione di token in ingresso costano 0.15 dollari mentre si pagheranno 0.60 dollari per un milione di token in uscita.
GPT-4o mini potrà essere utilizzato da subito anche dagli utenti di ChatGPT con account standard, in sostituzione di GPT-3.5 Turbo. Si tratta in ogni caso di un LLM che molto probabilmente è stato implementato per gli sviluppatori, in particolare per quelli che potrebbero rivolgersi ad altri modelli con l’intenzione di spendere meno per l’uso delle interfacce.