Interactive

Lancio globale per ChatGPT-4o, l’AI ‘omnicanale’ gratuita, due volte più veloce della precedente release. Un giorno prima di Google I/O…

Mira Murati, CTO di OpenAI, nel livestreaming di lancio
Mira Murati, CTO di OpenAI, nel livestreaming di lancio
di Massimo Bolchi

OpenAI sta lanciando GPT-4o, un’evoluzione di GPT-4 che attualmente alimenta il suo prodotto di punta, ChatGPT. Secondo l’azienda, la ‘o’ rappresenta l’omnicanalità, indicando che il GPT-4o segna un passo significativo verso interazioni uomo-computer più naturali. Il modello aggiornato “è molto più veloce e migliora le capacità di testo, visione e audio”, ha dichiarato Mira Murati, CTO di OpenAI, nell’annuncio in livestream lunedì. Sarà gratuito per tutti gli utenti – con dei limiti all’utilizzo – e gli utenti a pagamento continueranno ad avere “fino a cinque volte i limiti di capacità” degli utenti gratuiti, ha aggiunto Murati.

In un post sul blog dell’azienda, OpenAI afferma che le funzionalità di GPT-4o “saranno distribuite in modo graduale”, ma le funzionalità di testo e immagini saranno disponibili da subito in ChatGPT.

Sam Altman, Ceo di OpenAI, ha sottolineato che il modello è “nativamente multimodale“, il che significa che può generare contenuti o comprendere comandi in voce, testo o immagini. Gli sviluppatori che vogliono lavorare con GPT-4o avranno accesso all’API, che ha un prezzo dimezzato e una velocità doppia rispetto a GPT-4 Turbo, ha aggiunto Altman su .

Il modello prevede nuove funzionalità per la modalità vocale di ChatGPT. L’app sarà in grado di agire come un assistente vocale simile a ‘Her’, protagonista del celebre film interpretato da Scarlett Johansson, rispondendo in tempo reale e osservando il mondo circostante. L’attuale modalità vocale è più limitata: risponde a una richiesta alla volta e lavora solo con ciò che riesce a sentire.

Per rendere l’IA avanzata più accessibile e utilizzabile in tutto il mondo, le funzionalità linguistiche di GPT-4o sono state migliorate in termini di qualità e velocità. ChatGPT supporta infatti più di 50 lingue per quanto riguarda l’iscrizione e il login, le impostazioni degli utenti e altro ancora.

Ma quel è il ‘prezzo’ ambientale di questa tecnologia? Si sa che l’intelligenza artificiale è più avida di energia rispetto alle attività informatiche tradizionali e che più diventa sofisticata, più richiede potenza di calcolo. Durante la dimostrazione non si è però parlato di sostenibilità, il vero ‘elefante’ nella stanza è passato sotto silenzio, ma comunque il modo in cui GPT-4o ha gestito la combinazione di testo, audio e immagini con una risposta immediata sembra mettere OpenAI davanti alla concorrenza.

GPT-4o è disponibile senza abbonamento come già detto: allora perché voler mantenere ChatGPT Plus? Sostanzialmente due motivi concorrono a sostenere la sottoscrizione, che costa a partire da una ventina di dollari al mese: l’accesso a un maggior numero di prompt e a ‘nuove’ funzionalità. Rispetto ai non abbonati, gli abbonati a ChatGPT Plus possono infatti inviare un numero di prompt GPT-4o cinque volte maggiore prima di dover passare a un modello meno potente e gratuito, come ad esempio ChatGPT 3.5.

Inoltre, gli aggiornamenti più interessanti sono ancora offerti prima dietro il paywall di OpenAI, e poi per le versione gratuita. Ad esempio, la straordinaria modalità vocale che l’AI ha mostrato nel livestreaming arriverà già nelle prossime due settimane per gli abbonati a ChatGPT Plus.

Oltre all’accesso limitato a GPT-4o, gli utenti non paganti ricevono comunque un importante aggiornamento dell’esperienza d’uso complessiva, con molteplici funzionalità che in precedenza erano riservate ai clienti paganti, come il GPT Store, dove chiunque può rilasciare una versione di ChatGPT con istruzioni personalizzate, lo strumento di navigazione web e le funzioni di memoria, e il caricamento di foto e file da far analizzare al chatbot.

Prima del lancio odierno di GPT-4o, rumors avevano previsto che OpenAI avrebbe annunciato un motore di ricerca AI in grado di competere con Google e Perplexity, o un assistente vocale integrato in GPT-4 oppure un modello completamente nuovo e migliorato, GPT-5. Naturalmente, OpenAI ha deciso di anticipare il lancio di ChatGPT-4o rispetto al Google I/O, iniziata il 14 maggio alle sette di sera. Alla conferenza di punta del tech giant di Mountain View tutti di aspettano di vedere i nuovi prodotti di intelligenza artificiale del team Gemini.

Un’ultima nota: Altman ha esplicitamente riflettuto sui prossimi sviluppi di OpenAI in un blog post, dopo l’evento livestream, dicendo che la visione originaria dell’azienda era quella di “creare ogni sorta di beneficio per il mondo”, ma riconoscendo che la visione è cambiata. OpenAI è stata criticata per non aver reso disponibili in open-sourcing i suoi modelli avanzati di intelligenza artificiale, e Altman sembra voler dire che l’obiettivo dell’azienda è ora diverso: mettere questi modelli a disposizione degli sviluppatori attraverso API a pagamento e far sì che siano le terze parti a crearli.

Un cenno velato al fatto che il subscription model – di cui si era parlato anche come forma di finanziamento del search di OpenAI – non pare più sufficiente?