L’intelligenza artificiale cerca una nuova forma. Non più solo software che vive dentro le applicazioni, ma prodotti capaci di accompagnare le persone nello spazio fisico e nella vita quotidiana. È la direzione che emerge dalle indiscrezioni sul nuovo progetto hardware di OpenAI, che starebbe lavorando a una linea di dispositivi AI-native pensati per trasformare il modo in cui gli utenti interagiscono con l’intelligenza artificiale.
Non semplici gadget con un assistente vocale integrato, ma prodotti pensati per rendere l’interazione con l’intelligenza artificiale continua, contestuale, ambientale.
Il primo a debuttare potrebbe essere uno smart speaker AI-first, previsto per febbraio 2027, con un prezzo stimato tra 200 e 300 dollari. Il dispositivo, stando al report, includerebbe anche una fotocamera per comprendere ambiente e contesto. A seguire, nel 2028, potrebbero arrivare gli smart glasses.
Dalla piattaforma al prodotto
Se confermata, la mossa segnerebbe un passaggio strategico cruciale. OpenAI, finora, è stata soprattutto una piattaforma: modelli linguistici, API, abbonamenti, integrazioni nei sistemi di altri. Con l’hardware, cambierebbe posizione nella filiera. Non più solo AI distribuita dentro i device di altri, ma device costruiti attorno alla propria AI. È un cambio di status: da abilitatore tecnologico a ecosystem player.
Il tassello Jony Ive
Il progetto si inserisce nel solco dell’operazione da 6,5 miliardi di dollari con la startup di AI devices fondata dall’ex designer Apple Jony Ive. All’epoca, il Ceo Sam Altman aveva parlato dell’ambizione di creare “una famiglia di dispositivi” che permettesse alle persone di usare l’AI per “creare ogni tipo di cosa meravigliosa”. Una dichiarazione che oggi assume un peso diverso.
La guerra degli AI device
L’ingresso diretto nell’hardware significherebbe competere frontalmente con: Apple, che sta integrando l’AI nel proprio ecosistema; Meta, già attiva su smart glasses e wearable e Google, che controlla sia modelli AI sia hardware consumer.
Ma la vera posta in gioco non è lo speaker in sé. È la definizione di cosa sia un AI-native device: un oggetto progettato non attorno a uno schermo o a un’interfaccia touch, ma attorno a un modello capace di comprendere linguaggio, immagini, contesto. In altre parole: l’AI non come funzione, ma come centro dell’esperienza.
Perché ora
L’AI generativa è entrata nella fase della maturità commerciale. Gli abbonamenti crescono, le API si diffondono, le integrazioni aumentano. Ma chi controlla l’hardware controlla l’esperienza. E controllare l’esperienza significa controllare dati, relazione, fidelizzazione. Per OpenAI potrebbe essere il passaggio necessario per non restare ‘solo’ un layer invisibile nell’ecosistema di altri.