La Data Cloud company Snowflake ha raccolto le opinioni dei suoi esperti per prevedere come si evolverà l’uso dell’AI nelle aziende nel corso del 2024. Sarà un anno fondamentale per la diffusione di questa tecnologia che diventerà un alleato per le aziende, migliorando la produttività e facilitando la creazione di soluzioni innovative.
Modelli linguistici di dimensioni più contenute daranno insight estremamente personalizzati
I modelli linguistici di più piccoli diventeranno lo standard. Ci saranno ancora alcuni grandi operatori, ma in generale la maggior parte dei vendor metterà a punto modelli più piccoli, destinati a settori verticali e casi d’uso specifici. In futuro ci saranno milioni di modelli linguistici ridotti, che opereranno a livello aziendale o dipartimentale e forniranno approfondimenti iper-personalizzati sulla base dell’utente/dipendente o dell’esigenza specifica. Questi modelli linguistici più piccoli richiedono meno tempo e risorse per la manutenzione, possono essere gestiti all’interno del perimetro di sicurezza esistente di un’azienda e sono spesso più veloci e accurati perché ottimizzati per un insieme più ristretto di attività rispetto ai modelli ‘completi’ che hanno raccolto fino a oggi la maggior parte dell’attenzione. Ci sono sempre più prove del fatto che un modello da 20 miliardi di parametri può fare la maggior parte delle cose che si desiderano – rispetto al modello da ~1,8 trilioni di parametri del GPT-4 di OpenAI – e sono altrettanto efficaci, se non di più.
Creare app di AI generativa, come i chatbot, diventerà pratica comune per le attività quotidiane
I modelli linguistici generativi non sono solo una nuova forma di AI super potente, ma anche incredibilmente facile da usare. Il recente report State of LLM Apps 2023 ha analizzato come oltre 13.000 sviluppatori abbiano creato più di 21.000 applicazioni di AI generativa in pochi mesi. Circa il 74% di queste applicazioni è stato realizzato con OpenAI, che ha di fatto democratizzato lo sviluppo di applicazioni di questo tipo grazie alle sue semplici API, promuovendo una nuova ondata di innovazione nella comunità open source. Ora però le principali piattaforme di dati e di calcolo stanno portando queste semplici API nelle aziende. Guardando al 2024 e oltre, lo stesso livello di creatività, sperimentazione audace e nuove applicazioni che abbiamo visto nel mondo open source si diffonderà nel settore aziendale. L’AI generativa diventerà una forza trainante nelle aziende, rendendo le app GenAI uno standard per le attività aziendali quotidiane.
Il problema delle allucinazioni sarà sostanzialmente risolto
Nel 2023, le ‘allucinazioni’ dei modelli linguistici di grandi dimensioni sono state citate come una delle principali barriere all’adozione. Se i modelli di intelligenza artificiale generativa inventano le cose, come ci si può fidare di loro in ambito aziendale? Tuttavia, diverse evoluzioni tecnologiche elimineranno del tutto le allucinazioni. Una di queste innovazioni è la Retrieval Augmented Generation (RAG) che prepara il modello linguistico di grandi dimensioni con informazioni reali e contestualmente rilevanti prima di sottoporre una domanda dell’utente. Questa tecnica, ancora agli inizi, ha dimostrato di ridurre drasticamente le allucinazioni e sta già facendo scalpore. Secondo il già citato report State of LLM Apps 2023, il 20% delle applicazioni utilizza il recupero vettoriale, un ingrediente chiave del RAG. Nel prossimo anno prevediamo che il RAG, insieme a modelli meglio addestrati, inizierà a risolvere rapidamente il problema delle allucinazioni, aprendo la strada a un’adozione diffusa dell’AI generativa nei flussi di lavoro aziendali.
L’AI diventerà il compagno di lavoro ideale
Una delle proposte più interessanti per aumentare la produttività sul lavoro è la diffusione di assistenti AI che aiutino i dipendenti a diventare – e a rimanere – più produttivi ed efficaci. In prospettiva, possiamo aspettarci che questi assistenti, adattati a specifici dipartimenti e ruoli, forniscano a ogni utente un orientamento mirato, legato alla sua personalità affiancandolo per tutta la durata della sua permanenza in azienda. Man mano che i processi e le esigenze di un’organizzazione diventano più maturi, sarà possibile addestrare gli assistenti a riproporre gli stessi suggerimenti a tutti i dipendenti. In questo modo, anche i neoassunti riceveranno un bagaglio di conoscenze adeguato fin dall’inizio. Facendo un ulteriore passo avanti, questi assistenti inizieranno a contribuire formazione della conoscenza aziendale più ampia. Acquisendo nuova documentazione e feedback approfonditi dai dipendenti esistenti, setacciando internet alla ricerca di nuovi modi per ottimizzare i processi e altro ancora, questi assistenti diventeranno i migliori compagni di lavoro di ogni dipendente, trasformandosi rapidamente in uno standard sul posto di lavoro e un punto di partenza per aumentare la produttività.
L’AI contribuirà a rafforzare la sicurezza informatica
Cybercriminali e malintenzionati in genere trarranno vantaggio dall’ampia diffusione di strumenti di AI avanzati prima che i loro obiettivi riescano a sfruttarla nelle proprie difese. Molte aziende sono caute nell’adozione e nell’utilizzo di nuove tecnologie: ci sono costi, requisiti normativi, rischi reputazionali e molto altro in gioco se l’operazione viene eseguita male. Tuttavia, i malintenzionati non aspettano. Ad esempio, il phishing è ancora un problema significativo e la maggior parte delle email di phishing sono piuttosto evidenti e grossolane. L’intelligenza artificiale generativa renderà questo vettore di attacco – già efficace – ancora più efficace e i malintenzionati avranno a disposizione tutta la potenza di fuoco dei modelli linguistici di grandi dimensioni e dell’AI generativa. I difensori si troveranno a giocare di rimessa. Alla fine le parti troveranno un loro equilibrio, ma l’evoluzione non sarà indolore.
La AI data supply chain diventerà obiettivo di attacco
L’AI si sta evolvendo rapidamente e nessuno rimane indifferente alla sua portata e al suo potenziale. I suoi progressi rappresentano però una sfida per i team di sicurezza: un suo uso improprio può comportare una potenziale vulnerabilità a lungo termine, in quanto dati errati o distorti potrebbero essere inseriti nei grandi modelli linguistici (LLM) fondamentali. A livello aziendale, informazioni imprecise su un mercato potrebbero compromettere la capacità di definire e mettere in pratica un’efficace strategia produttiva e commerciale.
Oggi i team di sicurezza lavorano per risolvere questi problemi. Si possono trovare nuovi approcci, ma la migliore difesa è una best practice di vecchia data: assicurarsi che partner e vendor con cui si lavora siano affidabili, verificando che abbiano in essere le giuste pratiche e livelli di controllo.
Nuove sfide per sviluppatori, data scientist e data engineer
L’AI generativa aumenterà anche la produttività degli sviluppatori, rendendo più facile la creazione del codice, in modo da lasciare più spazio al pensiero creativo e alla risoluzione dei problemi necessari per far evolvere l’innovazione. I data engineer inizieranno a lavorare su come consumare un modello di AI e a collegarlo a pipeline di dati progettate per automatizzare l’estrazione di valore. Infine, i data scientist dovranno imparare a lavorare con fornitori esterni: si occuperanno dell’identificazione dei fornitori di modelli di intelligenza artificiale, di come introdurre il giusto contesto in un LLM, riducendo al minimo le allucinazioni o spingendo i LLM a rispondere correttamente alle domande attraverso la formalizzazione del contesto e dei metadati.