AI Tech Data

Velvet, l’IA open source realizzata integralmente in Italia

Non è notizia da poco. Velvet è al 100% made in Italy, pensata per essere leggera nei consumi ma anche efficace nell’uso, con rilevanti capacità di comprensione testuale e funzioni evolute
Velvet

ALMAWAVE, società italiana quotata sul mercato Euronext Growth Milan (Ticker: AIW), e parte del Gruppo Almaviva, attiva in ambito Data & Artificial Intelligence, ha presentato Velvet, famiglia di modelli di Intelligenza Artificiale generativa multilingua.

Si tratta di Velvet 14B e Velvet 2B, Large Language Model (LLM) fondazionali e Instruct, sviluppati integralmente dall’azienda in Italia su propria architettura, e addestrati sul supercalcolatore Leonardo gestito da Cineca. I modelli sono rilasciati in modalità open source e sono pronti per essere utilizzati sulle principali piattaforme di mercato in cloud, on premise e on the edge.

Efficiente, agile e a basso consumo

Valeria Sandei, Amministratore Delegato di Almawave, ha dichiarato: “Velvet nasce dalla scelta strategica di investire con determinazione in un ambito tecnologico di vasto potenziale positivo, realizzando una Intelligenza Artificiale progettata per condensare al tempo stesso efficacia, leggerezza nei consumi e grande agilità nell’adattarsi a svolgere compiti mirati nei settori verticali in cui operiamo. Una visione, la nostra, che non è chiamata ad adeguarsi al contesto Europeo, ma lo considera, invece, come valore fondante nella costruzione. Questo sviluppo è frutto del nostro percorso ultradecennale nelle tecnologie del linguaggio, da sempre incentrato sulle competenze tecniche nella IA, che oggi – e sempre più in futuro – possono fare la differenza. Un patrimonio di conoscenza cresciuto in Almawave, sia sul fronte R&D – in sinergia con l’ecosistema accademico italiano – sia nella comprensione dell’uso effettivo di queste tecnologie, grazie a centinaia di progetti concreti realizzati. Il lancio di questi primi modelli generativi è solo l’inizio e ci conferma come un player protagonista in Europa, capace di innovare, pensando che l’IA sia una sfida aperta e che quanto fatto sia la miglior premessa per mettere in campo evoluzioni sempre più rilevanti”.

Valeria Sandei, Amministratore Delegato Almawave
Valeria Sandei, Amministratore Delegato Almawave

Almawave ha identificato il punto di equilibrio nella costruzione di un modello che massimizza la performance con un uso infrastrutturale leggero. Efficace, ma a basso consumo, può essere utilizzato anche su piccole infrastrutture con processori GPU di ultima generazione, contenendo impronta di carbonio, consumi di risorse energetiche, oltre che riducendo i costi di addestramento e di esercizio in contesti estesi. Velvet è pronto all’uso in cloud, on premise e on the edge, grazie alle collaborazioni con operatori leader di mercato, fra cui AWS, Oracle, Microsoft, Dell e quella con IBM in fase di attuazione.

Governance dei dati e rispetto del quadro regolatorio

Velvet è una famiglia di modelli generativi fondazionali e Instruct, progettati totalmente su architettura Almawave, secondo le linee di riferimento dell’AI Act e del quadro regolatorio complessivo. I modelli, rilasciati in modalità Open Source, sono multilingua, e si contraddistinguono per le capacità specifiche di tutela delle singole lingue, in particolare di quella italiana. Sono state infatti utilizzate tecniche e metodologie di data lineage e addestrati algoritmi proprietari, disegnati a questo scopo. Velvet implementa un approccio attento nella selezione dei dati, per ridurre i rischi di discriminazione e mitigare i bias. Particolare attenzione nella progettazione è stata posta da Almawave sul tema Privacy, per consentire una gestione più efficace e tempestiva di queste tematiche sensibili ed essenziali. In questo contesto, elemento innovativo a livello internazionale di Velvet è ‘PAE’ (Privacy Association Editing), un algoritmo proprietario che permette di eliminare, ove necessario, direttamente dal modello le informazioni sensibili, senza necessità di riaddestramento.

Un AI ‘ready to use’ e facilmente specializzabile

Velvet è stata tecnicamente realizzata con rilevanti capacità di comprensione testuale e funzioni evolute che la rendono adatta a svolgere compiti specifici nelle aziende, anche in settori verticali complessi come Sanità, Pubblica Amministrazione, Sicurezza, Finanza, Mobilità. Una specializzazione mirata e veloce che si integra nativamente anche all’interno di AIWave, la piattaforma Almawave di Intelligenza Artificiale Multiagentic, con oltre 30 soluzioni applicative pronte all’uso, destinate a diversi settori e finalizzate alla gestione di compiti articolati su dati e informazioni. Velvet, già in fase di beta-testing presso primari clienti per casi d’uso applicativi concreti, è progettata per essere intuitiva e user-friendly, economicamente sostenibile e per fornire risultati precisi e affidabili.

Collaborazioni scientifiche e progetti

Almawave si pone, da sempre, come azienda sinergica con la ricerca nazionale, parte attiva dell’ecosistema e volano della competenza IA in chiave industriale. I modelli Velvet sono anche frutto delle numerose collaborazioni in essere con il mondo accademico e della ricerca, fra cui ad esempio Università Tor Vergata, Fondazione Bruno Kessler, Università La Sapienza, Università di Catania e Università di Bari. Per la compliance etica e regolatoria, Almawave ha collaborato con SIpEIA – Società Italiana per l’Etica nell’Intelligenza Artificiale.

Inoltre, la società in partnership con varie primarie realtà industriali italiane, si è aggiudicata di recente Innovate, il primo calcolatore Industry grade per erogare servizi di Intelligenza Artificiale promosso da Euro HPC, che sarà gestito da Cineca.

Specifiche tecniche

Velvet 14B – Un Large Language Model caratterizzato da 14 miliardi di parametri, 6 lingue (italiano, tedesco, spagnolo, francese, portoghese, inglese) un vocabolario da 127 mila parole e una finestra di contesto da 128 mila token che lo rendono adatto ai set documentali più articolati. È stato addestrato sul Supercalcolatore Leonardo gestito da Cineca, su oltre 4.000 miliardi di token e sviluppato per adattarsi efficientemente a una molteplicità di settori verticali. Ha fra i suoi valori fondanti il controllo dei dati di addestramento e la gestione etica e sostenibile della tecnologia.

Velvet 2B – È un modello caratterizzato da 2 miliardi di parametri, in italiano e inglese, con una finestra di contesto da 32 mila token e un vocabolario di 127 mila parole. È stato addestrato sul supercomputer Leonardo di Cineca con oltre 2.000 miliardi di token.

Entrambi i modelli sono rilasciati open source nella versione Instruct.