Interactive

Seeweb e Clastix lanciano ‘Serverless GPU’: il servizio per addestrare AI senza risentire della mancanza di hardware

Antonio Baldassarra, Ceo Seeweb
Antonio Baldassarra, Ceo Seeweb

Mettere a disposizione delle aziende che stanno sviluppando modelli di Intelligenza Artificiale delle GPU in cloud, per non fronteggiare i cali nelle forniture hardware, e allo stesso tempo ottimizzare gli investimenti, utilizzando solo la potenza di calcolo di cui si ha realmente bisogno e soprattutto integrandola in qualsiasi ambiente di calcolo già esistente attraverso la tecnologia Kubernetes.

È il servizio, 100% made in Italy, Serverless GPU: a lanciarlo sono Seeweb – azienda con Data Center nel Lazio e nella Lombardia e impegnata nel fornire infrastrutture per l’Intelligenza Artificiale – in collaborazione con Clastix, realtà lombarda pioniera nelle infrastrutture cloud di ultima generazione.

La novità è appunto non solo quella di un approvvigionamento veloce, senza limiti e ‘a consumo’ di schede grafiche super potenti per le attività di training e inferenza, ma anche la possibilità di utilizzarle a estensione della propria architettura IT, senza migrare nulla. Vedere le GPU come ‘locali’ al proprio ambiente – nonostante siano erogate in cloud da Seeweb – e beneficiare di risorse per l’intelligenza artificiale compliant, completamente erogate da Data Center italiani e con focus sulla sostenibilità grazie all’alta densità dell’infrastruttura e all’alimentazione delle server farm esclusivamente usando energia pulita.

Lo sviluppo che l’Intelligenza Artificiale ha subito negli ultimi anni ha infatti determinato un’impennata nella domanda di hardware, e ciclicamente i produttori non riescono a fare fronte agli ordini. I problemi maggiori si riscontrano nell’offerta di GPU, le schede grafiche necessarie per addestrare i modelli di intelligenza artificiale.

La carenza di hardware, oltretutto, spinge molte aziende in tutto il mondo ad acquistare componenti più avanzati di quelli di cui avrebbero realmente bisogno. Le GPU messe a disposizione dei team che sviluppano modelli di AI vengono infatti allocate secondo stime approssimative e non secondo le reali esigenze del momento. Il problema non è solamente lo spreco di risorse in sé: la potenza di calcolo delle schede grafiche infatti perde un pò la sua efficacia, se non affiancata da sistemi in grado di allocare e ottimizzare le risorse in modo dinamico, seguendo le reali necessità.