AI Tech Data

Meta costruisce AI hyperscale con milioni di chip NVIDIA

Meta rafforza la partnership con NVIDIA per costruire un’infrastruttura AI su larga scala, potenziando data center, GPU e CPU avanzate e portando intelligenza artificiale su servizi come WhatsApp per miliardi di utenti
Meta - Nvidia

Meta rafforza in modo strutturale l’asse con NVIDIA e mette le basi per la prossima fase della propria roadmap sull’intelligenza artificiale. L’annuncio ufficiale parla di una partnership strategica pluriennale che copre ambienti on-premises, cloud e infrastruttura AI, con un dispiegamento su larga scala di CPU, networking e milioni di GPU di nuova generazione.

Milioni di GPU e data center hyperscale

Al centro dell’accordo c’è la costruzione di data center hyperscale ottimizzati sia per il training sia per l’inference dei modelli. Meta distribuirà sistemi basati su NVIDIA GB300 e adotterà su larga scala le GPU delle generazioni Blackwell e Rubin, con l’obiettivo di sostenere carichi di lavoro sempre più intensivi legati a raccomandazione, personalizzazione e modelli AI di frontiera.

CPU Arm, performance per watt e roadmap al 2027

La collaborazione non si limita alle GPU. Meta estenderà l’adozione delle CPU Arm-based NVIDIA Grace nei data center di produzione, con un focus esplicito sul miglioramento della performance per watt – leva cruciale in un contesto di crescente pressione energetica.

Si tratta del primo deployment su larga scala basato esclusivamente su Grace, sostenuto da investimenti congiunti in codesign e ottimizzazione software.

Le due aziende stanno inoltre lavorando all’introduzione delle future CPU Vera, con potenziali rollout estesi a partire dal 2027, per ampliare ulteriormente l’impronta di calcolo AI ad alta efficienza energetica.

Architettura unificata e networking AI-scale

Meta costruirà un’architettura unificata che colleghi data center proprietari e ambienti di NVIDIA Cloud Partner, con l’obiettivo di semplificare le operazioni e massimizzare scalabilità e performance.

Elemento chiave sarà l’integrazione della piattaforma di networking NVIDIA Spectrum-X Ethernet – adottata sull’infrastruttura e sul Facebook Open Switching System – per garantire throughput elevato, bassa latenza prevedibile e maggiore efficienza operativa ed energetica nei workload AI su larga scala.

AI e privacy: il ruolo del Confidential Computing su WhatsApp

Un capitolo strategico riguarda la sicurezza dei dati. Meta ha adottato NVIDIA Confidential Computing per il ‘private processing’ su WhatsApp, abilitando funzionalità AI nella piattaforma di messaggistica senza compromettere riservatezza e integrità delle informazioni.

L’obiettivo è estendere progressivamente queste capacità anche ad altri casi d’uso nel portafoglio Meta, con un approccio che punta a coniugare AI avanzata e tutela della privacy – tema sempre più centrale nel dibattito regolatorio e reputazionale.

Codesign e modelli di nuova generazione

Sul piano tecnico, i team di ingegneria delle due aziende stanno lavorando in codesign per ottimizzare e accelerare i modelli AI di nuova generazione sui workload core di Meta. L’integrazione tra piattaforma full-stack NVIDIA e sistemi di produzione di Meta punta a generare guadagni di performance ed efficienza per servizi utilizzati da miliardi di persone.

In prospettiva, l’accordo consolida la dipendenza strategica di Meta dall’ecosistema NVIDIA, ma allo stesso tempo rafforza la capacità del gruppo di costruire un’infrastruttura proprietaria capace di sostenere la prossima ondata di applicazioni AI – dalla personalizzazione su larga scala fino ai servizi conversazionali e alle nuove forme di interazione intelligente.