Di Riccardo Inglisa
Il viaggio emozionante di Ellie e Dina in The Last of Us Parte II, rilasciato nel 2020, rappresenta una narrazione epica di vendetta e sopravvivenza, ma anche un successo tecnologico nel campo delle animazioni facciali, guidate dall’intelligenza artificiale.
Naughty Dog ha sviluppato un sistema sofisticato per garantire un realismo senza precedenti nelle espressioni emotive dei personaggi. Alla base di questa avanzata tecnologia c’è il ‘motion capture’, un processo affinato manualmente dagli animatori che aggiunge anche dettagli emotivi che arricchiscono le espressioni facciali.
L’intelligenza artificiale gioca un ruolo cruciale nel perfezionare questi dettagli. Gestisce i movimenti oculari, noti come saccadi, e seleziona automaticamente espressioni da una vasta gamma di stati emotivi per ciascuno dei 25 personaggi principali del gioco. Keith Paciello, animatore di Naughty Dog, ha sottolineato: ”Quando miri con il controller a Ellie per guardare il dipinto, ho animato piccoli movimenti oculari per suggerire un processo di intenzione.” Ogni personaggio principale ha circa 20 stati emotivi applicati ai volti e ai movimenti del corpo, inclusi protagonisti, nemici e infetti.
Il processo di creazione delle animazioni facciali realistiche si articola in due fasi essenziali: il motion capture e le animazioni manuali. Durante il motion capture, gli attori interpretano i personaggi indossando tute speciali con sensori che registrano ogni movimento del loro corpo e del viso. Questi dati vengono poi utilizzati per creare animazioni che riflettono fedelmente le performance degli attori, apportando un livello di realismo senza precedenti ai personaggi del gioco.
Dopo il motion capture, gli animatori di Naughty Dog intervengono per raffinare ulteriormente le animazioni facciali attraverso un processo manuale dettagliato (correggono espressioni e aggiungono sfumature emotive che potrebbero essere sfuggite durante la fase di cattura dei movimenti). Ad esempio, utilizzando il modello facciale di Ellie come punto di partenza, Paciello ha scolpito espressioni basate su sette emozioni universali: gioia, tristezza, paura, rabbia, sorpresa, disgusto e disprezzo. In collaborazione con il team dedicato ai dialoghi, sono state identificate le emozioni da attivare, creando così una solida base che consente ai personaggi di transire fluidamente da un’emozione all’altra. Il processo che permette di raggiungere l’output finale si può riassumere in 2 fasi, ricordandoci che per rendere gli occhi dei personaggi più realistici, Naughty Dog ha implementato un sistema che simula i piccoli movimenti oculari (saccadi).
- Selezione delle Espressioni: L’AI sceglie un’espressione facciale dalla gamma dei diversi stati emotivi, assicurando così che le espressioni facciali siano appropriate al contesto del gioco e alle emozioni che i personaggi stanno vivendo.
- Coordinazione con il Linguaggio del Corpo e il Respiro: L’animazione facciale lavora in sincronia con i movimenti degli occhi, il linguaggio del corpo e la respirazione. Ad esempio, i personaggi possono mostrare segni di affaticamento o tensione non solo attraverso le espressioni facciali, ma anche tramite il respiro affannato o le posture tese.
Uno degli obiettivi principali dell’integrazione con il gioco era garantire transizioni fluide tra le scene cinematografiche e il gameplay. Dopo una scena cinematografica, i personaggi continuano a mostrare emozioni coerenti anche durante il gameplay, mantenendo alta e continua l’immersione del giocatore senza stacchi emotivi. Inoltre, i personaggi reagiscono in modo credibile a ciò che accade intorno a loro. Ad esempio, Ellie potrebbe mostrare tristezza davanti a un dipinto significativo, anche senza un dialogo che spieghi il suo stato d’animo. Questo livello di dettaglio è possibile grazie all’integrazione di sistemi di intelligenza artificiale che analizzano l’ambiente e determinano le reazioni più appropriate al contesto.
L’uso dell’AI per l’animazione facciale in The Last of Us Parte II ha rappresentato un enorme passo avanti nell’industria dei videogiochi. Le espressioni facciali realistiche e le reazioni emotive dei personaggi non solo migliorano l’aspetto visivo del gioco, ma contribuiscono anche a una narrazione più coinvolgente e a un’esperienza di gioco più immersiva tanto da esser stati utilizzati anche in altri titoli successivi.