ACE sarà il nome della tecnologia con cui Nvidia intende realmente rivoluzionare l’interazione con i personaggi non giocanti, in passato, o meglio nel presente, deputata a schemi consolidati e ripetitivi preconfigurati.
ACE, acronimo di Avatar Cloud Engine si servirà dell’ IA generativa per rendere l’interazione con i NPC decisamente più di spessore e sarà integrata con modelli di linguaggio e tematiche narrative inerenti il mondo di gioco, oltre che generare in autonomia le animazioni facciali integrate con Metahuman in Unreal Engine 5 (o futuri motori che lo supporteranno).
Per provare la bontà di tale approccio e grazie alla collaborazione della Startup Convai, specializzata appunto nell’integrazione di modelli IA in mondi virtuali 3D, è stata sviluppata la demo Kairos, in cui avremo a che fare con Jin, il gestore di un negozio di Ramen in una ambientazione particolarmente turbolenta: lo stesso offrirà al giocatore dettagli e background narrativi in maniera del tutto sorprendente.
Dentro il pacchetto ACE troveremo diverse tecnologie indipendenti quali Nvidia NeMo, che sarà deputato alle grammatiche linguistiche e i limiti impostabili per non andare in contrasto con talune linee espositive sia ambientali che cronologiche, Nvidia Riva per il riconoscimento vocale e la scrittura di testi (pensate a un futuro dove non dovremo selezionare una risposta, parleremo direttamente col microfono con un NPC) e Nvidia Omniverse Audio2Face per conferire espressioni facciali e mimiche ai personaggi mentre parlano.
La combinazione di tutti questi elementi ha veramente un potenziale notevole.
Il primo titolo importante che farà uso, in parte, di tali tecnologie sarà Stalker 2 Heart of Chernobyl.
Amici del Vault per ora è tutto, vi ricordiamo che per restare aggiornati potete seguirci sul nostro gruppo Facebook, qua sotto nei commenti o sul nostro gruppo Telegram.