I ricercatori della Stanford University propongono un modello di intelligenza artificiale chiamato “generatori”. Sono in grado di adattarsi a un ambiente dinamico in un mondo sandbox virtuale, come quello di The Sims.

L’intelligenza artificiale che ci imita è già presente. Dal 2022 abbiamo assistito a un’esplosione delle cosiddette intelligenze artificiali “generative”: si tratta di algoritmi che immagazzinano grandi quantità di dati per poi produrre nuovi contenuti. Può essere testo, immagine o audio. Tuttavia, ChatGPT o Midjourney sono ben lungi dall’avere un comportamento umano. Ma la Stanford University ha lavorato su un tipo di intelligenza artificiale che potrebbe cambiare un po’ questo criterio: i fattori di spawn (Agenti ostetrici). Sta tutto nella parola “agente”: imitando gli umani, imparano a rispondere, in modo adattivo e indipendente, ad altri fattori.

Se mettessi molte di queste IA in un villaggio virtuale, cosa succederebbe? Questo è esattamente ciò di cui tratta questo studio, i cui risultati sono stati pubblicati il ​​​​10 aprile 2023 sulla piattaforma arxiv (e quindi non uno studio pubblicato su rivista o sottoposto a revisione paritaria). Gli autori volevano testare Simulazione ragionevole del comportamento umano “.

Così hanno creato un ambiente interattivo. Un sandbox ispirato al gioco dei Sims Si chiama Smallville. Un replay dell’esperimento, in forma demo, può essere visualizzato online.

Estratto dalla demo online di IA Village Smallville.  // Fonte: agenti generativi: simulatori interattivi per il comportamento umano
Estratto dalla demo online di IA Village Smallville. // Fonte: agenti generativi: simulatori interattivi per il comportamento umano

Ci sono 25 caratteri, ciascuno corrispondente a un’istanza creata in ChatGPT. In questo villaggio vivono molte famiglie e ognuna ha la sua piccola vita umana. Nella famiglia Lin, per esempio, Jun, che si presenta come farmacista…” È il primo ad alzarsi alle 7 del mattino. Si lava i denti, fa la doccia, si veste, fa colazione e controlla le notizie a tavola Fila di ricercatori.

Benvenuti a Smallville, il villaggio abitato dall’intelligenza artificiale

I personaggi sono invitati a generare azioni a seconda del momento e delle circostanze. Ad esempio, quando i ricercatori dicono che sono le sette del mattino, John Lin si lava i denti, bacia sua moglie, si veste e va in cucina. Tale è il caso di suo figlio Eddie. Dopo aver ricevuto le proprie informazioni, si lavò anche i denti e andò in cucina.

Grande giorno // Fonte: account Twitter di 倪爽
Giornata piena. // fonte : 倪爽 account Twitter

I sistemi di intelligenza artificiale devono comunicare tra loro. Questo è ciò che rende le conversazioni così plausibili:

John: Buongiorno, Eddie. Avete dormito bene?
Eddie: Buongiorno, papà. Sì, hai dormito bene.
John: Questo è buono. Cosa stai facendo oggi?
Eddie: Sto lavorando a un nuovo brano musicale per la mia classe. È previsto per questa settimana, quindi sto cercando di finirlo. Ma mi diverto davvero!
John: Sembra fantastico!

Durante il finto giorno di Smalville, questi scambi di informazioni in ogni interazione vengono ricordati da ciascuna IA e producono comportamenti adattati. Ad esempio, quando un personaggio viene a conoscenza della candidatura a sindaco di un altro personaggio, viene spinto a parlarne con un terzo protagonista mimando quello che si potrebbe dire su un argomento del genere:

Isabella: Sto ancora valutando le mie opzioni, ma ho discusso delle elezioni con Sam Moore. Come ti piace?
Tom: Ad essere onesto, non mi piace Sam Moore. Penso che sia distaccato dalla società e non abbia a cuore i nostri migliori interessi.

Interagendo tra loro, gli agenti generatori hanno quindi comportamenti sociali. Emergenti e non preprogrammati Scrivi gli autori nel loro documento di ricerca. Ciò significa che il prompt iniziale (la richiesta che viene dall’umano) a ciascuna IA fornisce solo un contesto che si evolverà e al quale ciascuna IA sarà in grado di rispondere dinamicamente. Quella che sembra una discussione è in realtà una serie di suggerimenti inaspettati che presentano dati. ” Quando gli agenti si notano l’un l’altro, possono impegnarsi in un dialogo e, così facendo, le informazioni possono diffondersi da un agente all’altro ‘, spiegano gli autori.

Questa è una prestazione impressionante per un’intelligenza artificiale come ChatGPT. Questo chatbot non è progettato per imitare alla lunga personaggi di fantasia, o per speculare sui minimi dettagli della giornata di una persona, ma dimostra la sua capacità di imitare alcuni comportamenti umani. Ciò deriva dalla modifica del modello LLM (Logic Learning Machine) che, in questi sistemi di IA, ha anche capacità di memoria e pianificazione, che consente di avere un “ruolo” coerente nel lungo periodo. È una nuova architettura nella progettazione di questi sistemi di intelligenza artificiale, che include una risposta dinamica alle mutevoli condizioni.

Nota che la simulazione della “vita” dei Sims è particolarmente dolce: i sistemi di intelligenza artificiale si concentrano sugli atteggiamenti giusti da avere, senza alcun sentimento negativo in questi personaggi. Possiamo davvero ridurre il comportamento umano a questo?

rischi di antropomorfismo

Lo studio non arriva senza una discussione etica suggerita dai suoi autori. Quest’ultimo si occupa in particolare del pericolo dell’antropomorfismo, ad esempio sentendo che un tale personaggio esprime emozioni umane autentiche. Affermano, nel progettare questo tipo di intelligenza artificiale, ” Mitigare il rischio che gli utenti stabiliscano relazioni sociali “.

Questa incarnazione non è così lontana in effetti. Prima che ChatGPT facesse notizia, Blake Lemoine, un ingegnere di Google, ha ricordato di aver affermato che l’intelligenza artificiale su cui stava lavorando era “consapevole” quanto i suoi colleghi.


Iscriviti a Numerama su Google News per non perdere nessuna notizia!

By AI NEWS

Leave a Reply

Your email address will not be published. Required fields are marked *