Yan Lekun (meta):

“Un certo numero di persone molto intelligenti ha aderito a questa proposta e penso che io e Yan siamo preoccupati”, ha dichiarato Andrew Ng, fondatore e CEO della società di intelligenza artificiale applicata Landing.ai e della società di educazione all’intelligenza artificiale DeepLearning.ai. apprendimento approfondito

Durante un live streaming su YouTube lo scorso venerdì, Yann LeCun, chief scientist di Meta Platforms, ha distinto tra la regolamentazione della scienza e della ricerca sull’IA e la regolamentazione dei prodotti AI. Per lui, lo sviluppo AI più controverso, ChatGPT di OpenAI, è un prodotto, non una ricerca e sviluppo.

“Quando parliamo di GPT-4, o di qualunque cosa OpenAI stia portando sul mercato in questo momento, non stiamo parlando di ricerca e sviluppo, stiamo parlando di sviluppo del prodotto”, ha affermato LeCun. OpenAI è passata da un laboratorio di ricerca sull’IA relativamente aperto, come suggerisce il nome, a un’azienda a scopo di lucro, e ora è una specie di laboratorio di ricerca a contratto, principalmente per Microsoft, che non rivela più nulla su come funziona. sviluppo, non è ricerca e sviluppo.”

LeCun era in uno spettacolo con Andrew Ng, fondatore e CEO della società di intelligenza artificiale applicata Landing.ai e della società di formazione AI DeepLearning.ai. Entrambi hanno presentato le loro argomentazioni contro la moratoria di sei mesi sugli esperimenti di intelligenza artificiale proposta dal Future of Life Institute e firmata da molte personalità.

“Costruire qualcosa di meglio di GPT-4 consentirà a tutte queste applicazioni di aiutare molte persone”

La proposta prevede che i laboratori di intelligenza artificiale prendano una pausa – per almeno sei mesi – per addestrare sistemi di intelligenza artificiale più potenti del GPT-4 di OpenAI, l’ultimo dei modelli di linguaggio di grandi dimensioni che supportano l’IA software come ChatGPT. Un replay di mezz’ora della sessione può essere visto su YouTube.

millimetro. LeCun e Ng hanno entrambi sostenuto che ritardare la ricerca sull’IA sarebbe dannoso perché ostacolerebbe il progresso. “Sento che mentre l’intelligenza artificiale di oggi presenta alcuni rischi di danno – l’equità, la concentrazione del potere sono problemi reali – crea anche valore reale, per l’istruzione, per la salute”, ha affermato Ng.

“Costruire qualcosa di meglio di GPT-4 consentirà a tutte queste applicazioni di aiutare molte persone”, ha continuato Eng. “Fermare questo progresso potrebbe causare molti danni e rallentare la creazione di molti oggetti di grande valore che aiuterebbero molte persone”.

“Perché il progresso della conoscenza e della scienza rallenta?”

Il signor LeCun ha fatto eco a questo, sottolineando la distinzione tra ricerca e sviluppo del prodotto. LeCun ha affermato che la richiesta di ritardi nella ricerca e sviluppo equivale a una nuova ondata di oscurantismo. “Perché il progresso della conoscenza e della scienza rallenta?”

Poi c’è la questione dei prodotti, continua LeCun. Usarli per migliorare la tecnologia e renderla più sicura. LeCun sottolinea la decisione di OpenAI, con GPT-4, di limitare drasticamente la divulgazione di come funziona il suo software. OpenAI perché la maggior parte dei le idee che usavano nei loro prodotti non provenivano da loro.” “Queste erano idee pubblicate da persone di Google, FAIR (Facebook AI Research), vari altri gruppi accademici, ecc.

“Sono d’accordo con la necessità di aprire la ricerca, ma qui non stiamo parlando di ricerca, stiamo parlando di prodotti”, ha affermato LeCun.

La caratterizzazione di LeCun del lavoro di OpenAI come semplice sviluppo del prodotto è coerente con le sue precedenti osservazioni secondo cui OpenAI non ha raggiunto vere scoperte scientifiche. A gennaio, ha notato che ChatGPT di OpenAI “non era particolarmente innovativo”.

e prevedendo una gara IA più nitida. “L’Open AI ha un certo vantaggio, ma non durerà”, afferma.


Fonte: “ZDNet.com”

By AI NEWS

Leave a Reply

Your email address will not be published. Required fields are marked *