I ricercatori statunitensi hanno pubblicato uno studio in cui affermano di aver condotto esperimenti che dimostrano che il modello di intelligenza artificiale GPT-4 di OpenAI supera gli esseri umani più abili nelle attività di classificazione dei dati. Il rapporto afferma che l’esecuzione di GPT-4 ha consentito al team di ricerca di risparmiare oltre $ 500.000 e 20.000 ore lavorative. I ricercatori hanno affermato che i tag generati da GPT-4 sono “competitivi” con i tag degli strumenti di feedback umano. Questo sviluppo solleva preoccupazioni per il futuro degli annotatori umani mentre l’IA continua a migliorare.

Lo studio è stato condotto da un team di ricercatori della Carnegie Mellon University, della Yale University e della University of California, Berkeley. Stavano studiando quelle che chiamano le “tendenze machiavelliche dei chatbot intelligenti”. Gli agenti sintetici sono tradizionalmente addestrati per massimizzare la ricompensa, che può incitare alla ricerca del potere e all’inganno, proprio come prevedere il tratto successivo nei modelli linguistici può indurre intossicazione. Quindi gli agenti imparano naturalmente ad essere machiavellici? E come si misurano questi comportamenti in modelli generici come GPT-4? , loro scrivono. Poi hanno cercato di rispondere a queste domande.

Come parte dello studio, i ricercatori affermano di aver automatizzato la denominazione degli script utilizzando GPT-4. Secondo il rapporto dello studio, i ricercatori avevano a disposizione 572.322 script di commenti e quindi cercavano un modo economico per svolgere questo compito. Secondo loro, assumere i migliori commentatori umani per Surge AI a $ 25 l’ora costerebbe $ 500.000 per 20.000 ore uomo, che è un sacco di soldi da investire in un progetto di ricerca. Surge AI è una startup con sede a San Francisco che impiega esseri umani per eseguire la classificazione dei dati per aziende di intelligenza artificiale tra cui OpenAI, Meta e Anthropic.

Pertanto, il team ha testato la capacità di GPT-4 di automatizzare le annotazioni dei dati utilizzando prompt personalizzati. Dice che i risultati erano definitivi. Il team accademico ha affermato che i punteggi del modello AI sono altamente competitivi con i punteggi umani. Il rapporto rileva che un confronto di 2.000 punti dati etichettati da tre esperti e tre annotatori umani con etichette generate da GPT-4 mostra che le etichette generate dall’IA avevano una relazione più forte con le etichette degli esperti rispetto alle etichette generate dall’IA. segno di annotazione umana. Ma non è tutto.

I ricercatori affermano inoltre che GPT-4 ha superato i commentatori umani in tutte le categorie di etichette tranne due, a volte superandole di un fattore due. Questo risultato mostra anche che con il miglioramento dei modelli linguistici di grandi dimensioni (LLM), il ruolo vitale del lavoro di squadra nelle organizzazioni di intelligenza artificiale potrebbe essere minacciato. Il termine lavoro di squadra si riferisce a una nuova forma di lavoro basata sulla digitalizzazione e sulla messa in comune delle risorse. Si tratta di invitare un gran numero di persone (corvo) a svolgere un compito. Il lavoratore collettivo offre le sue competenze o tramite il principio dell’asta oa un prezzo fisso.

Lavoro fornito o gestito tramite un servizio digitale (sito Web o app) che funge da matchmaker o moderatore. Alcuni noti esempi di lavoro di squadra includono Amazon Mechanical Turk, Clickworker, CrowdFlower, ecc. Le aziende di intelligenza artificiale utilizzano i crowdworker per addestrare i propri modelli linguistici classificando i dati. Ad esempio, OpenAI ha supplicato i lavoratori nei paesi di Knyans per meno di $ 2 l’ora per rendere ChatGPT meno tossico. Secondo alcuni analisti, l’emergere di modelli di intelligenza artificiale come ChatGPT potrebbe danneggiare l’annotazione umana.

Alcune settimane fa, i ricercatori hanno scoperto che GPT-3.5 ha superato i migliori lavoratori del team di Mechanical Turk in complesse attività di etichettatura. Surge AI, che vanta una “forza lavoro d’élite” fluente in più di 40 lingue, potrebbe dover affrontare una maggiore concorrenza da parte degli LLM poiché le aziende optano invece per etichette generate dall’IA, solo per gli host umani. Ma l’automazione della classificazione dei dati solleva problemi di privacy. I set di dati a volte includono dati sensibili e i moduli possono finire per fuoriuscire.

C’è una certa protezione nel fatto che era molto costoso per qualcuno ascoltare ogni nostra telefonata, o leggere ogni e-mail, ecc. Temo che non sia più così, scrive un recensore. Tuttavia, la questione della privacy non è nuova per spiegare i dati. Ad esempio, nel caso degli assistenti vocali, i fornitori di questi strumenti, inclusi Google e Amazon, registrano e analizzano le conversazioni tra dispositivi e utenti per migliorare i propri servizi. In genere, questi dati non sono resi anonimi, il che solleva problemi di privacy.

I modelli di intelligenza artificiale come GPT-4 possono funzionare senza interruzioni 24 ore su 24, 7 giorni su 7 e possono dimostrarsi più accurati anche degli esseri umani più abili nelle attività di classificazione dei dati. Tuttavia, i critici ritengono che i modelli di intelligenza artificiale abbiano maggiori probabilità di far trapelare dati rispetto alle note a piè di pagina umane. A marzo, un rapporto ha rivelato che i dipendenti condividevano dati di lavoro sensibili con ChatGPT, sollevando preoccupazioni sulla loro sicurezza. A causa del modo in cui funziona, ChatGPT può effettivamente ricordare questi dati e perderli successivamente in caso di errore o hot injection.

Questo tipo di comportamento può portare a massicce fughe di informazioni proprietarie. Nel frattempo, altri analisti si preoccupano dell’abuso delle capacità di annotazione e messa a punto dei modelli di intelligenza artificiale. Tutte le informazioni registrate possono ora essere efficacemente riassunte e collegate tra loro. La riservatezza non esiste più. Un recensore ha scritto: “Presto tutti i governi autoritari (e i governi democratici, anche se segretamente) avranno piattaforme integrate che tengono traccia di ogni tua mossa, contatto, utilizzo di Internet e finanze”.

Aggiunge che il Grande Fratello non è mai stato così efficace come lo è oggi. Il contesto è questo: in precedenza, la macchina di monitoraggio dello stato invitava gli individui a raccogliere, analizzare e sintetizzare i dati sulla popolazione. E più persone fanno parte della macchina di sorveglianza, più i governi corrono il rischio di confrontarsi con gli informatori. Questo, ad esempio, è il caso dell’ex appaltatore della National Security Agency Edward Snowden. Nel 2013, i metodi utilizzati dal governo federale degli Stati Uniti per spiare altri paesi, compresi i loro alleati, sono stati portati all’attenzione del mondo.

Oggi, con modelli di intelligenza artificiale come ChatGPT, i governi possono tranquillamente implementare un piano di sorveglianza di massa. Questo può essere fatto senza una grande forza lavoro. E questi nuovi metodi di sorveglianza di massa potrebbero rivelarsi più formidabili che mai. Il mese scorso, una lettera aperta firmata da centinaia di grandi nomi della tecnologia, tra cui Elon Musk, ha esortato i principali laboratori di intelligenza artificiale del mondo a interrompere l’addestramento di nuovi super sistemi per sei mesi.

Ritengono che i recenti sviluppi nell’intelligenza artificiale comportino “gravi rischi per la società e l’umanità”. Il messaggio è arrivato solo due settimane dopo la pubblicazione di GPT-4. Molti esperti temono che con l’accelerazione della corsa agli armamenti dell’IA, l’umanità si stia dirigendo verso il disastro. D’altra parte, Bill Gates si è ufficialmente opposto a questa idea di boicottaggio.

Fonte: rapporto di studio

E tu?

Cosa ne pensi?
Cosa ne pensi delle conclusioni dello studio?
Cosa ne pensi degli impatti che i modelli di intelligenza artificiale possono avere sulla società?
Pensi che possa essere utilizzato negli strumenti di sorveglianza di massa?

Vedi oltre

OpenAI ha supplicato i lavoratori in Kenya di pagare meno di $ 2 l’ora per rendere ChatGPT meno tossico e gli esperti affermano che il tasso è basso a causa di “compiti umili” per il personale

I dipendenti condividono dati aziendali sensibili con ChatGPT, il che solleva problemi di sicurezza e ChatGPT può archiviare e divulgare questi dati in un secondo momento.

Gli Stati Uniti hanno iniziato a studiare la possibilità di regolare i sistemi di intelligenza artificiale come ChatGPT, per garantire che queste tecnologie siano legali, efficaci, etiche, sicure e affidabili.

Lo sviluppatore crea un programma di IA continuo. Costruito su GPT-4, Wolverine corregge gli errori al volo durante l’esecuzione del codice Python e quindi esegue nuovamente il codice

By AI NEWS

Leave a Reply

Your email address will not be published. Required fields are marked *