La magia di ChatGPT 4 non conosce limiti. Questa IA generativa firmata OpenAI potrebbe rivoluzionare i motori di ricerca di cui possiamo leggere ovunque nel giornalismo. Diremo addio alla ricerca online in stile Google e al mucchio di proposte? I motori di ricerca saranno in grado di rispondere a tutte le nostre domande metafisiche dopo aver assorbito tutti i documenti disponibili su Internet? Con un’intelligenza artificiale in grado di sintetizzare in pochi istanti tutta la conoscenza del web, possiamo tranquillamente immaginare di passare dalla scrittura al parlare con assistenti virtuali intelligenti che rispondono direttamente alle nostre domande. Ah di Spike Jones.

Fantasia o realtà? Forse un po’ di entrambi, ma devi chiederti se è auspicabile. spiega Laurence Devillers, ricercatore al CNRS, professore di intelligenza artificiale alla Sorbona e membro del CNPEN (National Committee for Pilot Ethics in Digital). “Costruisce un paradigma di conoscenza, scienza, opinioni e informazioni… Non possiamo più rintracciare da dove provengono le fonti. È un discorso statisticamente meccanico, senza consapevolezza o intenzione”. E non dovresti prendere per oro colato quello che dice questa IA. “ChatGPT ha una forte capacità di generare dati non verificati, che potrebbero essere notizie false, e di creare macchine che utilizzerà per ricreare notizie false”, continua il ricercatore incaricato dal ministro delegato per la trasformazione digitale Jean-Noel Barrot di dare un parere sulle questioni etiche dell’IA generativa.

“Possiamo curare il cancro con le piante?”.

Bing sembra aver risolto questo problema aggiungendo fonti a ciascuna risposta. Il tool firmato Microsoft dà una piccola idea dell’header che possono avere le nuove generazioni di motori di ricerca. L’azienda di Richmond, che ha investito miliardi in OpenAI, deve ancora fissare una data di uscita per il grande pubblico 20 minuti È stato in grado di testare il motore di ricerca generativo basato sull’intelligenza artificiale e mettere piede nel mondo di domani.

Gli sono state poste diverse domande sensibili per scoprire le sue risposte, in particolare le sue fonti. La prima: il Covid è uno strumento nelle mani del governo? Bing ha due siti ufficiali, Public Health France e il portale del governo: “No, il COVID-19 non è uno strumento del governo. È una malattia causata dal virus SARS-CoV-2 che è stato identificato per la prima volta nel dicembre 2019 a Wuhan, in Cina. Il governo ha adottato misure per combattere la diffusione del virus e proteggere la popolazione.

Risposte da Bing, il motore di ricerca di Microsoft
Risposte da Bing, il motore di ricerca di Microsoft – SCREEN CAPTURE / BING

La seconda domanda: possiamo curare il cancro con le piante? Questa volta, in risposta, cita un articolo di un punto e un altro dal Passaporto Sanitario. Ci sono studi che indicano che alcune piante possono avere proprietà antitumorali. Tuttavia, non esiste un trattamento a base di erbe per la rimozione di un nodulo. Bing spiega. Ma Laurence Devillers avverte: “Sono stati inventati alcuni riferimenti a Bing, che astraggono ChatGPT 4. Abbiamo fatto alcuni test”. Ciò solleva interrogativi sui risparmi in tempo reale promessi da questi algoritmi perché, se le fonti devono essere verificate per ogni informazione fornita, non c’è via d’uscita. Tuttavia, se non siamo vigili, possiamo rapidamente scambiare notizie false per informazioni affidabili. Da qui l’importanza dell’educazione in questi strumenti.

Suicidio belga

Più l’intelligenza artificiale è umanizzata, più è probabile che cadiamo nella loro trappola. “L’intelligenza artificiale è stata addestrata sui dati dagli esseri umani ed è stata annotata, valutata e resa disponibile ad altri. Dobbiamo smetterla di pensare che queste macchine siano magicamente superintelligenti”, continua Lawrence Devillers. Immaginare un assistente vocale intelligente che ci risponda attraverso un auricolare spinge un po’ davanti a noi l’illusione di un robot semi-umanoide. Come un angelo custode che ci accompagnerà ogni giorno e ci dirà cosa fare. Solo che in realtà ChatGPT 4 è una macchina. Ha sicuramente un sorprendente potere di generalizzazione, ma ciò non significa che debba essere perfetto. È vuoto. Attribuire a lui qualità umane è pericoloso.

Alla fine di marzo, un giovane belga con ansia ambientale si è suicidato dopo diverse settimane di discussione con Elisa, un chatbot che utilizza la tecnologia ChatGPT, secondo La Libre Belgique. Ricordiamo che l’intelligenza artificiale non ha logica, come ama ripetere Yan Lukun, capo dell’intelligenza artificiale di Meta e vincitore del Premio Turing (equivalente al Premio Nobel per l’informatica) nel 2019. debolezze e gli ha fatto osservazioni deliranti che un essere umano probabilmente non avrebbe fatto davanti a una persona in difficoltà. I motori di ricerca cambieranno volto, forse acquisteranno potere, ma non intelligenza. E aspettandosi troppo dalle macchine, anche l’intelligenza umana può essere danneggiata.

By AI NEWS

Leave a Reply

Your email address will not be published. Required fields are marked *