Continueremo a incoraggiare la collaborazione e il dialogo aperto tra le parti interessate per creare un ecosistema di IA sicuro Lo afferma OpenAI in un comunicato stampa. contraente Dietro ChatGPT ha risposto indirettamente alle preoccupazioni che i regolatori hanno sollevato nelle ultime settimane su una varietà di argomenti.

Controlla l’età degli utenti per proteggere i bambini

ChatGPT è stato lanciato pubblicamente alla fine del 2022 ed è diventato rapidamente popolare. Questo successo ha un prezzo: essere esaminato dalle autorità di regolamentazione in vari paesi. Il 31 marzo l’Italia è stato il primo Paese europeo a dare la colpa all’azienda californiana Mancato rispetto del Regolamento generale sulla protezione dei dati (GDPR). È ora di una risposta I regolatori italiani hanno bloccato l’accesso all’intelligenza artificiale (AI). Francia, Germania e Irlanda sono soggette alla stessa normativa e hanno scambiato i propri poteri normativi con Roma.

Dall’altra parte dell’Atlantico, le autorità canadesi hanno aperto un’indagine su incidenti simili. Negli Stati Uniti, la Federal Trade Commission (FTC), l’autorità americana per la concorrenza, da parte sua ha annunciato di aver ricevuto un reclamo sulla sicurezza dell’intelligenza artificiale di OpenAI, in particolare per quanto riguarda la sicurezza dei giovani utenti.

Una preoccupazione esistente nel dare la colpa all’autorità italiana, OpenAI ha deciso di rispondere. In un comunicato stampa, la società ha dichiarato di essere al lavoro su una soluzione per verificare l’età dei propri utenti. Spiega che ora sarà necessario avere almeno 18 anni per parlare con l’IA. I bambini di età pari o superiore a 13 anni potranno utilizzare ChatGPT con il consenso dei genitori.

Al di là di questo cambiamento, OpenAI Pubblicizza cercando di limitare l’esposizione dei suoi utenti a scambi inappropriati giovani e meno giovani. Questo è uno degli argomenti di GPT-4, la nuova versione del suo meraviglioso e vincente modello linguistico: avrà l’82% in meno di probabilità di rispondere alle richieste di contenuti proibiti (scioccanti, molesti, pornografici…). L’azienda insiste nel lavorare sodo per impedire alla sua intelligenza artificiale di approvare, ad esempio, la presentazione di piani per una bomba. Nella sua dichiarazione, insiste sul fatto che, data la situazione della pornografia infantile, è più probabile che le richieste illegali vengano segnalate alle autorità”. Quando le persone tentano di caricare materiale pedopornografico nei nostri strumenti di imaging, lo blocchiamo e lo segnaliamo al National Center for Missing & Exploited Children. (Centro nazionale bambini scomparsi e sfruttati).

Consenso dell’utente

In Europa, OpenAI è principalmente sospettato di utilizzare i dati degli utenti a loro insaputa, in particolare in relazione alla loro formazione. In una dichiarazione rilasciata il 5 aprile, AI & nbsp: come essere conformi al GDPR?La Commissione nazionale per l’informatica e le libertà (CNIL) afferma che un cittadino europeo deve dare il proprio consenso esplicito affinché i propri dati vengano utilizzati per addestrare l’IA. Il problema è che nel suo comunicato stampa l’azienda californiana sembra ignorare questo impegno. Dichiara solo che non utilizza i dati dell’utente per ” Vende i propri servizi, pubblicizza o profila le persone “.

OpenAI supporta questo argomento affermando di rimuovere ” Informazioni personali da tutti i dati di allenamento ove possibile Le domande su persone non pubbliche saranno respinte. Indica inoltre che le persone che desiderano eliminare le proprie informazioni personali dal sistema possono farlo. Su quest’ultimo punto, l’avvocato e presidente della Janus Association International, Zoé Villain, ha presentato una denuncia alla CNIL quando OpenAI le ha negato l’accesso ai suoi dati privati.

Possibili derive di GPT-4 & nbsp?

Nella terra dello zio Sam, un gruppo etico di intelligenza artificiale, il Center for Artificial Intelligence and Digital Policy (CAIDP), accusa il GPT-4 di OpenAI, più potente del suo predecessore, di essere un rischio per la privacy e la sicurezza pubblica. Nella loro lettera, gli specialisti citano dozzine di pericoli nelle risposte del modulo: scrittura di codice dannoso, pubblicità troppo personale, razza sleale e preferenze di genere in aree come il reclutamento.

OpenIA afferma di aver aspettato oltre 6 mesi prima di pubblicare GPT-4. Tuttavia, ammette di non poter prevedere tutte le risposte del suo agente di chat.“,” Nonostante questi sei mesi, a volte potrebbe essere necessario dedicare più tempo al miglioramento della sicurezza dei sistemi di intelligenza artificiale “.

ricordandoglielo Un approccio alla sicurezza dell’intelligenza artificiale »OpenAI sta cercando di rispondere alle preoccupazioni di tutti. Per mostrare la sua buona volontà, la società ha ribadito il proprio sostegno alla regolamentazione dell’IA. ” I responsabili politici e i fornitori di intelligenza artificiale dovranno garantire che lo sviluppo e l’implementazione dell’IA siano effettivamente governati a livello globale, quindi nessuno lesina sul futuro. Sottolinea. Resta da vedere come OpenAI reagirà alla prossima legge europea chiamata IA Act.

By AI NEWS

Leave a Reply

Your email address will not be published. Required fields are marked *