Alcune persone gridano “la fine della civiltà” quando si tratta di IA come ChatGPT e Midjourney. È importante mantenere le sfumature e ricordare che i ricercatori hanno già lavorato per anni sulle frontiere dell’IA.
Questo articolo è tratto dalla newsletter Numerama #Rule30, distribuita gratuitamente ogni mercoledì nelle vostre caselle di posta.
Essere un giornalista specializzato in nuove tecnologie significa essere una vittima della moda. Il mio settore è dominato da aziende che hanno un interesse di marketing per l’innovazione (o almeno dicono di averlo). Nei miei dieci anni di lavoro, ho scritto su Chatbot, Connected Glasses, Realtà Aumentata, Realtà Virtuale, Quantum Computing, Deep Tech, Criptovalute, NFT, Metaversi, Intelligenza Artificiale, ecc. Ciò non significa che questi argomenti non siano interessanti. Ma dobbiamo tenere presente che questa agenda mediatica non è neutra, che avvantaggia gli attori economici e politici e che alcuni argomenti vengono trascurati tanto rapidamente quanto vengono messi in ombra dalle startup e dai media.
La newsletter #Rule30 viene inviata ogni mercoledì alle 11:00.
Per registrarsi gratuitamente per riceverlo, lo trovate qui.
Non vi sfuggirà, l’argomento del momento è l’intelligenza artificiale (nota: era così anche nel 2016). Più specificamente, sistemi di intelligenza artificiale generativa, come ChatGPT o Midjourney. I loro progressi hanno allarmato un gruppo di diverse migliaia di personalità tecnologiche, che la scorsa settimana hanno co-firmato una lettera aperta chiedendo ” rottura Almeno sei mesi, che è il tempo per mettere in atto tutele legislative e tecniche. Il testo è stato ampiamente ripreso dai media. Fu presto criticato per il suo discorso apocalittico (cito: “ Dovremmo rischiare di perdere il controllo della nostra civiltà? “).
È stato notato che la fondazione dietro questa iniziativa, il Future of Life Institute, è stata pesantemente finanziata da Elon Musk, che ha ambizioni nel settore dell’IA (ha co-fondato OpenAI, il successore di ChatGPT, prima di entrare in 2018). Sembra vicino al movimento a lungo raggio, una corrente di pensiero popolare nella Silicon Valley, che prevede un futuro pieno di minacce che potranno essere superate solo investendo pesantemente in soluzioni tecnologiche radicali.
I dati trasmessi attraverso questo modulo sono per PressTiC Numerama, che agisce in qualità di titolare del trattamento. Questi dati sono trattati con il tuo consenso allo scopo di inviarti notizie e informazioni via e-mail relative ai contenuti editoriali pubblicati su questo sito. Puoi opporti a queste e-mail in qualsiasi momento facendo clic sui link di annullamento dell’iscrizione all’interno di ciascuna di esse. Per maggiori informazioni è possibile fare riferimento all’intera Informativa sul Trattamento dei Dati Personali.
Hai il diritto di accesso, rettifica, cancellazione, restrizione, portabilità e opposizione per motivi legittimi ai dati personali che ti riguardano. Per esercitare uno di questi diritti, si prega di inviare la richiesta tramite l’apposito modulo di richiesta di esercizio dei diritti.
“È pericoloso distrarci con fantasie di un futuro prospero o disastroso a causa dell’intelligenza artificiale”.
Come ogni essere tecnologico, l’IA merita di essere messa in discussione e criticata. Tuttavia, proprio come dovremmo diffidare degli ottimisti che promettono un’utopia completamente automatizzata, possiamo anche mettere in discussione le intenzioni delle persone che ci dicono che domani arriverà la fine del mondo. Dopo aver pubblicato la famosa lettera aperta, ho trovato un altro testo interessante. È stato co-autore di Timnit Gebru, Emily M. Bender, Angelina McMillan-Major e Margaret Mitchell, ricercatori specializzati in etica dell’IA. È noto che nel 2021 hanno scritto un articolo accademico sui limiti dei grandi paradigmi linguistici (come il modello ChatGPT) che avrebbe causato il licenziamento di due di loro, allora dipendenti di Google. Queste quattro donne hanno risposto alla lettera aperta di Future of Life, citando direttamente il loro lavoro. Tuttavia, sono molto critici nei confronti del suo contenuto.

” È pericoloso distrarsi con fantasie di un futuro prospero o disastroso a causa dell’intelligenza artificiale. Questo tipo di vocabolario ci fa credere che questi programmi siano capaci di più cose di quanto non siano in realtà, e che sarebbero esseri capaci di sentimenti e intelligenza. Dicono. Questo non solo dà via a qualsiasi pensiero critico su sistemi come ChatGPT, ma aiuta anche a distrarre da chi è veramente responsabile della situazione. Il problema non è la roba tecnologica, ma chi la costruisce e come.»
L’intelligenza artificiale non ha bisogno di un futuro distopico per porre problemi molto tangibili e veramente moderni. Da anni ricercatori, attivisti, attivisti e altri esperti mettono in guardia contro la precarietà del lavoro salariato a favore dell’automazione, lo sfruttamento dei click-worker, la disinformazione che prende di mira soprattutto le persone appartenenti a minoranze, gli algoritmi che riproducono e rafforzano le disuguaglianze, e il necessità di trasparenza di fronte a strumenti che stanno progressivamente sostituendo i servizi pubblici ma in mano alle aziende private.
A differenza di altri argomenti alla moda, questi problemi hanno tardato a ottenere copertura mediatica. Perché sono meno facili da capire di un riferimento fantascientifico spaventoso. Perché è più popolare twittare sulla fine del mondo. Perché queste minacce colpiscono prima di tutto le persone le cui voci vengono sistematicamente ignorate. Perché, soprattutto, i pionieri delle nuove tecnologie (uso il maschile volontariamente) alla fine beneficiano di questo sistema, e non hanno alcun interesse a smantellarlo. ” Invece di adattarci a una società dominata dalle macchine, dovremmo costruire macchine che funzionino per tutti. concludono i ricercatori. L’attuale corsa AI non è un incidente mortale, in cui la nostra unica scelta sarebbe correre più veloce o più lento. È un insieme di decisioni in cui possiamo scegliere qual è il nostro vero scopo.Non c’è bisogno di temere la fine del mondo. Possiamo prima preoccuparci della nostra realtà.
I dati trasmessi attraverso questo modulo sono per PressTiC Numerama, che agisce in qualità di titolare del trattamento. Questi dati sono trattati con il tuo consenso allo scopo di inviarti notizie e informazioni via e-mail relative ai contenuti editoriali pubblicati su questo sito. Puoi opporti a queste e-mail in qualsiasi momento facendo clic sui link di annullamento dell’iscrizione all’interno di ciascuna di esse. Per maggiori informazioni è possibile fare riferimento all’intera Informativa sul Trattamento dei Dati Personali.
Hai il diritto di accesso, rettifica, cancellazione, restrizione, portabilità e opposizione per motivi legittimi ai dati personali che ti riguardano. Per esercitare uno di questi diritti, si prega di inviare la richiesta tramite l’apposito modulo di richiesta di esercizio dei diritti.
Vuoi sapere tutto sulla mobilità del futuro, dalle auto elettriche ai pedali? Iscriviti ora alla newsletter di Watt Else!