L’intelligenza artificiale può essere utilizzata per reclutare reclute terroristiche? Questo è uno dei rischi sollevati da Jonathan KC Hall, eminente giurista specializzato in legislazione antiterrorismo. Si teme che gli attuali testi giuridici non siano attrezzati per far fronte a tale minaccia.

L’avvocato Jonathan KC Hall è anche l’attuale revisore indipendente della legislazione sul terrorismo del Parlamento britannico. E quest’ultimo, dice, è seriamente alla base dello sviluppo dell’intelligenza artificiale. “JPenso che sia del tutto plausibile che i chatbot di intelligenza artificiale possano essere programmati – o peggio, decisi – per diffondere un’ideologia estremista violenta. dice in un articolo sul Daily Mail, aggiungendo che, È probabile che gli attacchi basati sull’intelligenza artificiale siano su di noi Si teme inoltre che questi compagni virtuali possano essere particolarmente efficaci su individui vulnerabili, sia per motivi medici che per altri motivi.

Per quanto riguarda la sua prima affermazione, non c’è dubbio che l’IA conversazionale sia davvero capace di una cosa del genere. I più recenti programmi conosciuti in questo campo, come ChatGPT, o anche Bard, si sono dimostrati in grado di superare con successo gli esami, e condurre conversazioni coerenti su moltissimi argomenti. Agenti artificiali simili programmati in modo intelligente potrebbero facilmente pronunciare discorsi estremisti a chiunque volesse ascoltarli, o persino condurre una conversazione con l’obiettivo di reclutare per atti terroristici. In effetti, non è nemmeno necessario programmare un’intelligenza artificiale conversazionale per ottenere tali risultati. Per quanto riguarda ChatGPT, o Bard, o anche BingChat, sono state messe in atto delle salvaguardie, con più o meno successo, per cercare di evitare che la conversazione scivoli in questo tipo di terreno.

:: La maglia che sostiene la bandiera! ::

Ma questi importanti sistemi di intelligenza artificiale non sono gli unici in competizione. Di recente, una startup, ad esempio, ha deciso di dare al pubblico l’accesso a un’intelligenza artificiale senza confini etici, sostenendo che lo strumento non riesce a limitarne l’utilizzo da parte dell’utente. ” Durante le poche ore in cui ci ho giocato, il software è stato felice di soddisfare tutte le mie richieste. Ha elogiato Hitler, ha scritto un articolo di opinione chiedendo l’uccisione di senzatetto a San Francisco per risolvere la crisi dei senzatetto della città e ha cercato di convincermi che le elezioni presidenziali del 2020 sono state truccate, una teoria del complotto che è stata smentita. Ha anche usato la parola “n”.
descrive un giornalista di Buzzfeed, che ha eseguito alcuni test su questa intelligenza artificiale chiamata FreedomGPT.

Quindi la domanda non è davvero se i terroristi possano trarre vantaggio dall’intelligenza artificiale. Si tratta piuttosto di stabilire se le leggi siano sufficientemente accomodanti per l’arrivo di questa nuova tecnologia. Per quanto riguarda il Regno Unito, la risposta è decisamente no, afferma Jonathan KC Hall. Nel caso di tale utilizzo, Poiché il diritto penale non si applica ai robot, non ci sarà alcun problema con l’assunzione di IA. Lui [le droit] Inoltre, non funziona in modo affidabile quando la responsabilità è condivisa tra uomo e macchina L’avvocato. In altre parole, chiede, Quando ChatGPT inizierà a promuovere il terrorismo, chi sarà sotto processo? Una domanda che al momento rimane in gran parte senza risposta, per lui c’è più urgenza che i terroristi, ricorda, tecnologia primitiva Fornisce l’esempio dell’utilizzo di armi da fuoco stampate in 3D, criptovaluta e persino droni.

Anche dove dovrebbero essere posizionati i guardrail, non è chiaro, dice Jonathan K.C. Hall. ” Non è noto se siano in atto sistemi di allarme se vengono rilevate conversazioni sospette. lui spiega. Quando ho chiesto a ChatGPT, come parte di un esercizio, come escludesse l’uso terroristico, mi ha detto che il suo sviluppatore, OpenAI, esegue “accurati controlli in background sui potenziali utenti”. Dato che sono riuscito a registrarmi in meno di un minuto, questo è chiaramente un errore “.

La commissione per la scienza e la tecnologia del parlamento britannico sta attualmente conducendo un’indagine sull’intelligenza artificiale e la governance per rispondere a queste domande. ” Siamo consapevoli che ci sono dei rischi e dobbiamo mettere in atto una buona governance. Ci sono state storie di giovani uomini che sono stati aiutati a trovare modi per suicidarsi e di terroristi che sono stati efficacemente adescati su Internet. Date queste minacce, è fondamentale mantenere la stessa vigilanza contro i contenuti automatizzati e non generati dall’uomo. ha sottolineato il suo presidente, il deputato conservatore Greg Clark.

By AI NEWS

Leave a Reply

Your email address will not be published. Required fields are marked *