L’Intelligenza artificiale rappresenta un pericolo per gli umani?
Top

L’Intelligenza artificiale rappresenta un pericolo per gli umani?

Dopo il licenziamento di un ingegnere Google, che si era mostrato preoccupato per il futuro, molti cittadini si chiedono se questa minaccia sia reale. Patrizia Marti, direttrice del Santa Chiara FabLab di Siena, chiarisce in questa intervista molti dubbi

L’Intelligenza artificiale rappresenta un pericolo per gli umani?
Preroll

redazione Modifica articolo

19 Giugno 2022 - 19.12 Culture


ATF

di Azzurra Arlotto

L’intelligenza artificiale (IA) sta attualmente cambiando il mondo in cui viviamo. Ogni settore, dalla sanità ai trasporti, dall’agricoltura all’intrattenimento, sta implementando soluzioni di IA. Nel bel mezzo di questa rivoluzione tecnologica viene da chiedersi se l’intelligenza artificiale stia diventando troppo intelligente tanto da costituire una minaccia. L’interrogativo sta costando il posto di lavoro a Blake Lemoine, un ingegnere di Google che lavora sull’intelligenza artificiale, messo in congedo dal colosso tecnologico americano per aver espresso i suoi dubbi a riguardo.

A raccontare l’accaduto è stato per primo il diretto interessato attraverso un post pubblicato la scorsa settimana dal titolo “Potrei essere licenziato presto per avere svolto il mio lavoro sull’etica nell’Intelligenza Artificiale”. Nel suo post Lemoine ha spiegato di essere stato sospeso dal lavoro dopo una serie di interrogativi sollevati in tema di etica sull’intelligenza artificiale. Un articolo pubblicato successivamente sul Washington Post ha chiarito meglio la questione. Secondo il quotidiano Usa Lemoine, insieme ad un suo collaboratore, avrebbe presentato ai vertici della società prove che LaMDa – la tecnologia per la comprensione del linguaggio sviluppata da Google – sarebbe senziente, cioè dotata di una forma di coscienza e sensibilità artificiale. A riprova delle sue preoccupazioni lo stesso Lemoine, dopo l’uscita dell’articolo su Washington Post, ha pubblicato una lunga trascrizione di una conversazione con LaMDA, dimostrando che il Bot è già perfettamente in grado di effettuare conversazioni complesse su religione, etica e letteratura fino alla sua stessa consapevolezza dell’essere in grado di sentire emozioni.

Per approfondire l’argomento abbiamo intervistato la professoressa Patrizia Marti, esperta del settore, direttrice del “Santa Chiara Fab Lab di Siena” e docente dell’Università di Siena

È possibile pensare ad un IA dotata di una propria coscienza?

La grande opportunità che l’Intelligenza artificiale ha è quella di apprendere e lo fa attraverso i nostri dati, in particolare quel tipo di IA progettata per interagire con gli esseri umani. Il tema degli algoritmi che apprendono è molto delicato e sempre di più è un tema non solo per esperti e sviluppatori di tecnologie, ma anche per designers e persone che si occupano di etica. Questo avviene perché apprendendo dai dati che gli forniamo somigliano sempre di più agli esseri umani. Quello che sappiamo e che vediamo è una grandissima capacità di apprendimento. Alcuni algoritmi si chiamano di deep learning e non solo apprendono ma rinforzano anche quello che hanno appreso. Questo significa che possono anche creare dei problemi ad esempio rafforzare uno stereotipo o un comportamento scorretto.

Leggi anche:  La scrittura al tempo dell’Intelligenza Artificiale

Un tema molto importante legato alla coscienza è quello della trasparenza, questi algoritmi cominciano a somigliare moltissimo al modo in cui l’essere umano ragiona e si approccia alle cose per questo è necessario sapere in che modo apprende. Lo scorso anno, il 21 Aprile del 2021, l’Unione Europea ha proposto un regolamento sulla trasparenza degli algoritmi dell’intelligenza artificiale, proprio perché dovremmo essere in grado di saperli leggere e poterli controllare capendo in che modo hanno preso una determinata decisione e attraverso quali dati. Questo è però un approccio che entra in conflitto con la copertura della proprietà individuale, una grande azienda come può mettere in chiaro il modo in cui sviluppa l’algoritmo essendo quello ill valore dell’algoritmo stesso?.

La cosa si complica ancora di più quando l’IA si interfaccia con gli esseri umani in maniera naturale, parliamo di agenti conversazionali e di robot in cui noi utilizzatori percepiamo ancora di più la sensazione di un algoritmo che pensa e che sente. Parlare di coscienza dal mio punto di vista è discutibile. Lavorando come designer con aziende che sviluppano intelligenza artificiale mi sono resa conto, sia studiando la letteratura sia sul campo, che gli algoritmi possono generare bias e stereotipi perché spesso apprendono da dati stereotipati. Un esempio è quello dei sistemi artificiali che riconoscono il volto delle persone e che gestiscono i sistemi di sicurezza degli edifici che non sono abbastanza accurati quando il volto da riconoscere è quello di una donna, soprattutto se è il volto di una donna di colore. Questo crea un problema perché imparando dall’esperienza rinforzano le loro credenze. Altri esempi di bias sono gli agenti conversazionali che abbiamo in casa come Alexa, Siri, Cortana che sono progettate per essere figure femminili poiché rappresentano lo stereotipo della segretaria perfetta. Questo a lungo andare può creare dei comportamenti scorretti anche dalla parte degli utilizzatori, pensiamo ai bambini che crescono con l’idea di poter dare comandi a qualcosa che è veramente simile ad un essere umano, per la voce o il modo di porsi. Personalmente sto lavorando su temi come la discriminazione e la diversità anche se sono temi di difficile soluzione data l’opacità degli algoritmi. È auspicabile che le aziende che sviluppano questi algoritmi lavorino anche con persone che non solo si occupano dell’aspetto tecnologico, ma anche di quello dell’interazione, dell’etica e della giurisprudenza.

Leggi anche:  La scrittura al tempo dell’Intelligenza Artificiale

I rischi di macchine con intelligenza superiore a quella umana sono relativi alla nostra possibile perdita di controllo sulle loro attività?

Non è un’intelligenza superiore bensì un’intelligenza di tipo diverso. Gli esseri umani non sono solo esseri computazionali ma anche esseri dotati di altro come ad esempio l’intelligenza emotiva. Perdere il controllo è facile perché questi algoritmi sono molto complessi. Il tema del controllo è un tema difficile, pensiamo alle macchine a guida autonoma. Esse devono prendere delle decisioni in caso di pericolo e potrebbero farlo in maniera molto differente da come lo farebbe un guidatore umano. O ancora durante una grandinata una macchina a guida autonoma, avvertendo il pericolo, continuerebbe a fermarsi provocando una serie di incidenti a catena. In questo caso la scelta su chi far ricadere la responsabilità non è semplice. Vedo però, soprattutto in Europa, una grande attenzione nel mettere insieme esperti di discipline molto diverse tra loro che guardano al problema con prospettive disciplinari differenti.

Leggi anche:  La scrittura al tempo dell’Intelligenza Artificiale

Pensa che le persone siano preoccupate per l’IA o invece l’interesse è più forte della paura?

Ciò che sta alla base è la conoscenza e l’informazione verso questi temi. Quando si parla di intelligenza artificiale si parla di tantissime cose diverse e non sempre si ha lo stesso atteggiamento. Chi utilizza un agente conversazionale in casa per cose banali come accendere e spegnere la luce o riprodurre i brani musicali preferiti ha un atteggiamento molto tranquillo e disinvolto verso questo tipo di tecnologia, poi magari trovandosi di fronte ad un robot si fa tante domande. Questo perché quando la somiglianza è alta si ha paura di cosa possa fare questa tecnologia nei nostri confronti. Ho lavorato tantissimo nella robotica e in questo ambito c’è il famoso lavoro di Masahiro Mori che si chiama The Uncanny Valley secondo il quale quando vediamo un robot umanoide il nostro atteggiamento è quello di caduta, di drop dell’interazione perché abbiamo paura e avvertiamo quasi un senso di distacco. C’è ad esempio un collega giapponese, il Prof. Ishiguro, che sviluppa robot umanoidi molto simili all’essere umano, ha realizzato anche una replica di sé stesso. Il nostro atteggiamento verso l’intelligenza artificiale muta probabilmente perché non ci rendiamo conto che la tecnologia spesso è la stessa che sta dentro Alexa.

Native

Articoli correlati