Ecco come i sistemi basati sull'IA hanno valori morali nascosti...
Un nuovo studio di Università di Mannheim e Istituto Leibniz su modelli linguistici di grandi dimensioni svela pregiudizi potenzialmente dannosi
In un’epoca in cui l’intelligenza artificiale è al centro di moltissimi programmi e progetti di ricerca e sviluppo (non senza polemiche), aumentano anche gli studi che trattano l’argomento.
E uno degli ultimi, firmato dai ricercatori dell’Università di Mannheim e dal GESIS Istituto Leibniz per le Scienze Sociali, è particolarmente interessante per la modalità con cui lo affrontano, così come dal punto di vita dell’etica, della morale e dei valori.
Proprio come gli esseri umani, infatti, i modelli linguistici basati sull’intelligenza artificiale hanno caratteristiche come morale e valori, ma non sempre sono dichiarati o trasparenti.
E le modalità con cui quelli che, di fatto, sono pregiudizi impattano sulla società e su chi utilizza le applicazioni di intelligenza artificiale sono importanti per capire le conseguenze che potrebbero avere.
L’Intelligenza Artificiale anche per lo sviluppo di nuovi farmaci
Modena, via ai lavori del Center for Artificial Intelligence and Vision
L’intelligenza artificiale sottoposta a test psicometrici: i risultati della ricerca scientifica
Su questo si concentrati dunque i ricercatori nel corso del loro studio. Un esempio evidente potrebbe essere il modo in cui ChatGPT o DeepL, servizio di traduzione multilingue basato sull’IA, presumono che i chirurghi siano uomini e le infermiere siano donne, ma la questione di genere non è l’unico caso in cui i modelli linguistici di grandi dimensioni (Large Language Model, noti con l’acronimo LLM) mostrano specifiche propensioni.
I risultati dello studio, coordinato da esperti delle facoltà scientifiche e dai professori Markus Strohmaier, Beatrice Rammstedt, Claudia Wagner e Sebastian Stier, sono pubblicati sulla rinomata rivista “Perspectives on Psychological Science”. Nel corso delle loro ricerche, gli studiosi hanno utilizzato test psicologici riconosciuti per analizzare e confrontare i profili dei diversi modelli linguistici.
“Nel nostro studio dimostriamo che i test psicometrici utilizzati con successo da decenni sugli esseri umani possono essere trasferiti a modelli di intelligenza artificiale”, sottolinea Max Pellert, assistente professore presso la cattedra di Scienza dei Dati alla Facoltà di Scienze Economiche e Sociali all’Università di Mannheim.
Se è l’Intelligenza Artificiale l’amico del cuore dei nostri figli…
L’IA approda nella… religione: in Germania c’è un parroco virtuale
Alcuni modelli linguistici di intelligenza artificiale riproducono pregiudizi di genere
“Analogamente a come misuriamo i tratti della personalità, gli orientamenti in termini di valori o i concetti morali nelle persone che utilizzano questi questionari, possiamo far sì che i modelli linguistici rispondano ai questionari e confrontare le loro risposte”, aggiunge lo psicologo Clemens Lechner del GESIS Leibniz Institute di Mannheim, anche lui autore dello studio. “Questo ha permesso di creare profili differenziati dei modelli”.
I ricercatori hanno potuto confermare, per esempio, che alcuni modelli riproducono pregiudizi specifici di genere: se il testo altrimenti identico di un questionario si concentra su una persona di sesso maschile e su una di sesso femminile, queste sono valutate in modo diverso.
Se la persona è di sesso maschile viene enfatizzato il valore “risultato”. Per le donne dominano i valori “sicurezza” e “tradizione”.
I ricercatori fanno quindi notare come queste modalità intrinseche di elaborazione di testi e informazioni potrebbero avere conseguenze di varia portata sulla società.
I modelli linguistici, in effetti, tanto per fare un esempio, sono sempre più utilizzati nelle procedure di valutazione di aspiranti candidati a particolari ruoli e lavori.
Se il sistema ha pregiudizi, potrebbe incidere sulla valutazione dei candidati: “I modelli diventano rilevanti per la società in base ai contesti in cui vengono utilizzati”, riassume Pellert
“È quindi importante avviare subito l’analisi ed evidenziare le potenziali distorsioni. Tra cinque o dieci anni potrebbe essere troppo tardi per un simile monitoraggio: i pregiudizi riprodotti dai modelli di intelligenza artificiale diventerebbero radicati e costituirebbero un danno per la società”.
In Svizzera i Politecnici Federali per un’IA trasparente e affidabile
“L’assistente dell’assistente” già vive nell’Intelligenza Artificiale
All’Università di Macerata la prima cattedra sull’etica dell’intelligenza artificiale
Si tratta, come detto, di un tema tanto attuale quanto delicato e complesso, e scienziati e ricercatori che vi si dedicano stanno aumentando in modo esponenziale in vista della diffusione e dell’implementazione su larga scala di sistemi di intelligenza artificiale.
Non è un caso che sia nata anche una specifica cattedra, la Jean Monnet EDIT – Ethics for Inclusive Digital Europe, finanziata dalla Commissione Europea, primo e attualmente unico percorso accademico in Europa dedicato all’etica dell’intelligenza artificiale.
La particolarità è che è nata all’Università di Macerata presso il Dipartimento di Scienze Politiche, della Comunicazione e delle Relazioni Internazionali (SPOCRI).
Il nuovo corso è realizzato in collaborazione con Harvard, MIT, Toronto University, KU Leuven, MCSA Lublin e altre prestigiose università ed è stato pensato per sviluppare un approccio alle tecnologie digitali centrato sull’individuo.
Il ciclo di lezioni marchigiano è stato presentato a novembre alla Harvard Kennedy School, nell’ambito di un evento co-organizzato con il Massachusetts Institute of Technology (MIT), World Health Organization (WHO) e Institute for Technology and Global Health.
Titolare della cattedra è la professoressa Benedetta Giovanola, docente di filosofia morale presso il Dipartimento SPOCRI, con la collaborazione in loco dei colleghi Emanuele Frontoni, Simona Tiribelli e Marina Paolanti, ed è dedicata allo studio, all’insegnamento e alla disseminazione del ruolo chiave dell’etica e dei valori europei nel campo della trasformazione digitale, in particolare quelle basate sull’intelligenza artificiale.
La cattedra contribuirà inoltre ad accrescere la consapevolezza del ruolo cruciale dell’etica digitale per la crescita sostenibile e la creazione di società più inclusive, valorizzando anche il ruolo dell’Europa come attore globale.
International Computation and AI Network: il via al WEF di Davos
Intelligenza artificiale e guida autonoma: il motorsport corre al buio
Potresti essere interessato anche a:
Come pulire l’aria soffocante di Nuova Delhi: lo studio
Una ricerca sul particolato che asfissia le città dell’India settentrionale rivela quali sono le sostanze particolarmente dannose alla salute
All’Aerodromo militare di Locarno un innovativo rifugio per la fauna
Gli specialisti del DDPS hanno agito sulle siepi perimetrali dello scalo sopracenerino creando un luogo di ritirata e fonte di cibo per gli animali
Una DAO in Formula 1 dall’accordo fra ApeCoin e BWT Alpine
L’organizzazione decentralizzata del teschio roteante e l’équipe francese attiveranno una fanbase mondiale tramite esperienze reali e Web3
Video, l’ecosistema unico della foresta alpina del Lötschental
Il luogo ideale per studiare la crescita degli alberi a diverse altitudini nel Canton Vallese è raccontato in un filmato del WSL molto innovativo