In un nuovo studio, i partecipanti tendevano ad attribuire una maggiore colpa alle intelligenze artificiali (IA) coinvolte in trasgressioni morali nel mondo reale quando percepivano che le IA avevano menti più simili a quelle umane. Minjoo Joo della Sookmyung Women’s University di Seoul, Corea, presenta queste scoperte sulla rivista open-access PLOS ONE il 18 dicembre 2024.
Ricerche precedenti hanno rivelato una tendenza delle persone a incolpare l’IA per varie trasgressioni morali, come nei casi di un veicolo autonomo che investe un pedone o decisioni che hanno causato danni medici o militari. Ulteriori ricerche suggeriscono che le persone tendono ad attribuire più colpa alle IA percepite come capaci di consapevolezza, pensiero e pianificazione. Le persone potrebbero essere più propense ad attribuire tali capacità alle IA che percepiscono come dotate di menti simili a quelle umane in grado di provare sentimenti coscienti.
Sulla base di questa ricerca precedente, Joo ha ipotizzato che le IA percepite come dotate di menti simili a quelle umane potrebbero ricevere una quota maggiore di responsabilità per una determinata trasgressione morale.
Per testare questa idea, Joo ha condotto diversi esperimenti in cui ai partecipanti sono stati presentati vari casi reali di trasgressioni morali che coinvolgevano le IA, come l’auto-tagging razzista di foto, e sono state poste domande per valutare la loro percezione mentale dell’IA coinvolta, nonché la misura in cui attribuivano la colpa all’IA, al suo programmatore, all’azienda che la sosteneva o al governo. In alcuni casi, la percezione mentale dell’IA è stata manipolata descrivendo un nome, età, altezza e hobby per l’IA.
In tutti gli esperimenti, i partecipanti tendevano ad attribuire considerevolmente più colpa a un’IA quando la percepivano come dotata di una mente più simile a quella umana. In questi casi, quando ai partecipanti veniva chiesto di distribuire la colpa relativa, tendevano ad attribuire meno colpa all’azienda coinvolta. Ma quando veniva chiesto di valutare il livello di colpa in modo indipendente per ogni agente, non si verificava alcuna riduzione della colpa attribuita all’azienda.
Questi risultati suggeriscono che la percezione mentale dell’IA è un fattore critico che contribuisce all’attribuzione della colpa per le trasgressioni che coinvolgono l’IA. Inoltre, Joo solleva preoccupazioni sulle conseguenze potenzialmente dannose dell’uso improprio delle IA come capri espiatori e chiede ulteriori ricerche sull’attribuzione della colpa dell’IA.
L’autore aggiunge: “Le IA possono essere ritenute responsabili delle trasgressioni morali? Questa ricerca dimostra che percepire l’IA come simile all’uomo aumenta la colpa verso l’IA mentre riduce la colpa verso gli stakeholder umani, sollevando preoccupazioni sull’uso dell’IA come capro espiatorio morale”.
Accedi all’articolo disponibile gratuitamente su PLOS ONE
Contatto: Minjoo Joo, minjoojoo67@gmail.com
Finanziamento: questa ricerca è stata supportata dai 2024 Sookmyung Women’s University HUSS Research Grants. I finanziatori non hanno avuto alcun ruolo nella progettazione dello studio, nella raccolta e analisi dei dati, nella decisione di pubblicare o nella preparazione del manoscritto.
Immagine in evidenza
BrownMantis , Pixabay, CC0 ( https://creativecommons.org/publicdomain/zero/1.0/ )