I robot devono imparare a dire pure no, secondo i genitori che li hanno concepiti e messi al mondo.

Calma, non si tratta di genitori sconsiderati ma degli scienziati Briggs e Scheutz che stanno lavorando su un progetto “educativo” in cui insegnano ai robot a dire di No. Siamo abituati a concepire le macchine come a dei perenni esecutori (eccetto quando crashano), invece hanno anche bisogno di saper dire di No quando si prospettano certe situazioni, soprattutto con ricadute etiche. Per far ciò i ricercatori hanno dovuto individuare situazioni prototipiche in cui il robot dovrebbe negare l’esecuzione di un comando:

1. Conoscenza: so come eseguire X?

2. Abilità: sono fisicamente in grado di eseguire X? 

3. Priorità e tempistiche sull’obiettivo: sono in grado di eseguire X adesso?

4. Ruolo sociale e obbligo: è mio dovere eseguire X in base al mio ruolo sociale?

5. Codice normativo: eseguire X viola alcun principio normativo? 

Il robot valuta e fornisce una spiegazione se non può eseguire il compito seguendo questi scenari operativi: quando, come, con chi e con quali conseguenze. Le ultime due condizioni indicano una significativa complessità di pensiero. Si tratta dell’importanza cruciale della relazione in tempo reale con chi sta vicino al robot e alle conseguenze benefiche o nocive sull’altro.

Mi chiedo come si comporterebbe un robot nell’esperimento di Milgram in cui gli è richiesto di somministrare corrente elettrica al soggetto che dà una risposta sbagliata ad un test o, in generale, in una situazione di doppio legame quando per obbedire devi disobbedire al comando. 

Siamo agli inizi di una nuova storia della psicologia umana, dove impariamo dalla psicologia dei robot.

 

link all’articolo su Tech the Future