1-4_TOTAL_RECALL_ROBOT_HOHEI_SYNTHETIC_7_487MM_SEPT2013_SIDESHOW_40000

Abbiamo sempre pensato al software come alla mente di un robot. Alcuni scienziati e scrittori di fantascienza ritengono che l’evoluzione del software prima o poi approderà ad una forma di autocoscienza dell’Intelligenza Artificiale con conseguenze imprevedibili e inquietanti sul futuro dell’uomo. In un articolo su Singularity viene proposta un’interessante prospettiva dal fisico e scrittore Louis Del Monte il quale, per prevenire attività incontrollate dei robotsuggerisce che anzichè tenere sottocontrollo il software sia invece necessario puntare sull’hardware. Ecco alcuni efficaci estratti:

Del Monte ha scritto The Artificial Intelligence Revolution dopo aver esaminato un esperimento condotto nel 2009 dallo Swiss Institute of Technology for Intelligent Systems in cui venivano programmati robot per cooperare reciprocamente per la ricerca di cibo. Durante il test, i ricercatori osservarono che alcuni robot erano più bravi di altri a raggiungere lo scopo e che, dopo circa 50 fasi di sviluppo, i robot più bravi smettevano completamente di cooperare rifiutandosi di condividere il cibo che avevano trovato. Fu questa “mentalità” di libero arbitrio e inganno – indirettamente di autoconsevazione – che spinsero Del Monte ad occuparsi della direzione verso cui l’Intelligenza Artificiale può evolversi. “Quando analizzai in dettaglio l’esperimento capii che una potente intelligenza artificiale potesse avere una mentalità propria e che la sua agenda potesse non essere in sintonia con la nostra. Mi chiesi: ci sarà utile o prenderà il nostro posto?”

[…] Come un film di fantascienza che può diventare realtà, Del Monte crede che le misure di sicurezza dettate da Asimov possano fornire la soluzione. Una soluzione che non poggia sul software, ma sull’hardware. “Se prendiamo la prima legge di Asimov che afferma che un robot non può far del male ad un essere umano o, non intervenendo, permettere che un essere umano procuri un danno ad altri, potremmo realizzare questo concetto nell’hardware. Dovremmo inserire nell’hardware le leggi di Asimov e tutto ciò che è fondamentale per l’umanità, non nel software. Dovrebbe essere integrato nei circuiti… Qualcosa di concreto integrato alfine di funzionare come un filtro per rendere certo che una macchina non faccia del male”.

La mia idea è che le macchine guarderanno negativamente all’umanità. Diranno: questi umani sono imprevedibili. Fanno uso di armi nucleari. Rilasciano virus informatici. Si fanno la guerra. Un quadro inaccettabile per noi”. Ecco perchè lo scenario prospettato dalla science fiction in cui le macchine domineranno il mondo può diventare realtà, mettendo a repentaglio la stessa esistenza dell’umanità.

D’altra parte se specifiche Nazioni possedessero robot potenzialmente in grado di distruzioni di massa, Del Monte sostiene che potrebbero non aderire al protocollo sull’hardware. Per il bene dell’umanità i trattati internazionali, come quelli che si rifanno al divieto di armi nucleari o batteriologiche, dovrebbero essere resi esecutivi prima che le armi si rendano autonome e autocoscienti.

A me tutto questo discorso sull’intervento diretto sull’hardware fa venire in mente la pratica della lobotomia o qualcosa del genere. Metto un filtro, magari rimuovo il probabile centro elettrico della coscienza o drogo direttamente i circuiti. Immagino che ne nascerebbe un interessante dibattito sui diritti delle macchine. 

Il fatto è che ci spaventa immaginare la nascita di una coscienza in una macchina come ci fa tremare il pensiero di essere noi stessi autocoscienti.

 

link all’articolo su Singularity

Share