Il problema se lo stanno ponendo anche gli esperti di robotica del Pentagono, che hanno stanziato circa 4 miliardi di dollari sulla ricerca di droni da mandare sul campo di battaglia. Colin Allen, professore con una cattedra in filosofia della scienza presso la Indiana University, ha scritto un libro sul tema, "Moral Machines: Teaching Robots Right From Wrong": "è davvero possibile fare in modo che armi automatizzate siano in grado di conformarsi alle leggi di guerra. Possiamo o no usare la teoria dell'etica per progettare queste macchine? E ora che si cominci a prendere in considerazione questo genere di problematiche, invece di limitarsi ad attendere finché non sarà troppo tardi. Abbiamo in circolazione computer che prendono decisioni e lo fanno in maniera eticamente neutra".
E' possibile integrare le tre direttive di Asimov nei robot militari? "Terribile" dice Noel Sharkey "ho lavorato nel campo dell'intelligenza artificiale per decenni e l'idea che un robot debba prendere decisioni sulla terminazione di vite umane è semplicemente terrificante". L'attenzione del ricercatore inglese è puntata comunque non solo sui rischi delle applicazioni militari, dove i robot sono già ampiamente utilizzati, ma soprattutto su gli usi civili, quelli di assistenza a bambini o anziani, o ai malati, come già avviene con il robot giapponese "My Spoon" che dà da mangiare ai malati. "L'aiuto che i robot possono dare ai genitori per la cura dei bambini è grande", scrive ancora Sharkey, "e non c'è dubbio che la frequentazione di un robot può essere un esperienza divertente e stimolante per un bambino, sempre che questa frequentazione non duri troppo a lungo". Ma bisogna ancora capire quali possono essere i risvolti psicologici di questa compagnia, sottolinea Sharkey, ricordando che gli studi fino ad oggi condotti sulle scimmie hanno portato alcune volte a risultati inquietanti.
Lo scienziato è sicuro che i robot avranno sempre più spazio, ricorda che è stato lo stesso Bill Gates a predire che nei prossimi anni vivremo sempre più assieme ai robot. "Ci siamo fatti sorprendere dall'esplosione di internet, sarebbe bene che non accadesse la stessa cosa con i robot", ha detto Sharley alla France Presse, "E' preferibile stabilire delle norme etiche adesso, prima che l'utilizzo massiccio dei robot lo renda difficile". Sharkey, comununque, non ha paura che i robot possano prendere il controllo degli umani in futuro, "sono solo delle macchine senza cervello, che non pensano da sole, malgrado tutto quello che ci ha insegnato la fantascienza".
C'è addirittura chi pensa che i robot possano avere un comportamento migliore di quello degli esseri umani, quantomeno sui campi di battaglia. Ne è convinto Ronald Arkin, professore al Georgia Tech, e autore di alcuni software per i robot militari dell'esercito americano: "La mia ipotesi di ricerca è che i robot possano agire più eticamente sul campo di battaglia di quanto facciano adesso gli esseri umani. Dotandoli di alcune regole che non possano essere infrante". Sharkey ricorda che sia Israele che la Corea del Sud hanno già installato robot armati lungo i loro confine, robot e che manca poco agli scienziati di quei paesi per sviluppare robot da battaglia in grado di prendere decisioni da soli su quando attaccare: "Non stiamo parlando di un futuro lontano, ma di una realtà di domani, sulla quale è bene ragionare".
(18 dicembre 2008)


Nessun commento:
Posta un commento