In Blade Runner, famoso film di fantascienza dei
primi anni Ottanta, in un ipotetico scenario ambientato nel 2019, gli
umani si trovano a dover gestire dei “replicanti” ribelli, creati da
loro, con forza fisica e proprietà intellettuali simili alle proprie.
Nel 2012, sette anni prima di questa data, c’è chi sta davvero pensando
di progettare dei robot con elevate capacità morali, che possano essere
utilizzati in guerra, e sappiano distinguere tra una morte etica o meno.
Ronald Arkin, professore presso la Georgia Tech, e
il suo gruppo di ricercatori, stanno progettando quella che sarà la
futura evoluzione del drone (veicoli aerei senza equipaggio che sono
comandati a distanza dai piloti negli Stati Uniti): robot letali
autonomi, in grado di prendere decisioni da soli. Perché se salta il
collegamento con la base militare come si fa?
Per questo il professore di robotica ha messo a punto degli algoritmi,
che possano guidare un drone aereo o un robot a terra, in maniera
etica, in grado cioè di decidere se sparare o meno a un bersaglio o
mantenere aperto il fuoco, secondo la Convenzione di Ginevra e le altre
norme internazionali vigenti in campo di guerra. Addirittura con delle
capacità morali superiori a quelle degli uomini, che spesso possono
sbagliare o farsi influenzare.
Inutile dire che questo scenario da “fantascienza” ha
aperto il dibattito fra i ricercatori, perché molti non sono d’accordo
con questo progetto. Sia perché la tecnologia attuale non è neanche
lontanamente vicino al livello di complessità necessario per un sistema
robotico militare simile. Sia perché a molti saranno tornati alla mente
scene di robot simili a Terminator, o ai replicanti di Blade Runner,
indistinguibili dagli esseri umani, che si ribellano e prendono il
sopravvento. Immagini che fanno pensare che forse sia un idea poco
ragionevole e controproducente.
Critiche che secondo Arkin, non hanno alcun senso,
però, perché la strada verso queste nuove armi è già stata intrapresa, e
ora non è il momento di decidere se sia giusto o meno creare simili
macchine, ma come farlo. Nulla lo renderebbe più felice del sapere che
non ci saranno più guerre, ma questo è il vero scenario
fantascientifico, ed ora è il momento di discutere su come sviluppare
queste armi, affinché le si faccia il meglio possibile. «Perché queste
armi arriveranno nel campo di battaglia inevitabilmente, qualcuno dovrà
assumersi la responsabilità di far sì che questi sistemi funzionino
correttamente, prima che diventino delle macchine da guerra, in grado di
uccidere indiscriminatamente», come riportato su The Chronicle.
Ora Arkin, con il suo gruppo di ricerca, ha vinto un bando triennale
del U.S. Army Research Office, per un progetto che ha come obiettivo la
produzione di “una coscienza artificiale” per guidare i robot sul campo
di battaglia, indipendente dal controllo umano. Progetto che potrebbe
portare ai primi guerrieri robotici eticamente superiori, fra 10-20
anni, se gli venisse dato pieno supporto finanziario in questi anni. Un
po’ dopo la data prevista da Ridley Scott in Blade Runner, ma non così
lontano.
«È sbagliato pensare che questa nuova generazione di armi robotiche
morali siano inevitabili e proprio dietro l'angolo, e quindi non
dobbiamo esserne preoccupati», sostiene Wendell Wallach, ricercatore
presso il Centro Interdisciplinare per la Bioetica dell’Università di
Yale, che di sta impegnando per rendere queste armi immorali e
inappropriate in guerra, in base al diritto umanitario internazionale.
Come la armi chimiche e biologiche, o i laser.
Ma anche se per ora non è previsto l’utilizzo di armi simili,
per il principio di precauzione è chiaro che il dipartimento della
Difesa sta studiando sistemi di questo tipo, «perché se non lo fai, e ci
arrivano la Cina o l’India o il Brasile e la Russia, e tu sei rimasto
indietro… beh, questo è un problema», conclude Braden Allenby,
professore di ingegneria, etica e legge all'Arizona State University e
presidente della Cetmons, Consorzio per le tecnologie emergenti, le
operazioni militari e la sicurezza nazionale.
No comments:
Post a Comment
Note: Only a member of this blog may post a comment.