ControllArmi

ControllArmi

RSS logo

Gli scienziati italiani: “Fermate la corsa ai robot killer!”

Il 70% degli italiani è contro le armi autonome.
Appello dei ricercatori di intelligenza artificiale, robotica e informatica e discipline collegate per la messa al bando delle armi completamente autonome.
Fonte: Rete Italiana per il Disarmo - 12 marzo 2019

Appello dei ricercatori di intelligenza artificiale, robotica e informatica e discipline collegate per la messa al bando delle armi completamente autonome. Iniziativa diretta a responsabili politici ed opinione pubblica, nell’ambito della mobilitazione della Campaign to Stop Killer Robots (i cui membri italiani sono Rete Disarmo e Uspid)

Time to ban kiler robots E’ stato presentato a Roma l’Appello di scienziati e ricercatori italiani contro i sistemi d’arma letali autonomi (acronimo LAWS, in inglese) meglio noti come “killer robots”. Si tratta di sistemi d’arma attualmente in sviluppo che, nelle intenzioni degli eserciti che li stanno progettando, dovrebbero essere in grado di attivarsi e scegliere il proprio bersaglio (decidendo inoltre se e quando colpirlo) in maniera autonoma. L’iniziativa ha già visto l’adesione di oltre 110 ricercatori di varie discipline in particolare quelle legate all’informatica, alla robotica e all’intelligenza artificiale ma senza dimenticare materie collegate allo sviluppo di queste armi dal punto di vista sociale, etico, economico.

Il testo dell’Appello è stato elaborato grazie al contributo di esperti dell’USPID, l’Unione degli Scienziati per il Disarmo, e si colloca nell’ambito della Campaign to Stop Killer Robots (di cui USPID Onlus è membro italiano insieme a Rete Disarmo) che ha già visto nel recente passato prese di posizione contro le armi autonome da parte di migliaia di scienziati, ricercatori, imprenditori nel mondo delle tecnologie e dell’intelligenza artificiale. Nel testo si sottolinea come “le nuove tecnologie dell’IA e della robotica possono trasformare profondamente e migliorare le nostre infrastrutture, i trasporti, la produzione industriale, i servizi pubblici, la difesa nazionale, i servizi alle imprese, le cure sanitarie e molti altri settori di grande rilevanza sociale ed economica” ma i ricercatori ricordano che tutti siamo “tenuti a guidare con intelligenza e sensibilità morale la trasformazione tecnologica in atto, individuando, prevenendo e contrastando utilizzazioni moralmente inaccettabili delle tecnologie dell’IA e della robotica avanzata”.

Per questi motivi la ferma opposizione alle LAWS è esplicita: “Lo sviluppo delle armi autonome costituisce una grave minaccia per il rispetto delle leggi umanitarie in guerra; può interrompere la catena di comando e controllo, la quale consente di individuare i soggetti responsabili per eventuali crimini di guerra; dà a delle macchine la possibilità di decidere della vita o della morte di un essere umano; impedisce alle potenziali vittime di fare appello all’umanità condivisa degli avversari. Eliminando il controllo umano significativo sulla legittimità degli obiettivi militari e sulle decisioni di vita o di morte, le armi autonome si collocano al di là di una linea moralmente invalicabile”. L’Appello si conclude con richieste chiare nei confronti dei decisori politici: “le armi autonome sono attualmente ancora in uno stadio iniziale di sviluppo e diffusione. Abbiamo ancora la possibilità di fermare la corsa a questo nuovo tipo di armi. Ma non c’è molto tempo. Chiediamo pertanto che il Governo e il Parlamento italiani assumano una decisa posizione contro le armi autonome nelle sedi politiche nazionali e negli opportuni forum diplomatici internazionali”.

“È importante che anche gli scienziati italiani prendano posizione con questo documento - afferma Francesco Vignarca coordinatore di Rete Disarmo - perché ciò fornisce agli attivisti italiani della Campaign to Stop Killer Robots un ulteriore elemento di pressione verso il Parlamento affinché prenda consapevolezza di questo problema ed inizi a discuterne. Le nostre richieste puntano ad una norma vincolante che metta al bando preventivamente questa tipologia di sistemi d’arma”.

“Pensare di lasciare le decisioni sulla scelta dei bersagli e sul loro abbattimento a macchine dotate di una forma di cosiddetta intelligenza che si riduce ad algoritmi di ottimizzazione, peraltro implementati su computer vulnerabili a cyber-attacchi, è innanzitutto eticamente ingiustificabile e pone dei seri problemi dal punto di vista del Diritto Internazionale - commenta Diego Latella, Segretario Nazionale dell’USPID

e ricercatore in metodi formali per l’informatica presso il CNR di Pisa - ed inoltre può essere estremamente destabilizzante, dal punto di vista delle Relazioni Internazionali e della gestione delle crisi e dei conflitti”. Dal punto di vista tecnico va sottolineato come l’Intelligenza Artificiale abbia fin dalla sua nascita suscitato interesse negli ambienti militari, così come le sue applicazioni militari hanno costituito elemento di interesse per parte della comunità di ricercatori che se ne occupano. Negli ultimi anni alcuni successi dell’IA, in particolare del Machine Learning (ML), hanno riportato la questione della relazione fra Intelligenza Artificiale e guerra all’attenzione delle cronache, specie per quanto concerne le cosiddette armi autonome. Tecnicamente, dal punto di vista matematico, il ML è un procedimento di ottimizzazione implementato su computer attraverso l’esecuzione di un programma. Ad essere ottimizzati sono i parametri, presenti in altissimo numero, del modello che si decide usare. “E’ importante capire che le dinamiche dettagliate di tale operazione di ottimizzazione sono spesso sconosciute, perfino a chi ha progettato il programma. Inoltre, questo programma è, come tutto il software (e l’hardware) vulnerabile ad attacchi cyber generici e ad alcuni attacchi specifici” sottolinea Latella.

"La richiesta avanzata nell’Appello dei ricercatori ha un forte fondamento etico e giuridico. Le armi autonome selezionano e attaccano un obiettivo militare senza essere soggette a un controllo umano significativo. Pertanto, la loro autonomia minaccia l’integrità della catena di comando e controllo, erodendo la possibilità di individuare chiare responsabilità morali e giuridiche - commenta Guglielmo Tamburrini professore di Logica e filosofia della Scienza presso l’Università Federico II di Napoli - Un’arma autonoma assume scelte morali suscettibili di incidere profondamente su diritti individuali, fino al punto di prendere decisioni di vita o di morte, in base all’algoritmo che la governa. È un puro calcolo a determinare il fato delle potenziali vittime di armi autonome, alle quali è irrevocabilmente sottratta la possibilità di fare appello all’umanità di un soldato avversario”. Per tutti questi motivi “la comunità internazionale ha il dovere, morale prima ancora che giuridico, di porre un argine agli usi militari dell’intelligenza artificiale, sancendo in modo chiaro ed inequivocabile che le armi devono essere soggette sempre e comunque ad un controllo umano significativo, adottando a questo scopo un protocollo aggiuntivo alla Convenzione sulle armi convenzionali”, conclude Tamburrini.

Il lancio dell’Appello, che verrà ora aperto a nuove sottoscrizioni, è stato inoltre l’occasione per presentare i risultati di un sondaggio sul tema elaborato e condotto dall’Istituto di Ricerche Internazionali Archivio Disarmo - IRIAD (membro di Rete Disarmo). "La contrarietà degli italiani alle armi autonome è netta, e raggiunge il 70% - afferma Fabrizio Battistelli, Presidente di Archivio Disarmo, commentando i risultati del sondaggio - e soprattutto interessante vedere come si distribuisce questa contrarietà: è massima fra le donne che, con quasi 3/4 di contrarie, confermano questa volta un positivo gender gap, ovvero il saggio scetticismo verso armi e guerre condiviso dal genere femminile un po' in tutto il mondo”. La contrarietà alle LAWS cresce con il crescere dell'età degli intervistati: dal 52% nei giovani (18-34 anni) all'81% negli ultrasessantacinquenni. L’analisi dei risultati a partire dall’appartenenza politica riserva invece una situazione prevedibile e una sorpresa. La prima è la differenziazione sul tema tra destra e sinistra, con una contrarietà alle armi autonome che dall’82,8% della sinistra radicale scende linearmente, passando per il 75% del PD, il 58 %del M5S, il 55% di Forza Italia sino ad arrivare al 49% della Lega (unico partito ad avere una sia pur lieve maggioranza assoluta di elettori favorevoli alle armi autonome). “La sorpresa - conclude Battistelli - è al contrario rappresentata dall'elevato numero di oppositori (2/3 degli elettori intervistati) che le armi autonome suscitano presso i sostenitori di Fratelli d'Italia: una probabile critica da destra a un tipo di armamenti che annienta la tradizionale etica del combattente che affronta il nemico a viso aperto".

Rete Italiana per il Disarmo ritiene importante questa convergenza di vedute tra il mondo delle organizzazioni che si occupano di pace e disarmo e i ricercatori italiani che ogni giorno mettono il loro ingegno al servizio dell’avanzamento scientifico e tecnologico del nostro Paese. Una convergenza che non può essere ignorata dalla politica e che speriamo possa servire ad inserire anche l’Italia nell’elenco dei 28 Stati che hanno già espresso il loro sostegno ad iniziative normative internazionali di messa al bando dei “Killer Robots”.

Allegati

  • - Fonte: Rete Italiana per il Disarmo - Archivio Disarmo IRIAD
    Risultati del sondaggio “L’opinione pubblica italiana e le armi autonome” elaborato e condotto da IRIAD Archivio Disarmo nell’ambito delle attività di Rete Italiana per il Disarmo e Campaign to Stop Killer Robots
    PDF logoIl documento è in formato PDF, un formato universale: può essere letto da ogni computer con il lettore gratuito "Acrobat Reader". Per salvare il documento cliccare sul link del titolo con il tasto destro del mouse e selezionare il comando "Salva oggetto con nome" (PC), oppure cliccare tenendo premuto Ctrl + tasto Mela e scegliere "Salva collegamento come" (Mac).
.