Come dovrebbero ragionare le armi autonome del futuro?

Il sistema di intelligenza artificiale che governa l’autopilota (che corrisponde al livello 5, dunque il massimo livello di autonomia, tanto che non è previsto nemmeno il volante dell’auto), ha appena rilevato un grave guasto all’impianto frenante.

cover.png

Se non viene effettuata alcuna manovra gli occupanti dell’auto avranno la peggio. Impossibile evitare lo scontro ad alta velocità con il TIR che si è fermato improvvisamente poco più avanti. Il software, però, intravede una possibile via d’uscita. Potrebbe far sterzare l’auto sul marciapiede, proprio nel punto in cui sta passando una giovane mamma che accompagna i suoi due bambini a scuola, evitando così l’impatto.

Secondo voi per quale scelta dovrebbe optare il software che governa l’autopilota? Importante: prima di rispondere, provate a immedesimarvi nei diversi ruoli. In primis, in uno degli attori coinvolti nello scontro: gli occupanti dell’auto, la mamma, i bambini. Dopodiché, mettetevi nei panni di un legislatore, di uno sviluppatore di software di intelligenza artificiale, di un produttore di auto, di un assicuratore, di un ingegnere che progetta strade e marciapiedi, ecc.

5NVUO7X7UJH3BDIZL56QAZUYDM.0

Con grande onestà e al di là di una risposta scontata e di getto, chi vi scrive non sa esattamente cosa rispondere. Ha invece perfettamente chiaro che sarà sempre più centrale, soprattutto nel mondo della Difesa, la definizione dei criteri in base ai quali i sistemi di intelligenza artificiale dovranno decidere.

Le Autonomous Weapons, i mezzi militari Unmanned (droni, blindati, sommergibili, ecc.), i robotic soldier, saranno (presto o tardi) governati dall’intelligenza artificiale.

La risposta è talmente complessa che il MIT (Massachusetts Institute of Technology, considerata la migliore università del mondo in molte classifiche di settore per il 2018) ha avviato nel 2016 un progetto di ricerca che ha finora coinvolto 2,3 milioni di persone di 233 paesi del mondo.

image006_62-550x366

Il progetto Moral Machine presenta 13 diversi scenari di incidenti, tutti caratterizzati dall’inevitabile morte di una delle persone coinvolte. Chi partecipa al sondaggio deve scegliere tra giovani/vecchi, uomini/animali, poveri/ricchi, ecc. chi può sopravvivere o avere la peggio, a seconda delle circostanze.

I primi risultati, frutto di circa 50 milioni di risposte, sono state pubblicati sull’ultimissimo numero di Nature.

Emerge immediatamente che i principi morali sono diversi a seconda del Paese a cui appartiene chi ha partecipato al sondaggio. Ragionando a livello globale si riscontrano infatti solo poche, generali convergenze: risparmiare gli uomini rispetto agli animali, salvare più vite piuttosto che poche, preservare i bambini invece che gli adulti (prevalenza questa, meno marcata in Cina, Giappone e Arabia Saudita).

header-1511611418_1100x513

Per il resto, invece, le preferenze soggettive che orientano decisioni etiche di questo tipo sono molto diverse, poiché condizionate da variabili culturali, economiche, sociali, religiose, ecc. Ad esempio, i Paesi governati da istituzioni consolidate (come la Finlandia e il Giappone) sono tendenzialmente più propensi a sacrificare un pedone che attraversa irregolarmente la strada.

Lo stesso (imprudente) pedone avrebbe invece vita più lunga in Nigeria e in Pakistan.

Sfumature culturali che condizioneranno certamente chi sta costruendo i progetti di auto a guida autonoma. E che dovrebbero influenzare anche la comunità internazionale chiamata a legiferare sull’utilizzo e sul comportamento dei sistemi militari autonomi.

Il drone militare (del valore di decine di milioni di dollari) in avaria, quale scelta dovrà fare? Schiantarsi contro una montagna deserta o tentare di non distruggersi completamente atterrando in un ampio prato dove stanno giocando decine di bambini?

Foto: USMC, House of Bots, Keelynet e US DoD

 

Eugenio Santagata, Andrea MelegariVedi tutti gli articoli

Eugenio Santagata: Laureato in giurisprudenza presso l'Università di Napoli e in Scienze Politiche all'Università di Torino, ha conseguito un MBA alla London Business School e una LL.M alla Hamline University Law School. Ha frequentato la Scuola Militare Nunziatella a Napoli e l'Accademia Militare di Modena. Da ufficiale ha ricoperto ruoli militari operativi per poi entrare nel settore privato dando vita a diverse iniziative nel campo dell'hi-tech. E' stato CEO di CY4Gate e Vice Direttore Generale di Elettronica. Dall’aprile 2021 è CEO di Telsy. --- Andrea Melegari: Laureato in Informatica, ha insegnato per oltre 10 anni all'Accademia Militare di Modena. Dal 2000 si è specializzato nello sviluppo e nell'impiego delle tecnologie di Intelligenza Artificiale in ambito civile e militare. Tra gli incarichi ricoperti SEVP Defense, Intelligence & Security di Expert AI, Chief Marketing & Innovation Officer di CY4Gate. E' stato anche membro del CdA delle società Expert AI, CY4Gate e Expert System USA (Washington DC area). Dal luglio 2021 lavora presso una azienda tecnologica di un importante Gruppo industriale italiano.

Login

Benvenuto! Accedi al tuo account

Ricordami Hai perso la password?

Lost Password

My Agile Privacy
Questo sito utilizza cookie tecnici e di profilazione. Cliccando su accetta si autorizzano tutti i cookie di profilazione. Cliccando su rifiuta o la X si rifiutano tutti i cookie di profilazione. Cliccando su personalizza è possibile selezionare quali cookie di profilazione attivare. Inoltre, questo sito installa Google Analytics nella versione 4 (GA4) con trasmissione di dati anonimi tramite proxy. Prestando il consenso, l'invio dei dati sarà effettuato in maniera anonima, tutelando così la tua privacy.
Attenzione: alcune funzionalità di questa pagina potrebbero essere bloccate a seguito delle tue scelte privacy: