Gli effetti (anche indesiderati) della democratizzazione dell’Intelligenza Artificiale
Senza alcun dubbio l’intelligenza artificiale (IA) ha il potenziale di alterare radicalmente gli equilibri di potere tra le nazioni, garantendo vantaggio significativo a coloro che ne hanno un accesso precoce ed avanzato. L’IA è infatti già ampiamente utilizzata dalle superpotenze per migliorare le prestazioni di un’ampia gamma dei loro sistemi militari, tra cui l’analisi delle informazioni, i sistemi di difesa, le armi autonome, …
Tuttavia, guardando al medio-lungo termine, il potenziale impatto della IA sugli equilibri geopolitici è ancora incerto.
Il fenomeno della democratizzazione della intelligenza artificiale, ovvero la diffusione di tecnologie di IA a un numero sempre maggiore di persone e paesi, potrebbe rivoluzionare i paradigmi esistenti e condizionare i futuri equilibri geopolitici. Se le tecnologie di IA fossero disponibili a un numero maggiore di nazioni, ciò potrebbe ridurre virtualmente la disuguaglianza militare e rendere più difficile per le grandi potenze militari mantenere un vantaggio significativo.
Per valutare la dimensione e le reali ripercussioni del fenomeno della democratizzazione della IA, può essere utile dedicare qualche paragrafo a quanto sta succedendo con la intelligenza artificiale generativa, la tecnologia resa popolarissima da ChatGPT e dai Large Language Model (LLM).
Gli LLM sono algoritmi avanzati di intelligenza artificiale che possono svolgere molti compiti legati al linguaggio naturale, cioè il modo in cui comunichiamo noi esseri umani. Questi algoritmi si basano su enormi quantità di dati testuali, raccolti da diverse fonti, e usano reti neurali complesse per analizzare e produrre testo in modo naturale e coerente. Gli LLM sono già impiegati per vari scopi, come la traduzione, la generazione di testi, la sintesi vocale, e stanno cambiando (forse già rivoluzionando) il modo in cui interagiamo con la tecnologia.
Per valutare la capacità di un LLM di comprendere il contesto e risolvere le ambiguità linguistiche, sono stati creati alcuni test, ispirati al famoso test di Turing, il gioco ideato per determinare se un computer (o un algoritmo) sia in grado di pensare come un essere umano. Uno di questi test è WinoGrande, che consiste in 44mila domande che presentano coppie di frasi quasi identiche con due possibili risposte. Ecco alcuni esempi:
- Il trofeo non entra nella valigia marrone perché X è troppo grande. (Opzioni: trofeo/valigia)
- Il trofeo non entra nella valigia marrone perché Y è troppo piccola. (Opzioni: trofeo/valigia)
Come appare chiaro dall’esempio, la risposta giusta dipende da una parola chiave, che cambia il senso della frase. Questo mette alla prova la capacità dei modelli di cogliere il contesto basato sul linguaggio naturale. Secondo lo “Allen Institute for Artificial Intelligence and University of Washington”, l’ente di ricerca che ha inventato questo test, la tipica performance umana ha uno “score del 94.0%” .
ChatGPT non è l’unico LLM esistente. Esistono altri modelli proprietari (come ad esempio Bard di Google) ma soprattutto anche dei modelli Open Source (Open LLM), cioè accessibili e modificabili da chiunque. Questi modelli sono costantemente aggiornati e migliorati dalla comunità di ricercatori e sviluppatori, che li mettono a disposizione di tutti. Inoltre, il codice sorgente di questi modelli è ispezionabile, il che significa che si può capire come funzionano i loro algoritmi.
Un sito che tiene traccia delle prestazioni dei modelli Open Source è Hugging Face, una piattaforma open source che propone una classifica aggiornata dei modelli più avanzati. La classifica cambia continuamente. La ragione è semplice: grazie alla possibilità offerta alla comunità di sviluppatori di contribuire al miglioramento del software, ogni giorno vengono rilasciate nuove versioni degli Open LLM in grado di offrire prestazioni sempre crescenti. Al momento, ci sono decine di modelli che hanno un punteggio WinoGrande superiore all’80%, e il modello migliore raggiunge l’86,9% (non tanto inferiore al 94% del risultato umano).
Per chiudere questa parentesi, vale la pena ribadire che, anche un paese in via di sviluppo con competenze tecnologiche limitate (e/o non paragonabili ad una grande potenza tecnologica), può scaricare uno di questi (avanzatissimi) algoritmi di IA, eventualmente modificarlo/integrarlo, quindi impiegarlo con intenti benevoli o malevoli.
In estrema sintesi:
- l’IA rappresenta una tecnologia disruptive che ha il potenziale di alterare radicalmente gli equilibri geopolitici, oltre che portare benefici e opportunità;
- l’evoluzione di questi equilibri dipenderà da una serie di fattori, tra cui il ritmo di sviluppo dell’IA, l’evoluzione del fenomeno della democratizzazione, le politiche adottate dalle nazioni rispetto all’impiego di queste tecnologie strategiche .
Andrea MelegariVedi tutti gli articoli
Laureato in Informatica, ha insegnato per oltre 10 anni all'Accademia Militare di Modena. Dal 2000 si è specializzato nello sviluppo e nell'impiego delle tecnologie di Intelligenza Artificiale in ambito civile e militare. Tra gli incarichi ricoperti SEVP Defense, Intelligence & Security di Expert AI, Chief Marketing & Innovation Officer di CY4Gate. E' stato anche membro del CdA delle società Expert AI, CY4Gate e Expert System USA (Washington DC area). Dal luglio 2021 lavora presso una azienda tecnologica di un importante Gruppo industriale italiano.