banner
Casa / Notizia / Mentre i militari adottano l’intelligenza artificiale, l’hype diventa un’arma
Notizia

Mentre i militari adottano l’intelligenza artificiale, l’hype diventa un’arma

May 24, 2023May 24, 2023

L’entusiasmo per l’intelligenza artificiale generativa ha raggiunto il culmine dal lancio di ChatGPT e motori di immagine come MidJourney nell’ultimo anno. Eppure sia l’euforia che l’ansia per le applicazioni della nuova tecnologia nel presente portano presto a proiezioni esistenziali più grandi sul futuro. Con l’eccezione della “singolarità” e della sostituzione diretta dell’IA con l’umanità, nessun risultato provoca la stessa quantità di ansia dell’effetto che l’IA potrebbe avere sulla guerra. Potrebbero le armi autonome e i robot strategici opprimere i civili, sfidare gli operatori umani o addirittura innescare la Terza Guerra Mondiale?

I leader mondiali stanno dando prova di azione. Sessanta stati si sono incontrati lo scorso febbraio per definire obiettivi per “l’uso responsabile dell’intelligenza artificiale” da parte degli eserciti. Il Dipartimento di Stato ha fatto seguito con una dichiarazione politica dei principi degli Stati Uniti, che prevede che gli alti ufficiali restino coinvolti nella progettazione e nel funzionamento di tutte le armi autonome, progettandole per "usi espliciti e ben definiti", mantenendo un'attenta sorveglianza di tutte le caratteristiche di sicurezza. durante l’intero ciclo di vita delle armi e cercando di evitare pregiudizi nel loro utilizzo. Human Rights Watch ha osservato, tuttavia, che nessuno di questi obiettivi è ancora giuridicamente vincolante né rallenta lo sviluppo di sistemi sofisticati che i loro operatori non comprendono appieno.

Nonostante la loro novità, questi recenti progressi sono semplicemente gli ultimi passi nell’automazione della violenza statale che fece il suo primo grande passo con la formazione di eserciti permanenti in Europa nel diciottesimo secolo. Sebbene la mitragliatrice, il carro armato e l'aereo da caccia siano simboli più familiari di questo processo, addestrare la fanteria per rimuovere le emozioni umane individuali e aumentarne la velocità e l'affidabilità per i comandanti diede a questi eserciti il ​​loro primo grande vantaggio rispetto ai rivali impreparati.

Ricevi la tua dose delle migliori storie di JSTOR Daily nella tua casella di posta ogni giovedì.

Informativa sulla privacy Contattaci Puoi annullare l'iscrizione in qualsiasi momento facendo clic sul collegamento fornito su qualsiasi messaggio di marketing.

D

Da allora gli stati hanno temuto di rimanere indietro rispetto a qualsiasi vantaggio derivante dall’automazione, motivo per cui c’è un discorso parallelo nei media che spinge gli Stati Uniti ad adottare più rapidamente l’intelligenza artificiale militare. Caratteristiche sorprendenti sui modi in cui l’intelligenza artificiale generativa rende l’analisi dei dati a livello segreto molto più efficiente vanno di pari passo con severi avvertimenti sul fatto che qualsiasi restrizione darà un vantaggio all’esercito cinese. Il New York Times offre spazio editoriale gratuito agli appaltatori militari dell’IA. Anche le gaffe che sembrano accidentali, come quella del colonnello che affermò che un drone IA aveva ucciso il suo operatore durante un'esercitazione virtuale per raggiungere il suo obiettivo o il generale che affermò che l'esercito americano tratta le armi IA in modo più etico a causa dei suoi "valori giudeo-cristiani" ”, (cioè, a differenza della Cina) rafforzano tutti il ​​messaggio al mondo che lo sviluppo dell’intelligenza artificiale militare sta procedendo a pieno ritmo.

Le applicazioni dell’intelligenza artificiale, in particolare nell’analisi dell’intelligence, sono ancora molto ipotetiche. Al momento, sembra che l’esagerazione stessa sia un’arma per mettere in guardia i pretendenti alla supremazia geopolitica. Ma i comandanti militari arriverebbero davvero al punto di cercare di automatizzare il processo decisionale stesso in tempo di guerra?

È logico che i veri ufficiali militari spesso chiedano maggiore cautela rispetto agli appaltatori dell’industria bellica e ai media adiacenti ai think tank. Tre ufficiali statunitensi vanno dritti al punto in un articolo del 2018 su PRISM, proponendo che i sistemi strategici automatizzati cinesi e americani operativi nel 2024 potrebbero trasformare un conflitto in uno “scambio nucleare limitato” in sole due ore.

Nel loro scenario, la crisi inizia con una collisione accidentale tra un peschereccio vietnamita e una nave cinese nel Mar Cinese Meridionale. Questo evento innesca una serie di reazioni a catena apparentemente non correlate nel cyberspazio, tra cui il crollo degli indici del mercato azionario e l’aumento di commenti sfavorevoli su entrambe le parti sui social media. Queste indicazioni attivano sistemi di allarme basati sull’intelligenza artificiale su attacchi Internet alle infrastrutture IT di entrambe le parti, dando poi il via a vere e proprie azioni militari. Sebbene la Cina colpisca per prima nel loro scenario, gli autori ritengono l’interazione di entrambe le parti responsabile del potenziale omicidio di milioni di persone.