Maggio 4, 2024

Laredazione.eu

Trova tutti gli ultimi articoli e guarda programmi TV, servizi e podcast relativi all'Italia

Decoded – L'ascesa dei “robot killer” autonomi: in che modo l'intelligenza artificiale è diventata un'arma di guerra essenziale?

Decoded – L'ascesa dei “robot killer” autonomi: in che modo l'intelligenza artificiale è diventata un'arma di guerra essenziale?

Questo guadagno di autonomia concesso alle macchine è, in parte, una risposta al problema della guerra. Con la digitalizzazione delle armi (ad esempio i droni a pilotaggio remoto), la strategia si è rivelata efficace nel neutralizzarle: recidendo il rapporto tra arma e soldato. Finché sarà necessaria una connessione stabile e permanente per controllare il dispositivo da remoto, il nemico farà tutto ciò che è in suo potere per interrompere questa connessione. Di fronte a ciò, l’esercito ucraino ha ammesso di aver già utilizzato i droni in piena autonomia. Questi droni possono trasportare un carico utile di 3 chilogrammi su una distanza di 12 chilometri e identificare e quindi attaccare autonomamente 64 tipi di “obiettivi militari”, riferisce Courrier International.

Questa capacità di identificare gli obiettivi è il fulcro del sistema attualmente utilizzato dall’esercito israeliano. Il sistema Lavender è stato ottimizzato per tracciare e uccidere decine di migliaia di persone. In primo luogo, secondo l’indagine di +972 Magazine e Local Contact, gli israeliani hanno raccolto informazioni su alcune centinaia di combattenti confermati di Hamas e, sulla base dei loro dati, hanno chiesto all’intelligenza artificiale di identificare profili simili. Così questi palestinesi (i suddetti 37.000) sono diventati potenziali bersagli. Per creare questa lista, l'IA si sarebbe basata sui messaggi WhatsApp, sul luogo di residenza, sui contatti e sugli eventuali collegamenti con altri combattenti.

La tecnologia è più efficiente che mai

Alain de Neve, specialista in tecnologie di difesa, spiega:Il problema di tutta questa tecnologia è che i prezzi continuano a scendere“In effetti, come per molti aspetti della vita quotidiana, le tecnologie utilizzate costano sempre meno, poiché sono meglio padroneggiate e prodotte in serie”.I primi droni erano manuali, ma l’esperienza si è evoluta, c’è stato uno scambio di tecnologie e ora sono molto avanzati“.

Ora, con le tecnologie attuali, è possibile realizzare droni killer da una stampante 3D a un prezzo assolutamente ridicolo. La creazione di dispositivi letali con materiali meno sofisticati potrebbe renderli più difficili da rilevare da tecnologie contrastanti. Ciò rappresenta una nuova funzionalità.

Il contributo dell’intelligenza artificiale alle pratiche dei guerrieri non è nuovo. “Ciò che vediamo nelle guerre di oggi è il risultato di un processo iniziato negli anni ’50”.L’intelligenza artificiale è nata con la deterrenza nucleare. Ciò è avvenuto quando era necessario trovare una soluzione per superare le capacità militari degli avversari, senza utilizzare la bomba atomica.“, spiega Alain De Neve.

READ  Incidenti durante le votazioni in almeno quindici regioni russe

Quali sono i limiti?

Come ogni cosa nuova, l’emergere di questa tecnologia sul campo di battaglia solleva una montagna di domande. Uno: abbiamo il diritto di usarlo come vogliamo? “Coloro che lanciano allarmi sull’intelligenza artificiale e la paragonano alle armi nucleari hanno in qualche modo ragione. Questo paragone è utile perché ci ricorda la situazione che stiamo vivendo in questo momento storico“, Ulteriori analisi per l'esperto dell'ERM.

Abbiamo dovuto trovare un equilibrio con l’Unione Sovietica e trovarci sull’orlo della crisi missilistica cubana nel 1962 per stabilire un quadro.“Alle armi atomiche. Ci vorrà una nuova grande crisi per limitare l'uso dell'intelligenza artificiale in guerra Solo il futuro lo dirà, ma Alain de Neve si arrabbia e sostiene che le due situazioni sono ancora radicalmente diverse?

L’intelligenza artificiale può effettivamente essere utilizzata in aspetti di difesa, puramente medici, ecc. Non solo offensivo e distruttivo.

Le normative sono in vigore?

Per Pauline Warnot, esperta di diritto del disarmo e intelligenza artificiale nella difesa, “Spetta alle armi rispettare il diritto internazionale umanitario e non viceversaRileva che la Corte internazionale di giustizia, nel suo parere consultivo sulle armi nucleari, ha confermato che i principi fondamentali e le norme pertinenti del diritto di guerra si applicano anche alle nuove tecnologie.

Inoltre, tutti gli Stati sono obbligati a verificare che ogni nuova arma, ogni nuovo strumento, ogni nuovo metodo di guerra che desiderano impiegare, acquistare, sviluppare, ecc. Completamente legale. Ciò significa quindi che ogni nuova arma deve rispettare la legge, non che la legge si debba adattare a queste nuove armi.“, conclude l'esperto.

Alain de Neve ha un'opinione leggermente diversa. per lui, “Le leggi sono un po’ indietro e dobbiamo recuperare“.”Questa guerra significa che dobbiamo prendere un treno in corsa e il treno sta accelerando“, Metafore sul conflitto in Ucraina.

READ  Nato: Svezia e Finlandia diventeranno "bersagli legittimi" per Mosca, avverte un ambasciatore russo

Nel novembre 2023, 31 paesi hanno ratificato il principio di autoregolamentazione nelle applicazioni militari dell’intelligenza artificiale. Il segretario generale delle Nazioni Unite António Guterres e la presidente della Croce Rossa Internazionale Mirjana Spoliaric-Eger hanno invitato i paesi a raggiungere un accordo vincolante entro il 2026.

Rischi di abuso?

L’arrivo di macchine autonome che prendono decisioni sull’azione rende la guerra un po’ più complessa. Di chi è la colpa se un’intelligenza artificiale prende una decisione sbagliata? “Il problema potrebbe essere la riluttanza ad assumersi la responsabilità. Alcuni potrebbero nascondersi dietro l’intelligenza artificiale per evitare di assumersi la responsabilità“, analizza Marie de Neige Ruffo, dottoressa in filosofia e tutor del Master in Cybersecurity presso UNamur.

Le azioni dei robot dipendono anche da come sono programmati e dal loro scopo. Anche con aggiustamenti molto fini, la decisione di uccidere si basa ancora su algoritmi. “Il problema sorge quando riduciamo il processo decisionale a un semplice processo matematico“, afferma la donna che lavora anche come ricercatrice associata presso la prestigiosa Accademia militare di Saint-Cyr Quetguidan in Francia.

Perché ci sia un uso razionale, è necessario che vi sia un appello alla responsabilità umana. È un dibattito antico quanto l'uso della balestra. Devi essere consapevole di quello che stai facendo“. Soprattutto quello”Le guerre moderne causano sempre più vittime civili“.

A sostegno della sua tesi di “riferire la decisione a un processo matematico”, si consideri il sistema Lavender, utilizzato dall’esercito israeliano. Ha un'affidabilità di circa il 90%. Ciò significa che il 10% dei 37.000 palestinesi presi di mira potrebbe non avere nulla a che fare con Hamas. Tuttavia, si ritrovano con un bersaglio sulla schiena e probabilmente da allora sono morti.

La fine dei soldati umani?

Ovviamente tale ipotesi difficilmente potrà realizzarsi immediatamente. Ma con l’avanzare di queste tecnologie, i soldati hanno sempre meno bisogno di esporsi agli attacchi contro un avversario.

Con l'arrivo della bomba atomica pensavamo che la guerra fosse finita, ma no. Con l’arrivo di missili più efficienti, avevamo detto che non ci sarebbe stato più bisogno di mandare soldati sul campo. Possiamo dire la stessa cosa con l’intelligenza artificiale“, rileva ancora Alain de Neve.”Ma non credo alla scomparsa del fattore umano, anche se minaccia di ridursi più o meno, lo zero non aspetterà.Anche per il mantenimento di tutti questi sistemi l’intervento umano è ancora necessario.

READ  Netanyahu rifiuta qualsiasi riconoscimento dello Stato palestinese Guerra Israele-Hamas

In senso assoluto bisognava chiedersi chi avrebbe potuto decidere la scomparsa dell'elemento umano alla luce dello sviluppo tecnologico. Spetterà ai politici decidere“, conferma il ricercatore in gestione del rischio aziendale.”I militari hanno sempre una visione più scettica e considerano l’elemento umano il più importante, mentre i politici hanno in generale una visione più avventurosa.“, lui pensa.

Se l’intervento dell’intelligenza artificiale nei conflitti non segnasse la fine per i soldati sul campo, ciò potrebbe significare l’emergere di nuove tensioni, ritiene Alain de Neve. “L’intelligenza artificiale sconvolgerà una serie di basi da cui dipendono la politica e la deterrenza.

Per sostenere le sue parole, un esperto dell’ERM descrive la situazione globale come segue: “Gli Stati Uniti e la Russia hanno più o meno la stessa forza d’attacco nucleare. Se un paese decide di lanciare i suoi missili contro un altro paese, sa che è vulnerabile alle azioni di ritorsione, soprattutto da parte di sottomarini in grado di lanciare missili nucleari. Le basi missilistiche terrestri possono essere identificate, ma i sottomarini non possono essere rilevati. Quindi, se un paese sviluppasse una tecnologia che rendesse possibile localizzare questi sottomarini e conoscerne la posizione, ciò capovolgerebbe completamente l’equilibrio dell’ordine esistente. Questo è uno degli scenari che stiamo studiando, tra gli altri.

Attualmente, anche se il Belgio non si sta imbarcando nell’acquisizione di armi intelligenti come fanno gli ucraini, l’intelligenza artificiale ha cominciato ad essere insegnata nei corsi dell’Accademia militare reale, che forma gli ufficiali militari del nostro esercito. “Non esiste ancora un corso di formazione dedicato a questo, ma prima o poi diventerà necessario.“, prevede Alain De Neve.

concludere, “L’uso dell’intelligenza artificiale non va demonizzato“dice Marie de Neige Ruffaut.”Può essere utile se riesce a rimuovere i dubbi sugli obiettivi, a garantire la sicurezza, ecc.“.