martedì 2 febbraio 2021

Impossibile prevedere il comportamento dell'intelligenza artificiale

 

Il 25 gennaio 2021 ha segnato cento anni dalla prima dell'opera teatrale RUR  (Rossum's Universal Robots) dello scrittore di fantascienza ceco Karel Čapek  . Il breve lavoro ha anticipato i libri successivi sull'argomento, oltre a film cyberpunk e post-apocalittici come  The Terminator  e  Alien: Covenant. I robot universali di Rossum sono stati concepiti come aiutanti umani, ma dopo un po 'si ribellano e distruggono la razza umana, ad eccezione di un operaio di fabbrica, di cui hanno bisogno per ricreare la propria specie.

La parola "robot" divenne presto comune e fu applicata a meccanismi con una serie limitata di funzioni programmabili che necessitavano di diagnostica, assistenza e riparazione. Più recentemente, tuttavia, soprattutto dopo lo sviluppo dei computer e delle tecnologie informatiche, sono già in corso discussioni sul fatto che le macchine possano pensare e prendere decisioni su un piano di parità con le persone.

Da nessuna parte le ultime conquiste nel campo della robotica e dell'informatizzazione sono più richieste che in campo militare, soprattutto negli Stati Uniti, dove sono stati istituiti centri speciali per sviluppare programmi, applicazioni e hardware specifici. Numerosi laboratori dell'esercito americano, del corpo dei marines, della marina e dell'aeronautica militare, con l'aiuto di appaltatori e delle principali istituzioni del paese, portano i prototipi di modelli avanzati alla loro logica conclusione: tutta questa tecnologia è al servizio delle nuove guerre che Washington sta pianificando da scatenare in futuro.

I recenti progressi in questo settore sono indicativi.

La  nave senza pilota  Ghost Fleet Overlord ha recentemente navigato con successo 4.700 miglia nautiche e ha partecipato all'esercitazione Dawn Blitz, dove ha operato in modo autonomo per quasi tutto il tempo.

Coloro che sono preoccupati per il potere crescente della Cina  propongono di utilizzare tali sistemi  per eventuali futuri rapporti con l'EPL: usare droni suicidi sottomarini per attaccare i sottomarini cinesi, per esempio. Gli Stati Uniti parlano già di robot da combattimento subacquei e di superficie che sarebbero in fase di sviluppo da parte delle forze armate cinesi e che i cinesi chiamano  "Grande Muraglia sottomarina". Questo è il motivo per cui suggeriscono di stabilire la parità con o di superare in qualche modo i cinesi.

Gli sforzi della Cina in quest'area mostrano che la disponibilità di nuovi tipi di armi non fornisce agli Stati Uniti alcuna garanzia che tali sistemi non saranno messi in servizio da altri paesi. Ad esempio, la comparsa di veicoli aerei da combattimento senza pilota in un certo numero di paesi ha costretto gli Stati Uniti a sviluppare metodi e strategie per contrastare i droni.

Pertanto, nel gennaio 2021, il Dipartimento della Difesa degli Stati Uniti ha pubblicato una  strategia per contrastare i piccoli sistemi aerei senza pilota  che esprime allarme per la natura mutevole della guerra e la crescente concorrenza, che pongono entrambi sfide alla superiorità americana.

Il tenente generale Michael Groen, direttore del Joint Artificial Intelligence Center del Dipartimento della Difesa degli Stati Uniti,  parla  della necessità di accelerare l'attuazione dei programmi di intelligenza artificiale per uso militare. Secondo Groen: “Potremmo presto trovarci in uno spazio di battaglia definito da processi decisionali basati sui dati, azione integrata e ritmo. Con il giusto impegno per implementare l'IA oggi, ci troveremo a operare con un'efficacia ed un'efficienza senza precedenti ".

Il Joint Artificial Intelligence Center del Pentagono, che è stato istituito nel 2018, è ora una delle principali istituzioni militari che sviluppa "software intelligente" per le future armi, comunicazioni e sistemi di comando.

L'intelligenza artificiale è ora l'argomento più discusso nella comunità di ricerca sulla difesa degli Stati Uniti. È una risorsa che può aiutare a raggiungere determinati obiettivi, come consentire ai droni di volare senza supervisione, raccogliere informazioni e identificare gli obiettivi attraverso un'analisi rapida e completa.

Si presume che lo sviluppo dell'intelligenza artificiale porterà a una forte concorrenza, poiché l'IA stessa differisce da molte tecnologie del passato nella sua naturale tendenza al monopolio. Questa tendenza al monopolio esacerberà la disuguaglianza sia interna che internazionale. La società di revisione PricewaterhouseCoopers  prevede  che "quasi 16 trilioni di dollari di crescita del PIL potrebbero derivare dall'intelligenza artificiale entro il 2030", di cui il 70% sarà rappresentato solo da Stati Uniti e Cina. Se la rivalità è il corso naturale delle cose, allora per le aziende che utilizzano l'intelligenza artificiale per scopi militari o tecnologie a duplice uso, vederla in questo modo sembrerà abbastanza logico. Sarà un nuovo tipo di corsa agli armamenti.

Dal punto di vista etico, tuttavia, i sistemi di intelligenza artificiale militare potrebbero essere coinvolti nel prendere decisioni salvavita o imporre condanne a morte. Includono sia sistemi d'arma autonomi letali che possono selezionare e ingaggiare obiettivi senza intervento umano, sia programmi di supporto decisionale. Ci sono persone che sostengono attivamente l'inclusione delle macchine in un processo decisionale complesso. Lo scienziato americano Ronald Arkin, ad esempio, sostiene che non solo tali sistemi spesso hanno una maggiore consapevolezza della situazione, ma non sono neppure motivati ​​da autoconservazione, paura, rabbia, vendetta o lealtà fuori luogo, suggerendo che, per questo motivo, i robot avrà meno probabilità di violare gli accordi di pace rispetto alle persone.

Alcuni credono anche che le funzioni dell'intelligenza artificiale possano trasformare il rapporto tra i livelli tattico, operativo e strategico della guerra. L'autonomia e il networking, insieme ad altre tecnologie, tra cui nanotecnologia, stealth e biogenetica, offriranno sofisticate capacità di combattimento tattico a terra, in aria e in mare. Ad esempio, banchi di veicoli sottomarini autonomi concentrati in luoghi specifici nell'oceano potrebbero complicare le azioni segrete dei sottomarini che attualmente assicurano un attacco di ritorsione garantito dalle potenze nucleari. Pertanto, anche altre piattaforme tattiche potrebbero avere un impatto strategico.

Anche la maggiore manovrabilità è collegata all'intelligenza artificiale. Tra le altre cose, questo include software e sensori che consentono ai robot di essere autonomi in luoghi pericolosi. Questa è una delle forze trainanti dietro l'uso dei sistemi autonomi da parte dei militari. L'esercito americano ha grandi speranze nell'autonomia della macchina perché potrebbe fornire una maggiore flessibilità alle persone che comandano e combattono al fianco dei robot. Gli sviluppatori americani si aspettano di passare da 50 soldati che supportano un drone, un veicolo terrestre senza pilota o un robot acquatico, come è ora, a un paradigma in cui una persona supporta 50 robot.

Ma l'intelligenza artificiale potrebbe anche creare seri problemi. L'intelligenza artificiale militare potrebbe potenzialmente accelerare il combattimento al punto in cui le azioni delle macchine superano le capacità mentali e fisiche di coloro che prendono le decisioni nei posti di comando di una guerra futura. Pertanto, la tecnologia supererà la strategia e molto probabilmente gli errori umani e della macchina si fonderanno, con conseguenze imprevedibili e non intenzionali.

Uno  studio della RAND Corporation, che esamina il modo in cui le macchine pensanti influenzano la deterrenza quando si parla di confronto militare, evidenzia i gravi problemi che potrebbero derivare se l'intelligenza artificiale fosse utilizzata nel teatro di guerra. Sulla base dei risultati dei giochi condotti, è stato dimostrato che le azioni intraprese da una parte, che entrambi i giocatori percepivano come ridotte, venivano immediatamente percepite dall'intelligenza artificiale come una minaccia.

Quando un giocatore umano ritirava le proprie forze per ridurre una situazione, era molto probabile che le macchine lo percepissero come un vantaggio tattico che doveva essere consolidato. E quando un giocatore umano muoveva le proprie forze in avanti con un'ovvia (ma non ostile) dimostrazione di determinazione, le macchine tendevano a percepirlo come una minaccia imminente e agivano in modo appropriato.

Il rapporto ha scoperto che le persone avevano a che fare con la confusione non solo su ciò che il loro nemico stava pensando, ma anche con la percezione dell'intelligenza artificiale del loro nemico. I giocatori dovevano anche fare i conti con il modo in cui la loro intelligenza artificiale poteva interpretare male le intenzioni umane, sia amichevoli che ostili.

In altre parole, l'idea contenuta nella commedia di Karel Čapek sui robot è ancora rilevante oggi: è impossibile prevedere il comportamento dell'intelligenza artificiale. E se i robot "intelligenti" hanno un uso militare, potrebbero anche diventare un pericolo per i loro proprietari. Anche negli Stati Uniti, ci sono scettici nell'esercito che sono nel campo dei  tradizionalisti  che credono che tali innovazioni da parte degli utopisti della Silicon Valley saranno dannose per la politica americana.

Rivista orientale

Fonte: https://www.geopolitica.ru/

********************************** 

 

Interessante articolo e video correlato:

IL LEVIATANO DIGITALE / IL LAGER FINANZIARIO GLOBALE E I SUOI CUSTODI

 

Nessun commento:

Posta un commento

Tutti i commenti sono sottoposti a moderazione prima della loro eventuale pubblicazione.E' gradito il nome o il nikname