lunedì 18 gennaio 2021

Controllare l'incontrollabile? I pericoli della super intelligenza artificiale

Foto di Gerd Altmann da Pixabay

Non si ferma l'IA? Gli scienziati concludono che non ci sarebbe modo di controllare macchine super intelligenti

BERLINO, Germania -  Dalle auto a guida autonoma ai computer in grado di vincere i giochi, gli esseri umani hanno una naturale curiosità e interesse per l'intelligenza artificiale (AI). Mentre gli scienziati continuano a rendere le macchine più intelligenti e intelligenti, tuttavia, alcuni si chiedono "cosa succede quando i computer diventano troppo intelligenti per il loro bene?" Da "The Matrix" a "The Terminator", l'industria dell'intrattenimento ha già iniziato a riflettere se i futuri robot un giorno minacceranno la razza umana. Ora, un nuovo studio conclude che potrebbe non esserci alcun modo per fermare l'ascesa delle macchine. Un team internazionale afferma che gli esseri umani non sarebbero in grado di impedire che la super intelligenza artificiale faccia quello che vuole.

Gli scienziati del Center for Humans and Machines del Max Planck Institute hanno iniziato a immaginare come sarebbe una macchina del genere. Immagina un programma di intelligenza artificiale con un'intelligenza di gran lunga superiore a quella umana. Tanto che potrebbe imparare da solo senza una nuova programmazione. Se fosse connesso a Internet, i ricercatori affermano che l'IA avrebbe accesso a tutti i dati dell'umanità e potrebbe persino prendere il controllo di altre macchine in tutto il mondo.

Gli autori dello studio si chiedono cosa farebbe una simile intelligenza con tutto quel potere? Funzionerebbe per migliorare tutte le nostre vite? Dedicerebbe la sua potenza di elaborazione alla risoluzione di problemi come il cambiamento climatico? Oppure la macchina cercherebbe di impossessarsi delle vite dei suoi vicini umani?

Controllare l'incontrollabile? I pericoli della super intelligenza artificiale

Sia i programmatori di computer che i filosofi hanno studiato se c'è un modo per impedire a un'IA super intelligente di accendere potenzialmente i suoi creatori umani; assicurando che i computer futuri non possano causare danni ai loro proprietari. Il nuovo studio rivela, sfortunatamente, che sembra essere praticamente impossibile mantenere in linea un'IA super intelligente.

“Una macchina super intelligente che controlla il mondo sembra fantascienza. Ma esistono già macchine che eseguono determinati compiti importanti in modo indipendente senza che i programmatori comprendano appieno come l'hanno imparato. Sorge quindi la domanda se questo potrebbe a un certo punto diventare incontrollabile e pericoloso per l'umanità", dice il coautore dello studio Manuel Cebrian, leader del Digital Mobilization Group presso il Center for Humans and Machines, in un comunicato universitario.

Il team internazionale ha esaminato due diversi modi per controllare l'intelligenza artificiale. Il primo ha frenato il potere della superintelligenza murandola e impedendole di connettersi a Internet. Inoltre, non poteva connettersi ad altri dispositivi tecnici nel mondo esterno. Il problema con questo piano è abbastanza ovvio; un computer del genere non sarebbe in grado di fare molto per aiutare effettivamente gli esseri umani.

Essere gentili con gli umani non calcola

La seconda opzione si è concentrata sulla creazione di un algoritmo che fornisse principi etici al supercomputer. Si spera che ciò costringa l'IA a considerare i migliori interessi dell'umanità.

Lo studio ha creato un algoritmo di contenimento teorico che impedirebbe all'IA di danneggiare le persone in qualsiasi circostanza. Nelle simulazioni, l'IA smetterebbe di funzionare se i ricercatori considerassero le sue azioni dannose. Nonostante impedisca all'intelligenza artificiale di raggiungere il dominio del mondo, gli autori dello studio affermano che questo semplicemente non funzionerebbe nel mondo reale.

“Se si scompone il problema in regole di base dell'informatica teorica, si scopre che un algoritmo che comanderebbe a un'intelligenza artificiale di non distruggere il mondo potrebbe inavvertitamente interrompere le proprie operazioni. Se ciò accadesse, non sapresti se l'algoritmo di contenimento sta ancora analizzando la minaccia o se si è fermato per contenere l'IA dannosa. In effetti, questo rende inutilizzabile l'algoritmo di contenimento", afferma Iyad Rahwan, Direttore del Center for Humans and Machines.

Lo studio conclude che contenere l'intelligenza artificiale è un problema incomprensibile. Nessun singolo programma per computer può trovare un modo infallibile per impedire che l'intelligenza artificiale agisca in modo dannoso se lo desidera. I ricercatori aggiungono che gli esseri umani potrebbero non rendersi nemmeno conto di quando le macchine super intelligenti arriveranno effettivamente nel mondo tecnologico. Quindi sono già qui?

Lo studio appare nel Journal of Artificial Intelligence Research.

Fonte: https://www.studyfinds.org/no-way-to-control-super-artificial-intelligence-ai/

®wld

1 commento:

  1. E' vero che le macchine si possono "educare" stimolamdole a fare cose che loro non conoscono e che imparano, e fin dagli anni 90 ma devi essere intelligente tu per insegnare. A formule non si va da nessuna parte. Devi conoscere il "concetto. Studiatevi a rigor di Logica la sequenza diametro volume della sfera e dopo quella del cubo.

    RispondiElimina

Tutti i commenti sono sottoposti a moderazione prima della loro eventuale pubblicazione.E' gradito il nome o il nikname