domenica 1 settembre 2019

AI: il Robot Scrittore - religione robo


AI E FALSE NEWS (E "Q")  


Fake News è di nuovo in Fake News. O meglio, l'intelligenza artificiale potrebbe essere nelle notizie false. Questo non dovrebbe sorprendere, visto che abbiamo visto articoli sulle nuove tecnologie che possono simulare praticamente chiunque dica o faccia qualcosa. Ma questa storia, condivisa da TS, dovrebbe rendere sobrio anche il più scettico:

L'intelligenza artificiale "pericolosa" si offre di scrivere notizie false

Un paio di giorni fa ho scritto un blog sul fatto che i robot sostituissero gli umani, anche come clero in una sorta di "religione robo", e su come i robot siano già tassati silenziosamente e indirettamente. Ma immagina che la notizia sia scritta da un'intelligenza artificiale (e che venga letta da una "persona-ancora" robo sulla telecamera). Non è troppo lontana:
"Un sistema di intelligenza artificiale che genera storie, poesie e articoli realistici è stato aggiornato, e alcuni sostengono che ora è quasi buono come uno scrittore umano.

Il generatore di testo, costruito dalla società di ricerca OpenAI, era inizialmente considerato "troppo pericoloso" per essere reso pubblico a causa del potenziale abuso.

Ma ora è stata rilasciata una nuova versione più potente del sistema, che potrebbe essere utilizzata per creare notizie false o spam offensivo sui social media.

La BBC, insieme ad alcuni esperti di intelligenza artificiale, ha deciso di provarlo.

Il modello, chiamato GPT-2, è stato formato su un set di dati di otto milioni di pagine Web ed è in grado di adattarsi allo stile e al contenuto del testo iniziale che gli è stato dato.

Può finire una poesia di Shakespeare e scrivere articoli ed epiteti.

Al momento, la società ha dichiarato: "A causa delle nostre preoccupazioni sulle applicazioni dannose della tecnologia, non stiamo rilasciando il modello addestrato. Come esperimento di divulgazione responsabile, stiamo invece rilasciando un modello molto più piccolo per i ricercatori con cui sperimentare".
Come indica anche l'articolo, la BBC ha deciso di testare la versione pubblica del programma e ha escogitato questo:
La BBC ha deciso di testare il sistema inserendo le prime frasi di una storia recente, appropriatamente una sull'AI.

Abbiamo iniziato con la prima frase della vera storia:

Il motore di ricerca cinese Sogou sta creando sosia di intelligenza artificiale per leggere romanzi popolari con le voci degli autori.
Ecco cosa è venuto fuori dal generatore di testo per completarlo:
Secondo i ricercatori, questo metodo di lettura non è solo un'idea degli utenti di Amazon Kindle. Gli utenti di dispositivi Android sono anche un mercato notevole per la lettura falsa. Ci sono diverse teorie per spiegare questo.

Innanzitutto, il dispositivo in mano a un utente è diverso dal tablet o dal computer su cui stanno leggendo. In secondo luogo, il dispositivo utilizzato per accedere a Internet potrebbe essere manomesso in qualche modo. Un terzo motivo è che l'utente può semplicemente copiare e incollare il contenuto direttamente nei propri personaggi virtuali.

Tuttavia, un'altra spiegazione è che il dispositivo non ha affatto capacità di riconoscimento vocale. In tal caso, il riconoscimento vocale è più avanzato del motore di traduzione di Google. In quanto tali, questi utenti sono indotti a pensare di leggere da un vero autore: il libro sembra autentico non appena provano a leggere. (Enfasi nell'originale)
Come osserva anche l'articolo, tuttavia, un professore di informatica all'università di Sheffield, Noel Sharkey, ha testato il programma e non è stato molto colpito:
"Ho testato il software con numerosi titoli e ottenuto risultati ridicoli. Ad esempio, per" I tacchini odiano il Natale ", ho ottenuto che" la Turchia è l'unica nazione al mondo che non celebra il Natale "e un numero di frasi non correlate.

"Per" Boris Johnson ama il backstop ", ha prodotto incoerenti incomprensioni e alcune cose sull'intelligenza artificiale e sullo sport. Quando ho inserito l'affermazione che" Boris Johnson odia il backstop ", ho avuto una storia più coerente che sembra essere stata tirata fuori da un Ricerca Google."

Anche Dave Coplin, fondatore della società di consulenza AI Envisioners, ha giocato con il sistema, inserendo la prima linea di una battuta classica: un uomo entra in un bar ...

Il suggerimento dell'IA non era quello che si aspettava: "... E ordinò due pinte di birra e due scotch. Quando provò a pagare il conto, si trovò di fronte due uomini - uno dei quali gridò" Questo è per la Siria. "L'uomo è stato quindi lasciato sanguinare e pugnalato alla gola".
Ma va notato ancora una volta, questi risultati sono stati ottenuti con la versione del programma rilasciata pubblicamente. Non abbiamo idea di cosa abbiano prodotto i test privati, ma con una vasta espansione di parametri (inclusi i parametri di ricerca), è una scommessa sicura che i risultati siano stati leggermente migliori. In effetti, ci sono state storie di articoli di "scienza" generati dall'intelligenza artificiale che, nonostante fossero puramente incomprensibili, sono stati accettati da seri giornali per la pubblicazione perché "sembravano" autentici.

Allora, dove sto andando con tutto questo? Qual è la speculazione ad alto numero di ottani? Il problema, a quanto pare, è questo: in questa era in cui tutti affermano che una storia del genere è una "notizia falsa", ci si chiede quanto di tutto ciò sia effettivamente generato, in parte, da IA ​​che scrivono e piantano falsi storie. Considera solo la storia del presidente Trump che dice che avrebbe voluto sconvolgere gli uragani annusandoli. Lo ha negato, ovviamente, e francamente, quando ho sentito la storia, ho pensato che fosse falso. (Ciò che non è falso nella storia sono stati gli studi degli anni '50 sulla modifica del clima usando armi nucleari, ma questo è un altro blog per un altro giorno.) Ma se è falso o no, o se le smentite di Trump sono false o no, solleva un problema cruciale: con abbastanza parametri di ricerca e potenza di calcolo, il cielo potrebbe essere il limite. Una possibilità è che l'IA diventi l'editore di storie generate dall'uomo, modificando i testi in base a parametri e filtri attuali (e probabilmente ideologici). Come ho sottolineato in un blog solo pochi giorni fa, alcuni ebook sono già stati commercializzati che contenevano testi non scritti dai loro presunti autori originali. È possibile che i "programmi di aggiornamento" di questi testi non fossero affatto umani? Sospetto che la risposta a questa domanda sia un "sì" qualificato.

In effetti, ho intrattenuto in discussioni private con alcune persone sull'intero fenomeno "Q" che rappresenta non solo un abile psyop da parte di un team, ma che doveva avere accesso ad alcune tecniche di ricerca sofisticate e non disponibili al pubblico e potenza di calcolo. Di conseguenza, una "narrativa" potente può essere (ed è stata) creata con il suo seguito. Quello che credo che abbiamo visto è una sorta di "beta-test" di sofisticate tecniche di social engineering da implementare in un modo molto più generale e pericoloso, che richiede - ancora una volta - parametri di ricerca sofisticati e molta potenza di calcolo, per generare propaganda accuratamente realizzata.

Quindi come contrastarlo? Come ogni altra cosa, sospetto che la risposta sia in parte analoga, in questo caso, la vera ricerca di veri esseri umani che utilizzano cose antiquate come cataloghi di carte, libri, articoli di giornali, controlli incrociati, indici e così via.

Nessun commento:

Posta un commento

Tutti i commenti sono sottoposti a moderazione prima della loro eventuale pubblicazione.E' gradito il nome o il nikname