Potresti aver notato che non ho menzionato quale problema è che Apple pretende di risolvere. Come mai? Perché non importa.
Leggi anche: Il riconoscimento facciale è ovunque. Ecco cosa possiamo fare al riguardo.
Dopo
aver letto migliaia e migliaia di commenti su questo crescente
scandalo, mi è diventato chiaro che molti capiscono che non ha
importanza, ma pochi, se non nessuno, sono stati disposti a dirlo
davvero. Parlando schiettamente, se è ancora permesso, è sempre così
quando qualcuno di rilevanza istituzionale lancia una campagna per
difendere un’intrusione indifendibile nei nostri spazi privati. Fanno
una corsa folle verso la presunta altura, da cui parlano in toni bassi e
solenni della loro missione morale prima di invocare con fervore il
terribile spettro dei Quattro Cavalieri dell’Infopocalisse, avvertendo
che solo un dubbio amuleto – o un aggiornamento software sospetto – può
salvarci dai membri più minacciosi della nostra specie.
Improvvisamente,
tutti coloro che hanno un’obiezione di principio sono costretti a
premettere alla loro preoccupazione uno schiarimento di gola apologetico
e l’istituzione di bonafides: ho perso un amico quando le torri sono
crollate, tuttavia… Come genitore, capisco che questo è un vero
problema, ma…
Come genitore, sono qui per dirti che a volte non
importa perché l’uomo con il bel vestito sta facendo qualcosa. Ciò che
conta sono le conseguenze.
Il nuovo sistema di Apple,
indipendentemente da come qualcuno cerca di giustificarlo, ridefinirà in
modo permanente ciò che appartiene a te e ciò che appartiene a loro.
Come?
Il
compito che Apple intende svolgere con il suo nuovo sistema di
sorveglianza, impedire che i propri sistemi cloud vengano utilizzati per
archiviare contrabbando digitale, in questo caso immagini illegali
caricate dai propri clienti, viene tradizionalmente eseguito tramite la
ricerca nei loro sistemi. Sebbene sia ancora problematico per chiunque
cercare tra i file privati di un miliardo di persone, il fatto che
possano vedere solo i file che hai fornito loro è una limitazione
cruciale.
Ora, tuttavia, è tutto pronto per cambiare. Con il
nuovo design, il tuo telefono ora eseguirà queste ricerche per conto di
Apple prima ancora che le tue foto raggiungano i loro server iCloud e,
yada, yada, yada, se viene scoperto abbastanza “contenuto proibito”, le
forze dell’ordine verranno informate.
Evito intenzionalmente i
dettagli tecnici e procedurali del sistema Apple qui, alcuni dei quali
sono piuttosto intelligenti, perché, come il nostro uomo dal vestito
elegante, si limitano a distrarre dal fatto più urgente: il fatto che,
in poche settimane, Apple prevede di cancellare il confine che divide
quali dispositivi funzionano per te e quali dispositivi funzionano per
loro.
Perché è così importante? Una volta stabilito il precedente
secondo cui è appropriato anche per un’azienda “pro-privacy” come Apple
realizzare prodotti che tradiscono i propri utenti e proprietari, Apple
stessa perderà ogni controllo su come viene applicato tale
precedente. Non appena il pubblico è venuto a conoscenza del piano
“spyPhone”, gli esperti hanno iniziato a indagare sui suoi punti deboli
tecnici e sui molti modi in cui poteva essere abusato, principalmente
all’interno dei parametri del design di Apple. Sebbene questi valorosi
sforzi di ricerca sulla vulnerabilità abbiano prodotto prove convincenti
che il sistema è gravemente imperfetto, mancano anche seriamente il
punto: Apple può decidere se i loro telefoni monitoreranno o meno le
infrazioni dei loro proprietari per il governo, ma è il governo a
decidere cosa costituisce un’infrazione… e come gestirla.
Da
parte sua, Apple afferma che il loro sistema, nel suo design iniziale,
v1.0, ha un obiettivo ristretto: esamina solo le foto destinate a essere
caricate su iCloud (sebbene per l’85% dei suoi clienti, ciò significhi
OGNI foto), e non li esamina al di là di un semplice confronto con un
database di esempi specifici di materiale pedopornografico identificato
in precedenza (CSAM).
Se sei un pedofilo intraprendente con uno
scantinato pieno di iPhone contaminati da CSAM, Apple ti dà il benvenuto
per esentarti completamente da queste scansioni semplicemente girando
l’interruttore “Disabilita foto iCloud”, un bypass che rivela che questo
sistema non è mai stato progettato per proteggere bambini, come
vorrebbero far credere, ma piuttosto per proteggere il loro
marchio. Finché mantieni quel materiale fuori dai loro server, e quindi
tieni Apple fuori dai titoli, ad Apple non importa.
Quindi cosa
succede quando, al massimo tra qualche anno, un politico lo fa notare e,
al fine di proteggere i bambini, vengono approvate le leggi per vietare
questo bypass “Disabilita”, costringendo di fatto Apple a scansionare
le foto di cui non è stato eseguito il backup su iCloud? Cosa succede
quando un partito in India chiede di iniziare a cercare meme associati a
un movimento separatista? Cosa succede quando il Regno Unito chiede di
cercare una libreria di immagini terroristiche? Quanto tempo ci resta
prima che l’iPhone nella tua tasca inizi a presentare silenziosamente
rapporti sull’incontro con materiale politico “estremista” o sulla tua
presenza a un “disordine civile”? O semplicemente del possesso da parte
del vostro iPhone di un videoclip che contiene, o-forse-non contiene,
l’immagine sfocata di un passante che somiglia, secondo un algoritmo, a
“una persona di interesse”.
Se Apple dimostra la capacità e la
volontà di cercare continuamente e da remoto in ogni telefono le prove
di un particolare tipo di crimine, queste sono domande per le quali non
avrà risposta. Eppure una risposta arriverà, e verrà dai peggiori
legislatori dei peggiori governi.
Questo non è un pendio scivoloso. È una scogliera.
Una
particolare frustrazione per me è che conosco alcune persone in Apple, e
mi piacciono persino alcune persone in Apple, persone brillanti e di
principi. Tutti gli esperti di sicurezza del mondo ora stanno urlando a
squarciagola, implorando Apple di fermarsi, anche quegli esperti che in
circostanze più normali sostengono in modo affidabile a favore della
censura. Anche alcuni sopravvissuti allo sfruttamento minorile sono
contrari. Eppur si muove.
Di fronte a un impetuoso torrente di condanna globale, Apple ha
risposto non affrontando eventuali preoccupazioni o apportando modifiche
o, più sensatamente, semplicemente scartando del tutto il piano, ma
schierando il suo capo del software per raccontare quanto sia
dispiaciuta l’azienda per la “confusione” che ha causato, ma come il
pubblico non dovrebbe preoccuparsi: in Apple “si sentono molto bene con
quello che stanno facendo.”
Direi che sono ingiusto con lui, ma
non sono io quello che ha liquidato l’opposizione pubblica universale a
una nuova e intensamente personale forma di sorveglianza di massa come
“confusione”.
Né il messaggio né il messaggero erano un errore. Apple
ha inviato la sua bambola Ken SVP-for-Software per parlare con il
Journal non per proteggere gli utenti dell’azienda, ma per rassicurare
gli investitori dell’azienda. Il suo ruolo era quello di creare la falsa
impressione che questo non fosse qualcosa per cui tu, o chiunque altro,
dovresti essere arrabbiato. E, parallelamente, il suo ruolo era quello
di garantire che questa nuova “politica” fosse associata al volto di un
dirigente Apple diverso dal CEO Tim Cook, nel caso in cui il roll-out, o
la ricaduta, si traducesse in una decapitazione aziendale.
Come
mai? Perché Apple sta rischiando così tanto per un sistema di
rilevamento CSAM che è stato denunciato come “pericoloso” e “facilmente
riproposto per sorveglianza e censura” dagli stessi informatici che lo
hanno già messo alla prova? Quanto potrebbe valere la decisiva
frantumazione dell’idea fondamentale di Apple che un iPhone appartenga
alla persona che lo porta, piuttosto che all’azienda che lo ha
realizzato?
Apple: “Progettato in California, assemblato in Cina, acquistato da te, di nostra proprietà”.
L’unica
risposta a queste domande a cui gli ottimisti continuano a tornare è la
probabilità che Apple lo stia facendo come preludio al passaggio
finalmente alla crittografia “end-to-end” per tutto ciò che i suoi
clienti memorizzano su iCloud, qualcosa che Apple aveva precedentemente
previsto da fare prima di tornare sui propri passi, in una sconcertante
dimostrazione di codardia, dopo che l’FBI si è lamentata segretamente.
Per
chi non ha familiarità, ciò che sto descrivendo qui come crittografia
end-to-end è un concetto alquanto complesso, ma in breve significa che
solo i due endpoint che condividono un file, ad esempio due telefoni sui
lati opposti di Internet, sono in grado di decifrarlo. Anche se il file
fosse archiviato e servito da un server iCloud a Cupertino, per quanto
riguarda Apple (o qualsiasi altro intermediario in un bel vestito), quel
file è solo un indecifrabile blob di spazzatura casuale: il file
diventa solo un sms, un video, una foto, o qualunque cosa sia, quando è
abbinato a una chiave che è posseduta solo da te e da coloro con cui
scegli di condividerla.
Questo è l’obiettivo della crittografia
end-to-end: tracciare una nuova e incancellabile linea nella sabbia
digitale che divide i tuoi dati e i loro dati. Ti consente di affidarti a
un fornitore di servizi per archiviare i tuoi dati senza concedere loro
alcuna capacità di comprenderli. Ciò significherebbe che non ci si può
più aspettare che anche la stessa Apple rovisti nel tuo account iCloud
con le sue piccole mani da procione, e quindi non ci si può aspettare
che lo consegni a qualsiasi governo in grado di timbrare un foglio di
carta, ed è proprio per questo l’FBI (di nuovo: di nascosto) si lamentò.
Per
Apple realizzare questa visione originale avrebbe rappresentato un
enorme miglioramento nella privacy dei nostri dispositivi, consegnando
efficacemente l’ultima parola in un dibattito lungo trent’anni sulla
creazione di un nuovo standard del settore e, per estensione, la nuova
aspettativa globale che le parti cercare l’accesso ai dati da un
dispositivo deve ottenerli da quel dispositivo, piuttosto che
trasformare Internet e il suo ecosistema in una macchina spia.
Purtroppo
sono qui per segnalare che ancora una volta gli ottimisti si sbagliano:
la proposta di Apple di far informare e tradire i propri proprietari
sui telefoni segna l’alba di un futuro oscuro, da scrivere nel sangue
dell’opposizione politica di cento paesi che sfrutteranno fino in fondo
questo sistema. Vedi, il giorno dopo che questo sistema sarà attivo, non
avrà più importanza se Apple abiliterà o meno la crittografia
end-to-end, perché i nostri iPhone segnaleranno il loro contenuto prima
ancora che le nostre chiavi vengano utilizzate.
Non riesco a
pensare a nessun’altra azienda che abbia distribuito così
orgogliosamente e così pubblicamente spyware sui propri dispositivi, e
non riesco a pensare a una minaccia più pericolosa per la sicurezza di
un prodotto rispetto al danno del suo stesso creatore. Non esiste un
limite tecnologico fondamentale a quanto può essere spinto il precedente
che Apple sta stabilendo, il che significa che l’unico freno è la
politica aziendale fin troppo flessibile di Apple, qualcosa che i
governi capiscono fin troppo bene.
Direi che dovrebbe esserci una legge, ma temo che peggiorerebbe solo le cose.
Stiamo
assistendo alla costruzione di un onniveggente-i-un Eye of
Improvidence-sotto la cui egida ogni iPhone cercherà se stesso per
qualunque cosa Apple voglia, o qualunque cosa Apple sia diretta a
volere. Stanno inventando un mondo in cui ogni prodotto che acquisti
deve la sua più alta lealtà a qualcuno diverso dal suo proprietario.
Per dirla senza mezzi termini, questa non è un’innovazione ma una tragedia, un disastro in divenire.
O forse sono confuso, o forse penso solo diversamente.
Snowden Warns: Apple Has Declared War On Your Privacy
Davide Donateo – Fondatore e direttore di Database Italia
Nessun commento:
Posta un commento
Tutti i commenti sono sottoposti a moderazione prima della loro eventuale pubblicazione.E' gradito il nome o il nikname