Urgente verificare la legittimità dell’utilizzo da parte di Meta dei dati privati ​​degli utenti per addestrare l’Intelligenza Artificiale – .

Urgente verificare la legittimità dell’utilizzo da parte di Meta dei dati privati ​​degli utenti per addestrare l’Intelligenza Artificiale – .
Urgente verificare la legittimità dell’utilizzo da parte di Meta dei dati privati ​​degli utenti per addestrare l’Intelligenza Artificiale – .

Molti di voi avranno ricevuto la notifica con cui Meta annuncia il lancio di un nuovo programma di sviluppo per la propria intelligenza artificiale. Insomma, Meta utilizzerà più o meno tutte le informazioni depositate negli anni dai suoi utenti per addestrare i suoi algoritmi. Immagina: chat personali, espressioni di cui non vai fiero o che non riconosci più come tue, commenti più o meno ridicoli, like su foto o post di dubbio gusto. Tutto ciò servirà per addestrare l’IA, che, a sua volta, sarà in grado di “comunicare” con terze parti.

(Nella foto: Stefano Rossetti è avvocato presso Noyb – Centro Europeo per i Diritti Digitali)

Cosa significhi tutto ciò rimane, francamente, un mistero. In teoria ci si può opporre, ma solo in teoria. Per scelta esplicita di Meta, esercitare questo diritto risulta infatti piuttosto difficile (si veda al riguardo l’ottimo articolo di Annalisa Godi). In ogni caso, anche laddove l’utente ci riesca, non c’è davvero modo di verificare se la richiesta venga accolta nella pratica. L’autorità irlandese, territorialmente competente a indagare su Meta, non è infatti nota per la diligenza con cui esercita le proprie funzioni di vigilanza.

Per questi motivi, noyb ha presentato una serie di reclami a diverse autorità per la protezione dei dati, sottolineando la necessità di un’azione concertata e urgente per verificare la legittimità di tali operazioni.

Alla base di tutto c’è una voluta, intenzionale ambiguità riguardo al trattamento dei dati. Quando tutto ebbe inizio, un paio di decenni fa, nessuno poteva immaginare che i dati del proprio account personale potessero essere utilizzati per qualsiasi scopo. Invece all’inizio si trattava di marketing diretto. Poi, il targeting politico (qualcuno ricorda una certa Cambridge Analytica?). E ora l’intelligenza artificiale, con i possibili rischi che ciò comporta, soprattutto se l’addestramento dell’algoritmo si basa su questo tipo di informazioni (si pensi alle chat private).

Un caso pratico. Qualche giorno fa, nel tentativo di migliorare il mio inglese, ho chiesto a un assistente AI di aiutarmi a rendere la mia espressione più naturale. Il bot mi ha fatto una domanda: “Cosa ti piace?”, e ho pensato: “Leggere”. Ho risposto: «Sono appassionata di libri, amo averli in giro, leggerli, imparare da grandi menti, donne e uomini». AI fix: «Sono appassionato di libri. Amo circondarmi di loro, approfondire le loro pagine e assorbire la saggezza di grandi menti, uomini e donne». Per fornire una versione più rifinita, l’IA ha invertito il significato delle due parole evidenziate, anteponendo “uomini” prima di “donne”, come è sempre stato. Lo ha fatto perché l’algoritmo è stato addestrato su un set di dati che statisticamente ha prodotto quella sequenza. In altre parole, ha ribadito la discriminazione di genere. E questo tipo di dinamica si può ripetere in tanti altri settori.

Ad esempio, riportando il pensiero a Cambridge Analytica, è evidente il rischio che l’AI possa influenzare il dibattito democratico, proponendo articoli che confermano un pregiudizio anziché fornire ulteriori elementi, essenziali per formare un cervello pensante e votante (vogliamo essere ottimisti) ). Tutto ciò può alimentare rischi sistemici come l’incitamento all’odio, la discriminazione di ogni tipo, la limitazione della libertà di espressione online. Se, ad esempio, un post non rispecchia una posizione accettata, e riceve quindi commenti negativi, l’AI potrà marchiarlo come “illegittimo” e rimuovere il contenuto e il suo autore dalla piattaforma. (Non è fantascienza. Tutto questo accade ed è oggetto di una nuova regolamentazione europea, il Digital Services Act.) Contestare la decisione algoritmica è teoricamente possibile, così come ottenere un intervento di revisione umana. Tuttavia, per farlo in modo efficace, bisognerebbe conoscere la logica decisionale dell’IA. Le piattaforme, tuttavia, non sono particolarmente pronte a fornire queste spiegazioni perché espongono la loro proprietà industriale a rischi e perché la moderazione umana costa denaro (a meno che non esternalizzino la funzione a paesi in via di sviluppo, senza tutele in materia di diritto del lavoro, e anche questo abbiamo sentito dire) prima.) E qui entra in gioco il ruolo delle autorità di vigilanza.

Il sistema di cooperazione previsto dal regolamento europeo sulla privacy prevede che la competenza a vigilare su questo tipo di trattamenti spetti alle autorità di protezione dei dati dei paesi in cui questi colossi hanno il loro stabilimento principale. Essenzialmente Irlanda e Lussemburgo. C’è solo un “piccolo” problema. Per qualche imperscrutabile motivo – diciamo “imperscrutabile” per non urtare la sensibilità di nessuno – questi paesi non hanno regole procedurali chiare sulla gestione dei reclami, con la conseguenza che, nella stragrande maggioranza dei casi, non viene svolta alcuna indagine e raramente qualche tipo di intervento. In altre parole, il sistema non funziona proprio per il trattamento dei dati personali per il quale dovrebbe funzionare meglio.

Non regolamentando tempestivamente l’attività delle proprie autorità di controllo, questi paesi consentono, di fatto, la creazione di veri e propri paradisi della privacy. Questa è una violazione delle normative europee. La Commissione Europea potrebbe intervenire con una procedura di infrazione. Finora, però, non ha fatto molto. Forse i negoziati per la nuova Commissione potranno tenere conto di questo stato di cose. È davvero arrivato il momento di agire in modo costruttivo. In effetti, siamo già molto in ritardo.

di Stefano Rossetti (Fonte: Domani)

 
For Latest Updates Follow us on Google News
 

PREV AMD Ryzen 9 5900X a 239€, ma anche ottime offerte su GeForce RTX SUPER – .
NEXT Attenzione ai prezzi di iPhone 15 Pro e Pro Max 256 GB, sono ai minimi storici. E l’iPhone 14 base costa solo 649€ – .