AI Act, quale impatto sul settore delle tecnologie educative – .

AI Act, quale impatto sul settore delle tecnologie educative – .
AI Act, quale impatto sul settore delle tecnologie educative – .

Tecnologia dell’istruzione (EdTech) rappresenta l’insieme delle soluzioni tecnologiche al servizio dell’istruzione e della formazione, per migliorare la qualità dell’esperienza di apprendimento. Si tratta di un settore in costante crescita (in particolare dopo l’accelerazione avvenuta durante la pandemia da Covid-19) che interessa scuole, università, imprese e start-up impegnate nella trasformazione digitale dell’esperienza educativa e nella formazione in digital learning.

Il mercato globale dell’EdTech vale 325 miliardi di dollari

Si stima che il mercato globale dell’EdTech valga 325 miliardi di dollari a livello globale, di cui circa 70 miliardi di dollari generati in Europa. Secondo gli ultimi dati pubblicati dall’Osservatorio EdTech della School of Management del Politecnico di Milano, anche in Italia il mercato EdTech continua a crescere (con un valore di circa 2,8 miliardi di euro nel 2022), distinguendosi come uno dei pochi mercati in cui gli investimenti di Venture Capital sono aumentati. Il potenziale del settore EdTech è esponenziale se si considera che il mercato globale dell’istruzione ha raggiunto un valore di 6,5 miliardi di dollari nel 2022 e si prevede che raggiungerà i 10 miliardi di dollari entro il 2030.

In questo contesto, la nuova legislazione europea sull’intelligenza artificiale (AI Act) è volto a dare ulteriore impulso allo sviluppo dell’innovazione tecnologica nel settore dell’istruzione, della formazione e dell’apprendimento digitale.

Le nuove regole europee sull’intelligenza artificiale

Il nuovo Regolamento sull’intelligenza artificiale approvato dal Parlamento Europeo il 13 marzo 2024 rappresenta la prima legge al mondo adottato per regolamentare lo sviluppo e l’utilizzo dell’intelligenza artificiale, garantendo così all’Unione Europea un ruolo strategico in questo settore.

Con l’AI Act, l’Unione Europea ha stabilito un quadro giuridico uniforme per lo sviluppo, la commercializzazione e l’uso dei sistemi di intelligenza artificiale, promuovendo l’innovazione tecnologica e la diffusione di un’IA antropocentrica e affidabile e, allo stesso tempo, con l’obiettivo di garantire un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dell’UE. Il nuovo regolamento si applicherà a tutti i fornitori di sistemi di IA, definiti come persone fisiche o giuridiche che sviluppano o hanno sviluppato un sistema di IA immettendolo sul mercato dell’UE con il proprio nome o marchio, indipendentemente dal fatto che siano stabiliti o ubicati nell’UE o in un Paese terzo (quindi anche a società extra UE).

Dopo l’approvazione da parte del Parlamento europeo, la nuova legge è ora soggetta alla verifica finale da parte dei giuristi-linguisti e all’approvazione formale da parte del Consiglio. La legge sull’IA entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta ufficiale dell’UE e sarà applicabile dai 24 mesi successivi (con alcune eccezioni, come il divieto dei sistemi di IA che presentano rischi inaccettabili, applicabile da 6 mesi e il obblighi per i sistemi di IA ad alto rischio che entreranno in vigore 36 mesi dopo l’entrata in vigore della legge sull’AI).

Pratiche vietate e sistemi di IA ad alto rischio

In particolare, il nuovo Regolamento vieta alcune pratiche di intelligenza artificiale che possono rappresentare un rischio inaccettabile per la sicurezza e i diritti dei cittadini, compresi i sistemi di intelligenza artificiale in grado di manipolare il comportamento umano, che consentono l’attribuzione di un punteggio sociale (punteggio sociale) classificare o valutare le persone in base al loro comportamento sociale o alle loro caratteristiche personali o finalizzate ad un’estrazione non mirata (raschiando) di immagini facciali provenienti da Internet o da telecamere a circuito chiuso per creare o ampliare banche dati, nonché sistemi di categorizzazione biometrica basati su dati sensibili.

Oltre alle applicazioni severamente vietate, la legge sull’AI definisce ad alto rischio quei sistemi di IA il cui utilizzo o malfunzionamento potrebbe comportare un rischio significativo per la salute, la sicurezza o i diritti fondamentali delle persone fisiche e che, pertanto, possono essere immessi sul (o utilizzati nel) mercato dell’UE solo se soddisfano determinati Requisiti obbligatori delineato dalla nuova normativa.

Rientrano in questa categoria i sistemi di intelligenza artificiale destinati a essere utilizzati nella gestione e nell’esercizio delle infrastrutture digitali critiche e del traffico stradale, nella valutazione dell’occupazione o finalizzati a ottimizzare la gestione dei lavoratori e l’accesso al lavoro autonomo (ad esempio, per pubblicare annunci di lavoro mirati, analizzare o filtrare candidature e valutare i candidati, prendere decisioni per la promozione o la cessazione dei rapporti di lavoro), nonché nella determinazione dell’accesso a servizi e benefici pubblici e privati ​​essenziali (come l’assistenza sanitaria o la valutazione del merito creditizio).

Sistemi di IA nell’istruzione e nella formazione

La legge sull’AI sottolinea l’importanza della diffusione dei Sistemi di IA nell’istruzione e nella formazione al fine di promuovere un’esperienza educativa e formativa digitale di elevata qualità, consentendo agli utenti di acquisire e condividere competenze e abilità sempre più essenziali nel panorama educativo e lavorativo attuale e futuro (inclusi l’alfabetizzazione mediatica e il pensiero critico), che possano contribuire alla partecipazione attiva economia, società e processi democratici.

Anche nel settore dell’istruzione e della formazione, però, esistono rischi di cui il legislatore ha tenuto conto. In particolare, il nuovo Regolamento ha inserito tra gli pratiche di IA proibite per rischio inaccettabile i sistemi di riconoscimento delle emozioni utilizzati nei luoghi di lavoro e nelle istituzioni educativesalvo il loro utilizzo per ragioni mediche o di sicurezza.

La legge sull’AI ne elenca anche una serie sistemi di IA ad alto rischio progettati per l’uso in determinati settori dell’istruzione e della formazione. Tali sistemi includono quelli volti a: determinare l’accesso o l’ammissione agli istituti di istruzione e formazione professionale; valutare i risultati dell’apprendimento; predeterminare a quale livello di istruzione un individuo potrà accedere; monitorare e rilevare comportamenti vietati degli studenti durante le prove d’esame.

Questi sistemi di IA, essendo in grado di influenzare il percorso formativo/professionale delle persone e incidere sulla loro futura capacità di guadagno, possono infatti essere particolarmente invasivi e violare il diritto all’istruzione, alla formazione e alla non discriminazione, ove progettati e utilizzati in modo inadeguato.

La legge sull’AI introduce una serie di specifici obblighi e responsabilità a carico di fornitori, importatori, distributori e in alcuni casi dei cosiddetti “distributori” di sistemi di IA ad alto rischio, anche nel campo dell’istruzione e della formazione. In particolare, i fornitori di sistemi di IA ad alto rischio dovranno valutare e garantire la conformità dei propri prodotti ai requisiti indicati dal nuovo Regolamento, implementare un sistema continuo di gestione dei rischi, fornire ai destinatari del sistema di IA complete istruzioni per l’uso , chiaro e comprensibile, nonché adempiere agli obblighi di registrazione, monitorare il funzionamento del sistema di IA dopo la sua immissione sul mercato e attuare misure di sorveglianza umana.

Immagine generata con DALL-E

Opportunità e sfide per le aziende EdTech

Nei prossimi anni l’intelligenza artificiale giocherà un ruolo chiave nel miglioramento dei processi educativi e di apprendimento nelle scuole, nelle università e nelle aziende. Le aziende operanti nel settore EdTech, così come gli operatori interessati ad investire in questo settore, sono quindi chiamati a confrontarsi con il nuovo quadro normativo delineato dall’AI Act e con i numerosi obblighi e responsabilità derivanti dallo sviluppo dei sistemi di AI destinati da utilizzare per la formazione scolastica o professionale.

Da un lato, infatti, la nuova regolamentazione europea rappresenta un terreno fertile per tutti gli sviluppatori di sistemi di IA grazie all’introduzione di regole precise per operare anche in settori ad alto rischio, promuovendo l’innovazione tecnologica e incentivando gli investimenti delle aziende che operano (o decidono di operare) in Italia e in Europa (si pensi, in particolare, alle misure di sostegno all’innovazione e alla sperimentazione previste dall’AI Act per facilitare e accelerare l’accesso al mercato comunitario da parte delle PMI e delle start-up).

D’altro canto, non bisogna trascurare i rischi legali legati allo sviluppo di nuovi sistemi di IA o alla conformità di applicazioni già presenti sul mercato, dovendo garantire il rispetto dei numerosi requisiti posti dalla nuova normativa europea e la tutela dei diritti delle persone e interessa i destinatari fisici di tali sistemi (quali studenti, docenti, formatori aziendali, dipendenti).

Molte opportunità, ma anche rischi

La Legge AI, infatti, prevede che chiunque potrà presentare reclami per eventuali violazioni delle nuove disposizioni europee. Inoltre, gli Stati membri saranno chiamati a introdurre specifiche misure sanzionatorie per il mancato rispetto dei requisiti normativi della legge sull’AI, potendo prevedere sanzioni amministrative fino a 35 milioni di euro o al 7% del fatturato totale annuo mondiale di dell’anno finanziario precedente in caso di violazioni relative a pratiche di IA vietate o fino a 15 milioni di euro o al 3% del fatturato mondiale annuo totale dell’anno finanziario precedente per mancato rispetto di altri requisiti e obblighi ai sensi della legge sull’AI.

La raccomandazione è quindi quella di agire tempestivamente per cogliere le numerose opportunità poste dalla prima legge mondiale sull’intelligenza artificiale e, allo stesso tempo, evitare o ridurre i rischi legati allo sviluppo di sistemi di IA, soprattutto se ad alto rischio.

 
For Latest Updates Follow us on Google News
 

PREV Laurentian Bank addebita 156 milioni di dollari e pianifica cambiamenti strategici da Investing.com – .
NEXT Ravenna, si aggrava il bilancio delle vittime dell’incidente di via Sant’Alberto. È morto l’ex dirigente Romeo Giacomoni