Tragedia sfiorata a Brindisi: il pedone passa sul marciapiede e pochi secondi dopo un’auto si schianta nello stesso punto – Video

Tragedia sfiorata a Brindisi: il pedone passa sul marciapiede e pochi secondi dopo un’auto si schianta nello stesso punto – Video
Tragedia sfiorata a Brindisi: il pedone passa sul marciapiede e pochi secondi dopo un’auto si schianta nello stesso punto – Video

Roma, 30 aprile. (Adnkronos/Labitalia) – L’evoluzione dell’intelligenza artificiale va di pari passo con l’impegno costante del legislatore nel cercare di stabilire regole adeguate. Sono sempre più numerosi, infatti, i casi in cui è difficile discernere tra scelte riconducibili alla volontà della persona-programmatore o ai sistemi di IA implementati. Il prossimo 7 maggio Stefano Preziosi, professore ordinario di diritto penale presso il Dipartimento di Giurisprudenza dell’Università di Roma Tor Vergata e coordinatore scientifico del nuovo Centro di ricerca sull’intelligenza artificiale e il diritto (Criad) https://giurisprudenza.uniroma2.it /criad/ dell’Università degli Studi di Roma Tor Vergata, è tra i protagonisti del convegno dal titolo ‘Intelligenza artificiale e responsabilità umana. Uno spazio non esente dalla legge. Nuova disciplina europea e regolamentazione interna’, organizzato dal Dipartimento di Giurisprudenza – Criad e dall’Ordine degli Avvocati di Roma, presso la Cassa Forense di Roma in via Ennio Quirino Visconti 8, che si concentra sul rapporto tra diritto e intelligenza artificiale.

I sistemi di IA sono quelli che per analogia possono essere definiti come organizzazioni complesse capaci di produrre decisioni autonome, cioè non completamente governate o governabili dall’uomo. Un aspetto cruciale in campo giuridico è che quanto più aumenta la capacità di autoapprendimento dell’intelligenza artificiale – attraverso strumenti di machine learning – tanto maggiori saranno le cautele necessarie in futuro nell’attribuire la responsabilità ai programmatori del software originale.

“La premessa fondamentale – sostiene Preziosi – è che ogni regolamentazione della materia deve ormai accettare che non è più possibile difendere l’esclusività del dominio dell’uomo sulla macchina. In questa prospettiva, nulla esclude la possibilità di pensare ai sistemi di IA anche in termini di centri di attribuzione giuridica e di persone giuridiche. Fondamentale per il futuro diventerà la definizione delle aree di rischio ammesse nel quadro di precisi limiti normativi. Diventa quindi necessario creare uno ‘Statuto AI’ per definire un’area di rischio consentito, considerato che non è (sempre) possibile stabilire a priori la decisione finale che il sistema prenderà, poiché quest’ultima dipende da fattori altamente adattivi comportamento della vettura”.

Il Criad (Centro Ricerche sull’Intelligenza Artificiale e il Diritto) è il centro di ricerca dipartimentale costituito all’inizio del 2024 su proposta di quattordici professori ordinari del Dipartimento di Giurisprudenza di Roma Tor Vergata. Attualmente i membri del consiglio scientifico del Centro sono i docenti Carlo Bonzano, Maria Floriana Cursi, Roberto Fiori, Enrico Gabrielli, Giovanni Guzzetta, Raffaele Lener, Venerando Marano, Francesco Saverio Marini, Donatella Morana, Andrea Panzarola, Stefano Preziosi, Giuseppe Santoni , Adolfo Scalfati, Alberto Zito.

Preziosi ne è il coordinatore scientifico: “L’ampiezza del Consiglio garantisce competenza e rappresentanza di praticamente tutte le branche del diritto che necessariamente entrano in gioco con l’AI: in primo luogo perché i sistemi che la utilizzano generano inevitabilmente contenzioso; in secondo luogo perché la controversia in questione non sempre può essere facilmente risolta sulla base di principi consolidati”.

“C’è anche – precisa il giurista Preziosi – un problema normativo: la legge dovrebbe regolamentare i sistemi di IA? La questione è molto delicata perché ha a che fare con la possibilità di regolamentare lo sviluppo scientifico. Molti vedono i tentativi di stabilire regole legali come una trappola per il progresso, mentre altri sperano nell’intervento di un regolatore terzo, diverso dalle grandi società di gestione dei dati e dei motori di ricerca (big data).

“Ci sono poi implicazioni politico-giuridiche: la stabilità dei sistemi democratici a fronte della possibile costruzione/manipolazione del consenso con l’IA generativa nonché la potenziale natura sostitutiva dell’AI rispetto al decisore politico. Penso che i timori e gli elogi per questo sistema di intelligenza artificiale siano attesi da tempo”.

“È più interessante – conclude il giurista – una riflessione filosofica, nella quale ci si chiede quale possa essere il destino dell’uomo nella nuova dimensione tecnologica: seguire il cammino della storia delle idee alla luce di questa dimensione fenomenologica, esistenziale, scientifica , in cui la centralità dell’essere umano può entrare in crisi, nell’idea forse che esista qualcosa di meglio del pensiero e dell’azione umana, capace di evitare (secondo questa idea) molti disagi, e anche molti disastri come carestie, guerre e altro ancora”.

“Il momento è propizio – commenta Preziosi – il regolamento sull’IA è stato recentemente approvato dal Parlamento Europeo e nei prossimi mesi dovrebbe essere varato dopo l’ultimo passaggio formale da parte della Commissione Europea”.

Anche in una recente intervista, il professore di Roma Tor Vergata ha approfondito il ragionamento sulla normativa allo studio a livello europeo riguardo questa tecnologia avanzata, sottolineando che “Il Consiglio dell’Ue dovrà completare l’iter di approvazione nei prossimi mesi, dopodiché il Regolamento europeo sull’intelligenza artificiale “sarà diritto dell’Unione” e come tale applicabile, anche se saranno necessari interventi normativi nazionali per l’attuazione di tale regolamento.

Le nuove norme imporranno sistemi di compliance che coinvolgeranno le imprese e gli enti più in generale, ma anche gli operatori del diritto, che saranno chiamati a confrontarsi con queste norme nell’applicazione delle stesse o nella prestazione di consulenza. Verranno gettate le basi di diversi aspetti normativi: gli usi vietati, i controlli, la valutazione prognostica del rischio, il riserbo di umanità nella programmazione algoritmica, il rapporto con la gestione dei dati e le relative garanzie individuali e molto altro ancora.

 
For Latest Updates Follow us on Google News
 

PREV SOS dalla Sicilia, donati acqua e foraggio per l’emergenza siccità – .
NEXT “Scambio con il big della Premier League” – .