Costruite il vostro futuro con la settimana di career summit di ESE
La Career Summit Week di ESE (17-21 Febbraio) ha connesso gli studenti con esperti del settore attraverso workshop,...
Read morePresso la nostra sede di Roma, all’interno della nostra offerta formativa, dedichiamo particolare attenzione all’approfondimento di tematiche specialistiche attraverso il Dipartimento di Scienze Giuridiche, guidato dal Prof. Giuseppe Cassano. Il Dipartimento si pone come un polo di eccellenza nell’offerta di Corsi di Alta Formazione rivolti a laureati in giurisprudenza e discipline affini, garantendo percorsi di studio aggiornati sulle più recenti novità del diritto grazie alla selezione di docenti di spicco a livello nazionale.
In questo contesto, abbiamo ospitato un’intervista con Maria Cristina Breida, Partner ed Environment, Climate Change & Sustainability Leader di EY SLT. L’incontro, tenutosi presso il Dipartimento di Scienze Giuridiche della European School of Economics a Roma, ha offerto un’analisi approfondita delle implicazioni dell’Intelligenza Artificiale (AI) nel settore legale.
L’intervista che segue esplora le dinamiche normative introdotte dall’AI Act e dal recente disegno di legge italiano, le sfide etiche e legali connesse all’impiego dell’AI in ambito giudiziario, e i contributi significativi che a livello nazionale e internazionale stanno delineando un approccio responsabile e consapevole a questa tecnologia in rapida evoluzione. Attraverso le riflessioni di un’esperta, offriamo una prospettiva concreta e informativa su un tema di crescente rilevanza per il futuro del diritto e della professione legale.
di seguito l’intervista:
L’AI Act, il regolamento del Parlamento Europeo e del Consiglio 2024/1689 del 13 giugno 2024, istituisce un quadro giuridico uniforme per lo sviluppo, l’immissione sul mercato, la messa in servizio e l’uso dei sistemi di intelligenza artificiale nell’Unione Europea. Esso intende promuovere un’AI antropocentrica e affidabile, garantendo al contempo un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea.
In coerenza con tali obiettivi, il disegno di legge sull’intelligenza artificiale recentemente approvato dal Senato pone in evidenza l’esigenza di un utilizzo responsabile dell’AI, collocando l’uomo e il rispetto dei diritti fondamentali al centro del sistema.
Il Considerando n. 61 dell’AI Act precisa che alcuni sistemi di intelligenza articiale destinati all’amministrazione della giustizia devono essere classificati come sistemi ad alto rischio, in considerazione del loro impatto potenzialmente significativo sullo stato di diritto, sulla democrazia, sulle libertà individuali e sul diritto a un giudice imparziale. Il regolamento sottolinea che il processo decisionale finale deve rimanere attività a guida umana, vietando l’uso esclusivo di sistemi di AI per decisioni automatizzate, senza intervento umano. Per garantire la trasparenza e l’affidabilità dei sistemi, l’AI Act prevede poi obblighi di trasparenza per i fornitori e gli utilizzatori dei sistemi di AI. Questi obblighi
includono la marcatura degli output del sistema in un formato leggibile meccanicamente e rilevabile come generato o manipolato artificialmente. Il regolamento impone inoltre un sistema di governance e controllo per la raccolta dei dati utilizzati dalle AI ad alto rischio, che assicuri la pertinenza, la rappresentatività e la correttezza dei dati.
Le opportunità legate all’uso dell’AI in ambito giudiziario sono molteplici ed hanno la potenzialità di migliorare l’efficienza del sistema giudiziario, riducendo i tempi di decisione e aumentando la coerenza delle sentenze. L’AI oggi è in grado di redigere documenti legali e prevedere l’esito di contenziosi. Tuttavia, è fondamentale garantire la qualità dei dati utilizzati dai sistemi – i quali devono essere pertinenti, rappresentativi e corretti per evitare distorsioni e errori – e garantire la trasparenza del processo decisionale. In questo senso, l’AI Act prevede obblighi di trasparenza per i fornitori e gli utilizzatori dei sistemi di AI, assicurando che gli output siano chiaramente identificabili come generati o manipolati
artificialmente.
L’elaborazione delle linee guida sull’uso dell’AI in ambito giuridico ha beneficiato di contributi significativi del mondo dell’avvocatura sia a livello nazionale che internazionale.
In ambito internazionale, il Council of Bars and Law Societies of Europe (CCBE) – che rappresenta le associazioni nazionali degli avvocati di 46 stati europei – ha pubblicato , nel marzo 2022, la “Guide on the use of AI-based tools by lawyers and law firms in the EU”.
La Guida è stata pensata per assistere gli avvocati nell’integrazione consapevole e responsabile degli strumenti di AI nel lavoro quotidiano, assicurando che tali tecnologie siano utilizzate in conformità con i principi etici e professionali della professione legale.
Il G7 delle Avvocature, svoltosi nell’aprile del 2024, ha affrontato il tema del rapporto tra l’intelligenza artificiale e i valori democratici, sottolineando come sia essenziale che il processo decisionale nasca, cresca e si sviluppi nella mente del Giudice, senza condizionamenti esterni.
A livello nazionale, tra le varie iniziative, si segnala quella dell’Ordine degli Avvocati di Milano che ha pubblicato lo scorso dicembre una carta dei principi per delineare i confini d’uso dell’AI in ambito forense e proporre iniziative strutturate di alfabetizzazione. Il documento sottolinea la necessità di coinvolgere attivamente gli avvocati nella revisione dei risultati forniti dai sistemi di AI, garantendo il rispetto della privacy e la riservatezza del mandato fiduciario.
La Career Summit Week di ESE (17-21 Febbraio) ha connesso gli studenti con esperti del settore attraverso workshop,...
Read moreSiamo lieti di annunciare l’apertura ufficiale del nuovo campus della European School of Economics (ESE) nella...
Read moreSe sei alla ricerca di una business school internazionale che offra non solo l’eccellenza accademica ma anche la...
Read more