L’intelligenza artificiale, non è più una tematica da convegni, essa attraverso i costanti e repentini mutamenti si sta insinuando sempre più in ogni ambito personale e professionale.
Inevitabile, dunque, la sua progressiva introduzione anche nel diritto.
Ciò che poco tempo fa sembrava fantascienza – algoritmi in grado di decifrare in pochi istanti interi fascicoli, coadiuvare avvocati, giudici e giuristi per la redazione di atti, revisionare documentazioni – è ormai diventata realtà concreta.
Diverse sono, ormai, le piattaforme IA impiegate in ambito giuridico che consentono ai vari professionisti di alleggerire e velocizzare la propria mole lavorativa.
Anche all’interno della Pubblica Amministrazione, l’utilizzo di quest’ultima è divenuto sempre più frequente, si pensi: all’automatizzazione per la valutazione delle prove concorsuali. Rendendo, l’interminabile attesa del risultato, una procedura celere, capace di fornire il risultato in pochi giorni.
In primo luogo, è necessario comprendere, l’etimologia del termine “Intelligenza artificiale” quale: insieme di scienze, teoriche e tecniche che ha come obiettivo ultimo di permettere ad una macchina la comprensione, interazione e risoluzione di problemi in modo analogo a come verrebbe eseguito da un essere umano.
Tuttavia, il diritto non può ridursi a meri logaritmi di una macchina, esso è qualcosa di più influente: è interpretazione, responsabilità e coscienza. Ed e qui che si apre uno dei più importanti nodi giuridici filosofici dei nostri tempi: quanto possiamo delegare alla macchina decisioni che possano compromettere diritti fondamentali e decisioni cruciali?
Un primo esame di questo fenomeno, ha luogo negli Stati Uniti, che pare abbia già introdotto “Avvocati robot” in grado di conversare in una lingua naturale con gli umani, ed alcune start-up specializzate nella creazione di nuovi servizi legali, offrano a professionisti del diritto, applicazioni che possano approfondire informazioni giudiziarie e persino prevedere le decisioni dei giudici mediante strumenti di “giustizia predittiva”.
Differentemente in ambito Europeo non risulta che i giudici degli stati membri utilizzino software predittivi sono state solo effettuate sperimentazioni locali, per osservare la potenzialità di tali strumenti.
A tal riguardo, la Commissione europea sull’efficacia della giustizia (CEPEJ) del consiglio Europeo che si dedica da tempo all’impatto delle tecnologie dell’informazione e comunicazione sui sistemi giudiziari europei, alla riunione plenaria del dicembre 2018 ha adottato la “Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi”. La ratio è quella di fornire uno strumento che possa enunciare i principi fondamentali per l’applicazione dell’intelligenza artificiale nei sistemi giudiziari, in particolar modo quando le soluzioni dell’IA costituiscano decisioni giudiziarie di rilevanza, stabilendo in primo luogo cinque principi sostanziali che evidenziano che tutto ciò, sia svolto secondo principi di trasparenza, imparzialità ed equità, accertati da perizie esterni e indipendenti ed in secondo luogo l’analisi di rischi e benefici di tali strumenti. Taluni sostenitori ritengono che non possa che essere un utilizzo vantaggioso in materia di trasparenza, prevedibilità e omologazione della giurisprudenza. Tuttavia, di contro, l’utilizzo costante dell’IA potrebbe compromettere principi quali; lo stato di diritto e la discrezionalità del giudice, non più basata su un ragionamento caso per caso ma su un mero calcolo statistico connesso a precedenti decisioni di altri tribunali.
Pertanto, il CEPEJ, attraverso l’adozione di tale Carta, sostiene e favorisce l’utilizzo dell’IA per assistere professionisti del diritto nel loro lavoro, purchè siano garantiti diritti individuali promossi dalla CEDU.
Recentemente, l’UE ha inoltre introdotto, il primo quadro giuridico assoluto in materia di IA, che affronta rischi e svolge un ruolo di guida, il Regolamento UE 2024\1689 stabilisce norme per un utilizzo affidabile dell’IA in Europa ma altresì la diffusione, gli investimenti e l’innovazione dell’IA in tutta l’Unione Europea.
L’UE garantisce ciò che l’IA ha da offrire ma talvolta alcuni sistemi creano rischi che possano causare risultati indesiderati.
La legge sull’IA definisce quattro livelli di rischio per i sistemi di IA: Rischio inaccettabile (vietati) rischio elevato (consentiti ma fortemente regolati), rischio limitato (trasparenza verso gli utenti), rischio minimo o nullo.
A partire dallo scorso febbraio, sono entrati in vigore tutti quei divieti relativi ai sistemi IA facenti parte del livello “inaccettabile” che possano causare danni a diritti fondamentali dell’UE, che se violati sfociano in gravi sanzioni.
Gli impatti salienti dell’intelligenza artificiale a livello mondiale ma specialmente europeo con maggior riguardo alle professioni legali, hanno fatto si che anche l’Italia abbia adottato “Disposizioni e deleghe al Governo in materia di intelligenza artificiale” con la Legge n.132\2025 entrata in vigore lo scorso 10 ottobre dell’anno medesimo.
Tale legge si fonda sul Regolamento UE 1689\2025 (IA Act) recante i principi in materia di sviluppo e applicazione di sistemi di intelligenza artificiale al fine di garantire il rispetto dei diritti e dei principi trasparenza, proporzionalità, sicurezza, protezione dei dati personali, riservatezza e non discriminazione, deve essere garantita come precondizione essenziale, la cybersicurezza durante tutto il periodo di funzione dei sistemi di intelligenza artificiale per finalità generali, attraverso l’adozione di specifici controlli di sicurezza.
La l. 132\2025 detta, inoltre, disposizioni sull’utilizzo dell’intelligenza artificiale in materia di lavoro, impiegata per migliorare le condizioni di lavoro, tutelare l’integrità psicofisica del lavoratore a condizione che venga utilizzata in modo sicuro, affidabile e non in contrasto con la dignità umana, garantendo i diritti inviolabili del lavoratore senza discriminazioni.
In particolare l’art. 13 e 15 della L.132\2025 prestano particolare attenzione all’utilizzo dell’intelligenza artificiale in materia di professioni intellettuali e in ambito di attività giudiziaria.
Per quanto concerne, le professioni intellettuali, viene consentito l’utilizzo di tali sistemi solo per attività strumentali e di supporto all’attività professionale, assicurando trasparenza tra professionista e cliente sull’utilizzo di sistemi IA.
Relativamente all’impiego dell’intelligenza artificiale nell’attività giudiziaria, è sempre riservata al magistrato ogni decisione riguardo interpretazioni e applicazioni di legge.
Il Ministro della giustizia ha il compito di disciplinare gli ambiti di impiego dell’intelligenza artificiale in ambito giudiziario, finalizzato alla formazione digitale di base e avanzata, all’acquisizione e alla condivisione di competenze digitali, nonché la sensibilizzazione sui benefici e rischi.
In conclusione, le recenti leggi UE e nazionali sull’intelligenza artificiale, rappresentano un vero e proprio punto di svolta in tutti gli ambiti personali e professionali, con maggior riguardo in ambito giuridico-legale, che pian piano si sta consolidando, trasformando il tradizionale assetto del diritto in un sistema più dinamico. La sfida del futuro sarà dunque: mantenere l’equilibrio tra innovazione e tutela dei diritti, affinché l’intelligenza artificiale resti uno strumento a sostegno della giustizia e non il suo sostituto.
