Per la prima volta in Argentina, un tribunale ha scoperto un avvocato che ha inventato le date delle udienze utilizzando l'intelligenza artificiale.

La Corte d'Appello Civile e Commerciale di Rosario ha rimproverato un avvocato che aveva falsificato le citazioni utilizzando l'intelligenza artificiale (IA) in un caso giudiziario. L'avvocato ha riconosciuto che la giurisprudenza da lui citata era stata creata utilizzando un programma di IA generativa (come ChatGPT ) e che non si era reso conto che si trattava di un'allucinazione , ovvero di un caso inventato senza alcun riferimento al mondo reale.
Il caso è stato ampiamente discusso nel mondo legale, non perché fosse il primo a utilizzare l'intelligenza artificiale, ma perché ha portato un giudice a emettere un ammonimento formale a un avvocato. Il caso includeva citazioni di giurisprudenza (riferimenti a sentenze o sentenze precedenti inclusi a supporto di una tesi) che non erano presenti nella documentazione precedente.
Secondo Clarín , il giudice Oscar Pucinelli ha cercato senza successo per diverse ore la fonte delle citazioni dell'avvocato. Ciò ha portato il giudice a chiedere all'avvocato di identificare le fonti, ma il problema era che non esistevano : l'avvocato ha riconosciuto di aver utilizzato l'intelligenza artificiale per generare le citazioni, copiandole e incollandole "in buona fede", ovvero senza sapere che erano inventate (ma senza verificarli).
"Il tribunale ha affermato che l'avvocato ha probabilmente agito in buona fede, ma ha sottolineato la sua responsabilità professionale: sebbene non sia stata irrogata alcuna sanzione formale, l'Ordine degli Avvocati di Rosario è stato informato di adottare misure preventive. La sentenza cita espressamente gli Standard di etica professionale dell'Ordine degli Avvocati, in particolare la regola di probità [onestà], che vieta citazioni incomplete, approssimative o non veritiere", ha spiegato Luis García Balcarce, avvocato specializzato in diritti digitali, in un'intervista a questo organo di stampa.
Il giudice mette in guardia contro l'uso dell'intelligenza artificiale nei documenti legali. Foto: Screenshot della sentenza
Il problema generale è che questi sistemi vengono utilizzati senza considerare a cosa servono e a cosa non servono questi strumenti. "La sentenza non condanna l'uso dell'intelligenza artificiale nella pratica legale, ma ne stabilisce dei limiti chiari. Come sottolinea la corte, il problema non è la tecnologia in sé, ma il suo uso sconsiderato . La decisione di incaricare formalmente l'Ordine degli Avvocati di informare i propri iscritti su questi rischi costituisce un precedente importante: non si tratta solo di correggere un singolo errore, ma di impedire che questa pratica si diffonda ", aggiunge.
Non è raro che i chatbot basati su modelli di intelligenza artificiale fabbrichino informazioni. Questo fenomeno, noto come " allucinazioni ", è studiato da specialisti che analizzano le cause per cui possono essere generate informazioni errate o inesistenti.
Casi legali che coinvolgono citazioni inventate sono stati rilevati in tutto il mondo. Foto: Reuters
Casi di questo tipo stanno inondando il mondo legale. Il primo e più noto di questi casi è stato deciso il 22 giugno 2023 negli Stati Uniti, quando un avvocato ha intentato una causa contro la compagnia aerea colombiana Avianca , citando una giurisprudenza inesistente, proprio per l'utilizzo di ChatGPT. Oggi esiste persino un sito web che raccoglie casi da tutto il mondo.
"Quello che è successo nel nostro Paese non è un fenomeno isolato . In diverse giurisdizioni in tutto il mondo, i tribunali hanno già sanzionato professionisti che hanno incorporato precedenti inesistenti o false citazioni generate da sistemi di intelligenza artificiale. Il caso Mata contro Avianca a New York ha segnato una svolta e, da allora, si sono moltiplicati ammonimenti giudiziari, multe e persino indagini etiche", ricorda Lucas de Venezia, avvocato (UCA) specializzato in diritto e intelligenza artificiale.
Per molti avvocati si tratta già di un’“epidemia”: “In realtà, questo è accaduto in diverse occasioni, in tutto il mondo. Negli Stati Uniti Sono più di 50 le sanzioni contro gli avvocati che citano casi in cui l'IA provoca allucinazioni. Questo è il primo caso rilevato in Argentina , il che fa luce sull'obbligo legale degli avvocati di agire onestamente davanti al tribunale e di non mentire. "Parte del 'non mentire' è controllare ciò che è scritto", afferma Pablo Palazzi, professore di diritto presso l'Università di San Andrés e partner dello studio legale specializzato in diritto della tecnologia presso Allende & Brea.
Il motivo è solitamente dovuto alla mancanza di tempo e all'eccessivo carico di lavoro, anche se il commento generale nel mondo legale è stato più probabilmente visto come pigrizia professionale.
Se a questo si aggiunge l'uso di uno strumento il cui funzionamento non è pienamente compreso, il risultato può essere professionalmente catastrofico, sia per gli avvocati che per le parti in causa.
Il sistema produce testi altamente predittivi e che possono essere "sbagliati". Illustrazione: ChatGPT
I sistemi di intelligenza artificiale possono produrre informazioni che non corrispondono alla realtà, un fenomeno noto come allucinazioni. Perché ciò accade? Pensare in termini di "moduli" è un modo per approssimare il funzionamento di questi sistemi.
"Suppongo che questo avvocato abbia chiesto assistenza per preparare le argomentazioni di un caso. Poi il sistema di intelligenza artificiale l'ha inventato. Perché? Questi sistemi di intelligenza artificiale formattano la loro risposta in una sorta di modello che deve contenere il contenuto di ogni modulo. Nel loro desiderio di costruire risposte assertive e concrete, devono riempire queste caselle", ha spiegato in un'intervista a Clarín Ernesto Mislej, co-fondatore di 7Puentes, un'azienda argentina composta da scienziati e ingegneri che applicano l'intelligenza artificiale a diverse attività commerciali.
"È come se ti chiedessero di sostenere un esame finale su un argomento di cui non hai idea: invece di imparare la materia, impari come rispondere a un esame orale . È una difesa in cui, all'inizio, c'è una domanda su un autore, quindi la prima cosa che fai è riconoscere l'autore, poi riconosci la sua opera e poi rispondi con quelle informazioni sull'autore e sulla sua opera. Questo non è conoscere la materia, è sapere come rispondere a un esame su un argomento ", esemplifica lo specialista in relazione al funzionamento di queste reti neurali .
Con questo modus operandi, Mislej rischia che "sicuramente, in questa struttura della richiesta di redazione di un atto giudiziario, una parte direbbe 'questo è il momento di citare la giurisprudenza con le citazioni' , poi l'IA non sa cosa rispondere perché non ha quelle citazioni (perché non esistono). Il modo per rispondere alle citazioni sarebbe quello di utilizzare citazioni note, logiche e plausibili, ma nel caso in cui non esistano, questo sistema compone qualcosa perché deve 'mettere le cose in quella piccola scatola' ed è allora che allucina ".
Il problema è che "nel campo legale, questo può includere casi inesistenti, dottrine apocrife o leggi mai promulgate, poiché i modelli linguistici sono progettati per generare un testo coerente e convincente, ma non necessariamente un testo vero , il che rappresenta un rischio serio in contesti in cui la precisione è essenziale", aggiunge Balcarce.
"Il fascino della tecnologia, senza supervisione o verifica umana, erode la credibilità degli avvocati e minaccia l'integrità del processo giudiziario. Non si tratta di demonizzare lo strumento, ma piuttosto di comprendere che il diritto è un linguaggio autorevole che non ammette scorciatoie o finzioni", concorda de Venezia, anche lui professore universitario.
Anche i chatbot possono far trapelare informazioni. Foto: Bloomberg
Con l'adozione diffusa dell'intelligenza artificiale generativa sul posto di lavoro, sono emerse numerose soluzioni rapide per le attività ripetitive, ma sono emersi anche nuovi rischi: non solo allucinazioni, ma anche questioni etiche legate al suo utilizzo.
"Dobbiamo sottolineare molto di più l'importanza di un uso responsabile di questi strumenti per sapere dove utilizzarli. Non tutto deve essere automatizzato, non tutto ciò che l'IA generativa restituisce è affidabile e, a maggior ragione, non sono strumenti di ricerca di informazioni. Ciononostante, se utilizzati per la ricerca, ciascuno degli output che questi strumenti restituiscono deve essere verificato : chiedersi qual è la fonte, da dove proviene", ha detto a Clarín Carolina Martínez Elebi, laureata in Scienze della Comunicazione e professoressa all'Università di Buenos Aires.
A questo proposito, è importante ricordare che questi modelli vengono addestrati con informazioni disponibili sul web, tra le altre fonti, e con grandi volumi di dati.
"Sappiamo che il web è attualmente pieno di siti spazzatura , contenenti anche informazioni errate. Quindi, se l'intelligenza artificiale che utilizziamo analizzasse quel web, ci restituirebbe anche spazzatura ", continua Elebi, consulente e autore del sito web DHyTecno .
Un ultimo problema, non secondario, è la sicurezza informatica. Cosa succede a ciò che viene caricato su chatbot come ChatGPT? Il problema principale è che l'utente medio non si rende conto che quando effettua una query, questa viene elaborata in remoto sui server di aziende come OpenAI, Google o Microsoft. E spesso perde il controllo su quei dati.
"Dobbiamo tenere presente che gli avvocati che lavorano su casi sensibili utilizzano anche le informazioni dei propri casi per analizzare l'intelligenza artificiale generativa: qui abbiamo un altro problema che riguarda un altro ambito, quello della protezione dei dati", avverte Elebi.
Infatti, lo specialista ricorda che "frequentemente compaiono notizie in cui vengono trapelate le chat tra gli utenti e la piattaforma , pubblicate sul sito web facilmente accessibile. Ci sono molte discussioni da fare e molte informazioni che i professionisti di diversi settori aziendali devono avere quando utilizzano questi strumenti, e la responsabilità etica deve sempre prevalere su tutto".
In definitiva, la tecnologia è già stata inventata ed è impossibile tornare indietro . La sfida è capire con quale "mostro" si ha a che fare quando si utilizzano questi chatbot, in modo che la propria applicazione aggiunga valore, non lo sottragga.
Clarin