Cronaca internazionale

ChatGpt, ancora guai grossi. Questa volta in tribunale

Un avvocato prepara un caso con la ChatGpt, ma in tribunale questa inventa tutte le sentenze. Un caso di "allucinazione" dell'intelligenza artificiale, che mostra quanto questa tecnologia abbia bisogno della mente umana

ChatGpt, ancora guai grossi. Questa volta in tribunale

Ascolta ora: "ChatGpt, ancora guai grossi. Questa volta in tribunale"

ChatGpt, ancora guai grossi. Questa volta in tribunale

00:00 / 00:00
100 %

Sette casi citati nel tribunale di Manhattan tutti inventati. È questo il "disastro" che è costato reputazione e carriera ad un noto avvocato newyorkese Steven Schwartz, che si era affidato all'intelligenza artificiale per la difesa di Roberto Mata, un passeggero di un volo Avianca che accusava l’aviolinea colombiana, perchè ferito ad un ginocchio da un carrello delle vivande, durante un viaggio da El Salvador a New York.

Durante il dibattimento contro la linea aerea, che chiedeva l'archiviazione per termini di scadenza del caso, accaduto nel 2019, l'avvocato si era appellato con una lunga serie di precedenti. Dal caso Martinez contro Delta Airlines a quello Zicherman contro Korean Air, che avevano tutte perso risarcendo i passeggeri. Il giudice Kevin Castel, non avendo trovato riscontri dei casi citati, ha quindi chiesto all'avvocato di mostrare le carte.

Affidandosi nuovamente alla ChatGpt che le aveva fornito i dati, l'avvocato ha richiesto le sentenze, ottenendo date e tribunali che le avevono emesse. Anche in questo caso però il giudice non trovando riscontri ha chiesto il testo integrale. Ed è qui che arriva la falla. La ChatGpt ha ammesso di aver inventato tutto. Ben sette cause inesistenti create apposta come riscontro, di cui si è gentilmente anche scusata. Tangibile l'imbarazzo del legale che si è trovato a spiegare l'increscioso accaduto, ammettendo di aver fatto totalmente preparare il ricorso dell'intelligenza artificiale.

Nonostante il fatto molto grave, nell'aula c'è stata una risata generale soprattutto per la poca conoscenza dell'avvocato dell'uso di questa tecnologia. Spesso infatti questo tipo di intelligenza artificiale, soffre, a detta degli esperti, di "allucinazioni", termine forse "troppo umano", che sta ad indicare che in alcuni casi vengono fornite risposte inventate, create dall'intelligenza artificiale in base alle nozioni precedentemente fornite. Carriera sicuramente danneggiata per l'avvocato, ma un sospiro di sollievo per chi teme che questo tipo di tecnologia possa a breve sostituire la mente umana. È questo il caso lampante che dimostra l'esatto contrario, ovvero che senza l'intervento dell'uomo, possono anche succedere disastri.

Per fortuna, in questo caso, anche divertenti.

Commenti