Arjantin'de ilk kez bir mahkeme, yapay zeka kullanarak mahkeme tarihlerini icat eden bir avukatı ortaya çıkardı.

Rosario Hukuk ve Ticaret Temyiz Mahkemesi, bir davada yapay zeka (YZ) kullanarak tebligat uyduran bir avukatı kınadı. Avukat, atıfta bulunduğu içtihatların üretken bir YZ programı ( ChatGPT gibi) kullanılarak oluşturulduğunu ve bunun bir halüsinasyon , yani gerçek dünyayla hiçbir bağlantısı olmayan uydurma bir dava olduğunu fark etmediğini kabul etti.
Dava, hukuk dünyasında yapay zekânın ilk kez kullanıldığı dava olması nedeniyle değil , bir hakimin bir avukata resmi uyarı vermesine yol açması nedeniyle geniş çapta tartışıldı. Davada, daha önceki belgelerde bulunamayan içtihatlar (bir argümanı desteklemek için önceki kararlara veya mahkeme kararlarına atıflar) da yer aldı.
Clarín'e göre, Yargıç Oscar Pucinelli, avukatın alıntılarının kaynağını bulmak için saatlerce başarısız bir şekilde arama yaptı. Bu durum, yargıcın avukattan kaynakları belirlemesini istemesine yol açtı, ancak sorun şu ki, kaynaklar mevcut değildi : Avukat, alıntıları oluşturmak için yapay zeka kullandığını, bunları "iyi niyetle", yani uydurulduklarını bilmeden kopyalayıp yapıştırdığını kabul etti (ancak (Onları doğrulamadan).
"Mahkeme, avukatın muhtemelen iyi niyetle hareket ettiğini belirtti, ancak mesleki sorumluluğunu vurguladı: Resmi bir yaptırım uygulanmamış olsa da, Rosario Barosu'na önleyici tedbirler alması bildirildi. Kararda, özellikle eksik, yaklaşık veya gerçeğe aykırı alıntıları yasaklayan dürüstlük kuralı olmak üzere Baro'nun Mesleki Etik Standartları açıkça belirtiliyor," diye açıkladı dijital haklar konusunda uzmanlaşmış bir avukat olan Luis García Balcarce, bu medya kuruluşuna verdiği röportajda.
Hakim, yasal belgelerde yapay zeka kullanımına karşı uyarıyor. Fotoğraf: Kararın ekran görüntüsü
Genel sorun, bu sistemlerin hangi araçların ne işe yarayıp ne işe yaramadığı göz önünde bulundurulmadan kullanılmasıdır. "Karar, hukuk pratiğinde yapay zeka kullanımını kınamıyor, ancak net sınırlar koyuyor. Mahkemenin de belirttiği gibi, sorun teknolojinin kendisi değil, düşüncesizce kullanılmasıdır . Barolar Birliği'ne üyelerini bu riskler konusunda eğitmesi için resmi talimat verilmesi kararı önemli bir emsal teşkil ediyor: Mesele sadece bireysel bir hatayı düzeltmek değil, aynı zamanda bu uygulamanın yaygınlaşmasını önlemektir ," diye ekliyor.
Yapay zekâ modellerine dayalı sohbet robotlarının bilgi üretmesi alışılmadık bir durum değildir. " Halüsinasyon " olarak bilinen bu olgu, yanlış veya var olmayan bilgilerin neden üretilebileceğini analiz eden uzmanlar tarafından incelenmektedir.
Uydurma alıntılarla ilgili davalar dünya çapında tespit edildi. Fotoğraf: Reuters
Bu tür davalar hukuk dünyasını sarmış durumda. Bunlardan ilki ve en bilineni, 22 Haziran 2023'te Amerika Birleşik Devletleri'nde, bir avukatın, mevcut olmayan içtihatları gerekçe göstererek, Kolombiyalı Avianca havayolu şirketine, tam da ChatGPT kullanımı nedeniyle dava açmasıyla sonuçlandı. Bugün, dünyanın dört bir yanından davaları derleyen bir web sitesi bile mevcut .
"Ülkemizde yaşananlar münferit bir olgu değil . Dünyanın çeşitli bölgelerindeki mahkemeler, yapay zeka sistemleri tarafından oluşturulan mevcut olmayan emsalleri veya sahte atıfları dahil eden profesyonellere yaptırım uyguladı. New York'taki Mata - Avianca davası bir dönüm noktası oldu ve o zamandan beri adli uyarılar, para cezaları ve hatta etik soruşturmaları çoğaldı," diye hatırlıyor Hukuk ve Yapay Zeka alanında uzmanlaşmış bir avukat (UCA) olan Lucas de Venezia.
Birçok avukat için bu zaten bir "salgın": "Bu durum aslında dünyanın her yerinde birkaç kez yaşandı. Amerika Birleşik Devletleri'nde Yapay zekanın halüsinasyon gördüğü vakaları örnek gösteren avukatlara 50'den fazla yaptırım uygulanıyor. Bu, Arjantin'de tespit edilen ilk vaka ve avukatların mahkemede dürüst davranmaları ve mahkemeye yalan söylememeleri gerektiği yönündeki yasal yükümlülüklerine ışık tutuyor. San Andrés Üniversitesi'nde hukuk profesörü ve Allende & Brea'da teknoloji hukuku alanında ortak olan Pablo Palazzi, "'Ona yalan söylememenin' bir parçası da yazılanları kontrol etmektir" diyor.
Bunun sebebi genellikle zaman kısıtlılığı ve iş yükünün fazla olması olarak gösterilse de hukuk dünyasında genel yorum daha çok mesleki tembellik olarak görülüyor.
Buna, nasıl çalıştığı tam olarak anlaşılmayan bir aracın kullanımı da eklenirse, sonuç hem avukatlar hem de davacılar için mesleki açıdan felaket olabilir.
Sistem, son derece öngörülü ve "yanlış anlaşılabilen" metinler üretiyor. Resim: ChatGPT
Yapay zekâ sistemleri gerçeklikle uyuşmayan bilgiler üretebilir; bu olguya halüsinasyon denir. Peki bu neden olur? "Modüller" üzerinden düşünmek, bu sistemlerin nasıl çalıştığını anlamanın bir yoludur.
"Bu avukatın bir davanın savunmalarını hazırlamada yardım istediğini tahmin ediyorum. Sonra yapay zeka sistemi bunu icat etti. Neden? Bu yapay zeka sistemleri, yanıtlarını her modüldeki içeriği içermesi gereken bir tür şablona dönüştürüyor. İddialı ve somut yanıtlar oluşturma hevesleriyle, bu kutuları doldurmak zorundalar," diyor çeşitli işlerde yapay zeka uygulayan bilim insanları ve mühendislerden oluşan Arjantinli bir şirket olan 7Puentes'in kurucu ortağı Ernesto Mislej, Clarín ile yaptığı bir röportajda.
Uzman, sinir ağlarının nasıl çalıştığını örnekleyerek, "Bu, hakkında hiçbir fikriniz olmayan bir konuda final sınavına girmeniz istenmesi gibi: Konuyu öğrenmek yerine, sözlü sınavda nasıl cevap vereceğinizi öğreniyorsunuz . Başlangıçta bir yazar hakkında soru sorulan bir savunma, yani ilk yaptığınız şey yazarı tanımak, ardından eserini tanımak ve ardından yazar ve eseri hakkında bilgi vererek cevap vermek. Bu, konuyu bilmek değil, bir konu hakkındaki bir sınavda nasıl cevap vereceğinizi bilmektir , " diyor.
Mislej, bu çalışma biçimi altında, "elbette, bir yargı belgesi taslağı talebinin bu yapısında, bir taraf 'alıntılarla birlikte içtihatları alıntılamanın zamanı geldi' diyecek, ardından yapay zeka ne cevap vereceğini bilemeyecek çünkü bu alıntılara sahip değil (çünkü bunlar mevcut değil). Alıntılara cevap vermenin yolu, bilinen, mantıklı, makul alıntılar kullanmak olacaktır, ancak bunlar mevcut değilse, bu sistem bir şeyler uydurur çünkü 'şeyleri o küçük kutuya koymak' zorundadır ve işte o zaman halüsinasyon görür ." riskini alıyor.
Balcarce, "Hukuk alanında sorun, var olmayan davaları, uydurma doktrinleri veya hiç yürürlüğe girmemiş yasaları kapsayabilmesidir. Çünkü dil modelleri tutarlı ve ikna edici metinler üretmek için tasarlanmıştır ancak mutlaka doğru metinler üretmek için tasarlanmamıştır . Bu da kesinliğin önemli olduğu bağlamlarda ciddi bir risk oluşturur" diye ekliyor.
"İnsan gözetimi veya doğrulaması olmadan teknolojik hayranlık, avukatların güvenilirliğini zedeler ve yargı sürecinin bütünlüğünü tehdit eder. Mesele, aracı şeytanlaştırmak değil, hukukun kısayollara veya kurgulara izin vermeyen bir otorite dili olduğunu anlamaktır," diyor aynı zamanda üniversite profesörü de olan de Venezia.
Sohbet robotları da bilgi sızdırabilir. Fotoğraf: Bloomberg
İşyerlerinde üretken yapay zekanın yaygın olarak benimsenmesiyle birlikte, tekrarlayan görevler için birçok hızlı çözüm ortaya çıktı, ancak aynı zamanda yeni riskler de ortaya çıktı: yalnızca halüsinasyonlar değil, aynı zamanda kullanımını çevreleyen etik sorunlar da.
"Bu araçların nerede kullanılacağını bilmek için sorumlu bir şekilde kullanılmasının önemini çok daha fazla vurgulamamız gerekiyor. Her şeyin otomatik olması gerekmiyor, üretken yapay zekanın döndürdüğü her şey güvenilir değil ve dahası, bunlar bilgi arama araçları değil. Yine de, araştırma amaçlı kullanılıyorsa, bu araçların döndürdüğü her çıktı kontrol edilmeli : kaynağının ne olduğunu, nereden geldiğini sorun," dedi Buenos Aires Üniversitesi İletişim Bilimleri mezunu ve profesör Carolina Martínez Elebi Clarín'e .
Bu bağlamda, bu modellerin web başta olmak üzere mevcut bilgiler ve büyük miktardaki verilerle eğitildiğini unutmamak önemlidir.
" Web'in şu anda yanlış bilgi içeren çöp sitelerle dolu olduğunu biliyoruz. Dolayısıyla, kullandığımız yapay zeka bu web'den beslenirse, o da çöp döndürecektir ," diye devam ediyor danışman ve DHyTecno web sitesinin yazarı Elebi.
Son ve önemsiz sayılmayacak bir diğer konu da bilgi güvenliği. ChatGPT gibi sohbet robotlarına yüklenen veriler ne oluyor? Asıl sorun, ortalama bir kullanıcının bir sorgu yaptığında, sorgunun OpenAI, Google veya Microsoft gibi şirketlerin sunucularında uzaktan işlendiğini fark etmemesi. Ve çoğu zaman bu veriler üzerindeki kontrolünü kaybediyor.
Elebi, "Hassas davalarla ilgilenen avukatların , kendi davalarından elde ettikleri bilgileri, üretken yapay zekâyı analiz etmek için kullandıklarını aklımızda tutmalıyız: Burada, veri koruma alanında başka bir sorunla karşı karşıyayız," diye uyarıyor.
Uzman, " Kullanıcılar ile platform arasındaki sohbetlerin sızdırıldığı , kolayca erişilebilen web sitesinde yayınlandığı haberlere sık sık rastlanıyor. Bu araçları kullanırken işin farklı alanlarındaki profesyonellerin ihtiyaç duyduğu çok sayıda tartışma ve bilgi mevcut ve etik sorumluluk her zaman her şeyin üstünde tutulmalıdır." diye hatırlatıyor.
Sonuçta, teknoloji çoktan icat edildi ve geriye dönmek imkansız . Asıl zorluk, bu sohbet robotlarını kullanırken hangi "canavarla" karşı karşıya olduğunuzu anlamak ve böylece uygulamanızın değer katmasını, değer azaltmamasını sağlamaktır.
Clarin