YAPAY ZEKÂ AVUKATLARIN BAŞINI YAKTI.. KULLANIMI DA HATALAR DA YAYGINLAŞIYOR

Yapay zekâ yüzünden başı derde giren avukatlar son dönemde sık sık manşetlere çıkıyor. Bu olayların ortak noktası avukatların, yasal araştırma için ChatGPT gibi bir dil modeline başvurması


Bilim & Teknoloji 2.06.2025 16:45:00 0
YAPAY ZEKÂ AVUKATLARIN BAŞINI YAKTI.. KULLANIMI DA HATALAR DA YAYGINLAŞIYOR

ABD'de davalara hazırlık aşamasında yapay zekâ ürünlerinden faydalanıp başı derde giren avukatlara her geçen gün bir yenisi ekleniyor. Peki bütün sorunlara rağmen neden hukukçular ChatGPT ve benzerlerinden vazgeçemiyor? Daha da önemlisi bu işin sonu nereye varacak?

Yapay zekâ yüzünden başı derde giren avukatlar son dönemde sık sık manşetlere çıkıyor. Bu olayların ortak noktası avukatların, yasal araştırma için ChatGPT gibi bir dil modeline başvurması, yapay zekânın ise hiç var olmayan davalar uydurması. Avukatlar bu hayali kararları fark etmeden dava dosyasına ekliyor, mahkeme ya da karşı taraf fark ettiğinde ise iş işten geçmiş oluyor.

2023’te görülen bir havacılık davasında, böyle hatalı bir başvuru yapan avukat para cezasına çarptırıldı. Peki, neden hâlâ bu hatalar devam ediyor?

AVUKATLAR YAPAY ZEKÂYA SARILIYOR

Yanıt oldukça basit: Zaman baskısı. Hukuk dünyasında iş yükü ağır, dava çok. Avukatlar, yasal araştırmalarını hızlandırmak için yapay zekâ destekli araçlara yöneliyor.

Westlaw ve LexisNexis gibi profesyonel hukuk veri tabanları bile artık yapay zekâ destekli hizmetler sunuyor. Ancak birçok avukat, bu teknolojilerin nasıl çalıştığını tam olarak bilmiyor.

The Verge'ün haberine göre, 2023’te ceza alan bir avukat, ChatGPT’yi “süper arama motoru” sandığını itiraf etti. Oysa bu araçlar doğru bilgi kadar inandırıcı ama yanlış bilgiler de üretebiliyor.

"UYDURMA KARARLARLA GELMİŞLER!"

Florida’da gazeteci Tim Burke’ün davasında avukatlar, Anayasa’nın ifade özgürlüğü maddesine dayanarak davanın düşürülmesini talep etti. Ancak sundukları belgelerde 9 adet sahte dava kararı yer alıyordu. Hakim Kathryn Kimball Mizelle, başvuruyu tamamen geçersiz saydı ve dosyadan çıkardı.

Avukat Mark Rasch hatayı, “ChatGPT Pro’nun ‘deep research’ özelliğini kullandım. Westlaw’un yapay zekâ aracını da denedim” sözleriyle kabul etti. Rasch'in bilmediği şey ise her ikisi yazılımın da hayali referanslar üretmiş olduğuydu.

Benzer olaylar başka yerlerde de yaşandı. Yapay zekâ şirketi Anthropic’in avukatları, Claude AI ile hazırladıkları bir bilirkişi ifadesine yanlış yazar adı ve başlık eklediler. Bir başka örnekte, Minnesota’da derin sahte videolarla ilgili yasa tasarısını destekleyen bir uzmanın ifadesinde de ChatGPT kaynaklı hatalı alıntılar çıktı.

California’da bir yargıç, State Farm sigorta şirketine açılan bir davada taraflardan birinin sunduğu belgeyi ikna edici bulmuştu. Ancak kararları kontrol ettiğinde hiçbirinin var olmadığını gördü. Yargıç, “Okudum ve etkilendim... ama kararlar yoktu” dedi.

BAROLAR: "GÜVENMEYİN, KONTROL EDİN!"

2024 yılında Amerikan Barolar Birliği, avukatlar için ilk kez yapay zekâ kullanımıyla ilgili resmi rehber yayınladı. Rehberde, “Avukatlar teknolojik gelişmeleri takip etmekle yükümlüdür. Yapay zekâ araçlarının nasıl çalıştığını anlamak zorundalar” denildi. Ayrıca, müvekkillerin özel bilgilerinin bu sistemlere yüklenmeden önce gizlilik risklerinin iyi değerlendirilmesi gerektiği vurgulandı.

Suffolk Hukuk Fakültesi Dekanı Andrew Perlman, yapay zekânın faydalı olduğunu ama kontrol edilmeden kullanılmaması gerektiğini belirterek, “Yapay zekâ; belgeleri gözden geçirmek, olası argümanları tartışmak ve bilgiye ulaşmak için çok etkili. Ama hâlâ nihai sorumluluk avukatta” dedi.

ABD Temsilciler Meclisi'nin Arizonalı üyesi avukat Alexander Kolodin ise ChatGPT’yi “stajyer avukat” gibi kullandığını söyledi. 2024’te, derin sahte videolarla ilgili bir yasa tasarısında tanım kısmını ChatGPT’ye yazdırdığını itiraf eden Kolodin, “Ama son kontrol yine bende. Zaten deneyimsiz bir stajyerin işini de doğrudan kullanmazsınız” ifadelerini kullandı.

YAPAY ZEKÂYI KULLANMAYANLAR YETERSİZ SAYILABİLİR

Perlman’a göre gelecekte tartışma, “Bu avukat yapay zekâ kullandı mı?” değil, “Bu avukat neden hâlâ yapay zekâ kullanmıyor?” noktasına gelecek.

Ama bazı yargıçlar hâlâ temkinli. Californialı yargıç Michael Wilner, “Hiçbir yetkin avukat, araştırma ve yazım işini tamamen bu teknolojiye emanet etmemeli” diyerek yapay zekâya körü körüne güvenmenin yanlış olduğunu vurguladı. /HÜRRİYET.COM.TR

SPOR


GÜNDEM

ÖZGÜR ÖZEL’E DAVA AÇAN REKTÖR ÖZKAN’A BÖCEK’TEN 'ÖZÜR' ÇİKOLATASI MI?
BAYRAMDA ANTALYA'DA HAVANIN AÇIK VE GÜNEŞLİ GEÇMESİ BEKLENİYOR
İNGİLİZ AKTÖR JASON STATHAM ANTALYA'DA.. PAYLAŞIMI DİKKAT ÇEKTİ
18-19-20 EYLÜL 2025.. ‘ANFAŞ FRESH ANTALYA’NIN TANITIMI YAPILDI
BÜYÜK İLGİ GÖRÜYOR.. ANTALYA’DA ‘PATARA ÇÖLÜ’ NASIL OLUŞTU?

SON DAKİKA