Bir hukuk meselesi: Bir avukat, dava araştırması için ChatGPT'yi kullandı

27 Ağustos 2019'da El Salvador'dan New York'a giden 670 sefer sayılı Avianca uçağında yolcu olan Roberto Mata, metal bir yiyecek ve içecek arabasının dizini yaraladığı iddiasıyla Avianca'ya dava açtı. Havayolunun "zaman aşımı süresi dolduğu" gerekçesiyle davanın düşürülmesini talep etmesi üzerine Mata'nın avukatları, davanın devam etmesi gerektiğini savunarak iddialarını destekleyen emsal teşkil ettiğini öne sürdükleri yarım düzineden fazla önceki davanın listesini eklediler.
Avianca'nın avukatları ve Yargıç P Kevin Castel daha sonra bu "emsal kararları" incelemeye koyuldular, ancak ne kararların ne de özette atıfta bulunulan ve özetlenen hukuki alıntıların hiçbirinin mevcut olmadığını fark ettiler. Neden mi? Çünkü kararların hepsi ChatGPT tarafından uydurulmuştu.
Geniş açı: Bunun üzerine, özeti hazırlayan ve 30 yıllık deneyimi bulunan Levidow, Levidow & Oberman firmasından avukat Steven Schwartz, mahkemenin merhametine sığınarak bir yeminli ifadede yasal araştırmasını yapmak için yapay zekâ programını kullandığını kabul etti. Hatası nedeniyle potansiyel yaptırımlarla karşı karşıya olan Schwartz, 8 Haziran'da ABD Bölge Yargıcı P. Kevin Castel önünde yaptırım duruşmasına çıkacak.
- Mahkeme dosyasına göre, ChatGPT'yi ilk kez kullandığını belirten Schwartz, teknoloji güvenmekten "büyük pişmanlık duyduğunu" ve "içeriğin yanlış olabileceğinin ihtimalinden habersiz olduğunu" ifade etti.
Bununla birlikte: Amerikan Barolar Birliği'nin Model Mesleki Davranış Kuralları yapay zekâyı açıkça ele almıyor. Ancak uzmanlar, mevcut birkaç etik kuralın geçerli olduğunu söylüyor. Bu kurallar ise şu şekilde karşımıza çıkıyor:
Yetkililik görevi: Avukatların yetkin temsil sağlamalarını ve güncel teknolojiyi takip etmelerini gerektiren bu kural, avukatların kullandıkları teknolojinin doğru bilgi sağladığından emin olmaları gerektiği anlamına geliyor. Özellikle de ChatGPT'nin daha önce de yanlış veya var olamayan bilgileri gerçekmiş gibi sunduğu örneklerin ortaya çıktığını düşündüğümüzde, avukatların yapay zekâ teknolojisine daha temkinli yaklaşmaları ve hatalara yol açmamak için bu araçlara çok güvenmemesi gerekiyor.
- Konuya ilişkin olarak "Müvekkilinize hizmet sunmak için kullandığınız metni size vermesi için körü körüne üretken yapay zekâya güvenmek kabul görmeyecektir," ifadelerini kullanan, hukuk teknolojisi ve etiği alanında bir lider olan Suffolk Üniversitesi hukuk dekanı Andrew Perlman, yeterlilik yükümlülüğü kurallarının nihayetinde yapay zekâ teknolojisinde belirli bir düzeyde yeterlilik gerektireceğini öngörüyor.
- Perlman, yapay zekânın hukuk uygulamalarında devrim yaratabileceğini; ileride bu teknolojiyi kullanmamanın, araştırma yapmak için bilgisayar kullanmamakla aynı anlama gelebileceğini düşünüyor.
Gizlilik yükümlülüğü: Bu kural, avukatların "bir müvekkilin temsiliyle ilgili bilgilerin yanlışlıkla veya yetkisiz olarak ifşa edilmesini veya bunlara yetkisiz erişimi önlemek için makul çabayı göstermelerini" gerektiriyor. Gelgelelim, ChatGPT veya Bing Chat gibi programları kullanan avukatlar, yapay zekâ şirketlerine modellerini eğitmeleri ve geliştirmeleri için müvekkillerinin verilerini vererek gizlilik kurallarını ihlal etme riski taşıyor.
- Firmasında dahili yapay zekâ programları geliştirmek için çalışan Holland & Knight ortağı Josias Dewey, bazı hukuk firmalarının avukatlara ChatGPT ve benzeri programları müvekkil meselelerinde kullanmamalarını açıkça söylemesinin bir nedeninin de bu olduğunu belirtiyor.
- Öte yandan, CaseText'in CoCounsel ve Harvey gibi bazı hukuka özel yapay zekâ programları, verilerini dış yapay zekâ sağlayıcılarından uzak tutarak gizlilik yükümlülüğünün sağlanmasını mümkün kılıyor.
Avukat olmayan kişilerin yardımına ilişkin sorumluluklar: Bu kural uyarınca, avukatların, kendilerine yardımcı olan avukatları ve avukat olmayan kişileri, davranışlarının mesleki davranış kurallarına uygun olmasını sağlamak için denetlemesi gerekiyor.
- ABA tarafından 2012 yılında bu kuralın insan dışı yardımlar için de geçerli olduğunu açıklaması, avukatların yapay zekâ programlarının çalışmalarını denetlemekten ve teknolojiyi avukatların uyması gereken etik standartları karşıladığından emin olacak kadar iyi anlamaktan da sorumlu oldukları anlamına geliyor.
Bir adım geriden: Geçtiğimiz hafta yapay zekâ üzerine çalışan bilim insanları ve sektör liderleri, yapay zekânın insanlığa karşı oluşturduğu tehdide ilişkin bir an önce önlem alınması gerektiği yönünde bir bildiri yayımladı. Yapay zekâyı salgın hastalık ve nükleer savaş tehdidi ile eş tutan bildiri, “Yapay Zekâ Güvenliği Merkezi” sitesinde aralarında ChatGPT'nin geliştiricisi OpenAI ve Google DeepMind’ın CEO’larının da bulunduğu 376 kişinin ortak imzası ile yayımlandı.
- Bildiride, “İnsanlığın yapay zekâ kaynaklı yok olma riskinin ortadan kaldırılması, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerle birlikte küresel bir öncelik olmalıdır.” ifadelerine yer verildi.
Kaydet
Okuma listesine ekle
Paylaş
İLGİLİ BAŞLIKLAR
zaman aşımı süresi
yapay zekâ
El Salvador
New York
Avianca
Roberto Mata
Baro
NEREDE YAYIMLANDI?
Atomic Wallet'a saldırı. Sony CEO'sundan bulut oyun açıklamaları. Bir avukatın dava araştırması için ChatGPT'yi kullanmasını takiben yaşananlar.
06 Haz 2023

YAZARLAR

İrem Denli
Teknoloji Editörü
İLGİLİ OKUMALAR