Ars Technica‘nın haberine göre New York’ta görülen bir dava, yapay zeka araçlarının hukuk sistemindeki kullanımını yeniden tartışmaya açtı. Bir bilirkişi, Microsoft’un Copilot yapay zeka aracını kullanarak zarar tespiti yapmaya çalıştı ve bu durum mahkemenin dikkatini çekti. Hâkim Jonathan Schopf, bilirkişinin Copilot’tan aldığı sonuçların güvenilir olmadığını tespit ederek, yapay zekanın mahkemelerde nasıl kullanılacağı konusunda ciddi uyarılarda bulundu. Bu olay, yapay zeka teknolojilerinin hukuki süreçlerde delil olarak kabul edilip edilemeyeceği sorusunu gündeme taşıdı.
Copilot Chatbot’un Kullanımı Bilirkişiyi Zora Soktu
New York’ta bir hâkim, Microsoft’un Copilot adlı yapay zeka aracını kullanarak emlak davasında zarar tespiti yapmaya çalışan bir bilirkişiyi sert bir şekilde eleştirdi. Dava, Bahamalar’da 485.000 dolarlık bir kiralık mülkün satışıyla ilgiliydi. Bilirkişinin, emlak değerleri üzerine yanlış hesaplamalar yapması, mahkemenin dikkatini çekti ve hâkimin yapay zeka kullanımına dair ciddi uyarılarda bulunmasına yol açtı.
Hâkimden Yapay Zeka Uyarısı
Hâkim Schopf, “Yapay zekanın hızla gelişen yapısı ve güvenilirlik sorunları göz önüne alındığında, mahkemede yapay zeka tabanlı delil veya tanıklıkların kullanılmadan önce açıklanması gerekir,” diyerek önemli bir uyarıda bulundu. Schopf, yapay zekanın hukuk sisteminde nasıl bir rol oynayacağını öngöremediklerini belirterek, “Copilot’un nasıl çalıştığını objektif bir şekilde anlamış değiliz” dedi.
Bu uyarı, Charles Ranson adlı bilirkişinin, mülkün 2008’de satılması durumunda elde edilecek kazancı hesaplamak için Copilot’u kullanmasının ardından geldi. Ancak Ranson, gayrimenkul konusunda uzman olmamasına rağmen, Copilot’tan aldığı sonuçlarla hesaplama yapmıştı.
Hesaplamalar Güven Vermedi
Ranson’un hesaplamalarındaki güvenilirlik sorunlarını fark eden hâkim, Copilot’un verdiği yanıtları sorguladı. Ranson, Copilot’u kullanarak yaptığı hesaplamaları mahkemeye sundu ancak Copilot her defasında farklı sonuçlar verdi. Mahkeme, aynı soruyu defalarca sorarak sonuçları denedi ve her seferinde farklı bir yanıt aldı. Bu durum, yapay zeka araçlarının mahkemede delil olarak kullanılmasının güvenilir olup olmadığını tartışmaya açtı.
Mahkeme ayrıca Copilot’a, “hesaplamaların güvenilir mi?” ve “mahkemede kullanılabilir mi?” gibi sorular yöneltti. Copilot, verdiği yanıtlarda, hesaplamalarının güvenilirliğinin kaynaklarına dayandığını ve uzmanlar tarafından doğrulanması gerektiğini belirtti. Bu da, Ranson’un bu çıktıları doğrulamadan kullanmasının ne kadar hatalı olduğunu gözler önüne serdi.
Yapay Zekanın Hukuktaki Yeri Tartışılıyor
Hâkim Schopf, yapay zekanın hızla birçok sektörde kullanılmaya başladığını kabul ederek, “Yapay zeka, hayatımızda giderek daha fazla yer kaplıyor. Ancak bu, ürettiği sonuçların mahkemede kabul edilebileceği anlamına gelmiyor” dedi. Bu noktada, mahkemelerde yapay zeka kullanımıyla ilgili net kuralların henüz oluşmadığını vurgulayan hâkim, avukatların yapay zeka kullanımıyla ilgili beyanlarda bulunmalarını zorunlu kılmanın, hukuk sisteminde yapay zeka kaynaklı sorunları engelleyebileceğini öne sürdü.
Dava Sonuçlandı: Zarar Yok, Kâr Var
Sonuç olarak, Schopf, Bahamalar’daki emlak davasında herhangi bir güven ihlalinin bulunmadığını ve Ranson’un Copilot’tan aldığı zarar hesaplamalarının geçersiz olduğunu belirtti. Davacının itirazlarını tamamen reddeden hâkim, mülk satışından elde edilen gelirin zarar değil, aksine vakfa kâr sağladığını tespit etti.
Söz konusu davaya dair KAYNAK






