Av. Özge Evci Eralp:Yapay Zekâ İnsan Aklını Taklit Eden Bir Yazılım

E-Safe ve Kişisel Verileri Koruma Kurumu ev sahipliğinde “4’üncü E-Safe Kişisel Verileri Koruma Zirvesi” düzenlendi. Çevrim içi yayında konuşan Başkent Üniversitesi Öğretim Görevlisi Avukat Özge Evci Eralp yapay zekânın işe alım süreçlerinde kullanılan ilişkisinden bahsetti.

Yapay zekânın tanımını yaparak konuşmasına başlayan Özge Evci Eralp “Yapay zekâ bir robot değil. İnsan aklını taklit eden bir yazılım.” dedi. Yapay zekâyı işe alım sürecinde sınıflandıran Eralp “Planlama, işe alım ve yerleştirme, iş süreçlerinde yapay zekâ kullanılır.” dedi. 

İşlenen Verilerin Silinmesi Her Zaman Tartışılmakta

Yapay zekâda etik tartışmalarının sıklıkla yaşandığını hatırlatan Av. Eralp algoritmanın ayrımcılığa neden olacak şekilde tanımlanması ya da algoritmanın bunu bir şekilde öğrenmesi büyük bir sorun. Veri işlemede yapay zekânın kullanıldığının belirtilmemesi büyük bir sorun. KVKK 10. maddede aydınlatma yükümlülüğünün kişisel veri toplanmasının yönteminin belirtilmesi gerek. Yapay zekânın işlediği verilerin silinmesi, yok edilmesi, anonimleştirilmesi her zaman tartışılan bir konu. Çünkü yapay zekânın bir şeyi kolay kolay unutmuyor. Mevzuatın veya amacın belirlediği süre kadar muhafaza edilebilme ilkesine aykırılık teşkil edebiliyor.” ifadelerini kullandı. 

Toplanan Verilerden Yeni Veriler Elde Ediliyor

Öngörülemezlik ve kontrolsüz veri işlemenin önemli sorunlardan biri olduğunu vurgulayan Eralp, “Toplanan verilerden yeni verilerin çıkarılması söz konusu olabiliyor. Aynı zamanda algoritmanın veri sorumlusu tarafından bilinmemesi gibi bir durum da var.” dedi. Eralp, İngiliz Veri Koruma Otoritesi’nin bir bankayla ilgili kararını örnek gösterdi. “Ofis alanının kullanımını görmek için bir yazılım kullandı. Ama daha sonra yazılımın çalışanların ne kadar çalıştığı, bilgisayarın başında ne kadar oturdukları, kaç defa molaya çıktığı gibi birden fazla bilgi verebildiği anlaşıldı. Bu yüzden bankaya ölçüsüz veri işleme ve şeffaf olmaması nedeniyle 500 bin pound ceza veriliyor.” şeklinde konuştu. 

Elde Edilen Sonuçlar Analiz Edilmeli

Av. Eralp, Kişisel Verileri Koruma Kanunu’nun 11. maddesini hatırlattı. Eralp “İşlenen verilerin münhasıran otomatik sistemler vasıtasıyla analizi suretiyle çıkan sonuçlara itiraz etme hakkımız bulunuyor. Bu anlamda kişilik testleri veya oyunlardan elde edilen sonuçlar adaylara bildirilmediğinde çıkan sonuçlara ise itiraz etme hakkı olmuyor.” diyerek sonuçların kişilere bildirilmemesinin önemine vurgu yaptı.

Kişiler Verilerin Silinmesini İsteme Hakkına Sahip

Özge Evci Eralp, verilerin sonuçlarının bildirilmesiyle ilgili 108 Sayılı Kişisel Verilerin Otomatik İşleme Tabi Tutulması Karşısında Bireylerin Korunması Sözleşmesi’ndeki maddeyi de hatırlattı. Eralp “Kişilerin verilerinin otomatik dosyada bulunup bulunmadığını sorma hakkı ve verilerin silinmesini isteme hakları mevcut” dedi. Eralp bununla ilgili olarak Amsterdam Mahkemesi’nin verdiği bir karardan örnek verdi. Uber’de çalışan iki şoför aynı anda iki farklı lokasyondan sisteme giriyor. Uber, şoförleri sahtecilik yaptığı iddiasıyla bu şoförlerin hesaplarını engelliyor. Şoförlerin açtığı dava sonucu mahkeme Uber’e ceza veriyor. GDPR 22. maddesi uyarınca ‘Böyle önemli bir karar sadece yapay zekâya bakılarak verilemez’ diyor.” değerlendirmesinde bulundu. 

Yapay Zekâ Kendi Haline Bırakılmamalı

Av. Eralp, İngiliz Veri Koruma Otoritesi tarafından yapay zekânın iş hayatında kullanılmasıyla ilgili verdiği tavsiyeleri sıraladı. Yapay zekalı yazılımların kendi haline bırakılmaması gerektiğini vurgulayan Eralp “Yapay zekâya başlamadan önce bunun gerekli olup olmadığına orantılı olup olmadığına bakılmalı. Gerekliyse kullanın. En iyi uygulamaları takip edin ve personelinizi bu konuda eğitin. Algoritmaları takip edin. Yapay zekâlı yazılımı kendi haline bırakmayın. Sadece otomatikleşmiş araçları kullanılmamasını öneriyor. Mutlaka insan müdahalesi olmasını istiyor. Çünkü yapay zekâda açık rıza alınsa dahi işçi işveren ilişkileri de olduğu için bu rızanın hukuken geçerli olmayabileceğini söylüyor. Yapay zekânın sağladığı algoritmaların ayrımcılık yaratmak için değil bunu engellemek için kullanılmasını istiyor. İngiliz Veri Koruma Otoritesi’nin tavsiyeleri bu şekilde” dedi.

Chatbotlar Tek Başına Önemli Bir Karar Veremez

Özge Evci Eralp, Fransa Veri Koruma Otoritesi’nin Chatbot görüşüne de açıklık getirdi. “Bir chatbotla yapılan görüşme bir kişinin işe alımına karar verip vermeme gibi önemli bir karara araç olamaz. Ancak insan müdahalesini içeren bir sürecin parçası olabilir. Tek başına buna dayanarak bir karar verilemez.” şeklindeki görüşüyle Fransız Veri Koruma Otoritesi, yapay zekânın kendi başına bırakılmasının günlük hayatta olumsuz sonuçlar doğurabileceğini vurguladı. 

Av. Eralp konuşmasının sonunda yapay zekâyla ilgili bütün otoriteler ve kanunlardan yapılacak çıkarımlarda az veri çok minimizasyon, aydınlatma yükümlülüğünün şeffaflık ilkesinin yerine getirilmesi, insan müdahalesinin mutlaka olması gerektiğini ifade ederek konuyu özetledi.