Arama yapmak için lütfen yukarıdaki kutulardan birine aramak istediğiniz terimi girin.

Yapay Zekânın Dâhil Olduğu Suçlar Bakımından Ceza Hukuku Sorumluluğunun Belirlenmesi

Determining Criminal Liability in Artificial Intelligence Crimes

Ceren ÖZBEK, Veli Özer ÖZBEK

Teknolojinin gelişimi ile birlikte yapay zekanın cezai sorumluluğu artık bilim kurgu ürünü olmaktan çıkmaktadır. Ceza hukuku hükümleri çerçevesinde sorumlunun tespiti makine öğrenmesi ve derin öğrenme gibi teknikler nedeniyle yapay zekanın dahil olduğu sistemler bakımından sorun yaratabilecektir. İlgili araçların kararlarında söz sahibinin kim olduğunun belirlenmesi zorlaştıkça nedensellik bağlantısının ortaya konulması daha da zorlaşacaktır. Bu çerçevede ceza hukuku sorumluluğu kapsamında “özgür irade” kavramının da tekrardan irdelenmesi gerekmektedir. Çalışmamızda öncelikle yapay zeka sistemlerinin dahil olabileceği suçlar bakımından genel bir değerlendirme yapılarak “robot” ve “yapay zekâ” kavramlarına açıklık getirilmeye çalışılmıştır. Devamında yapay zekânın dâhil olduğu suçlar bakımından ceza hukukunun esasları çerçevesinde ortaya çıkabilecek sorunlar incelenmiştir. Yapay zekanın doğrudan sorumluluğu bakımından yapay zekâya bir kişilik verilip verilemeyeceği değerlendirilmiştir. Son olarak ise yapay zekânın olası ceza hukuku sorumluluğu kapsamında güncel yaptırım teorisi ele alınacaktır.

Yapay zeka, Robot, Ceza hukuku, Cezai Sorumluluk, Özgür İrade, Yaptırım.

With the development of technology, the criminal liability of artificial intelligence is no longer science fiction. Techniques, especially such as machine learning and deep learning may cause some potential issues for artificial intelligence crimes. It becomes challenging to determine the decision-maker of AI involved systems. Therefore, the causal link between the defendant’s conduct and end result may be unclear. In this framework, the concept of “free will” also needs a redefinition. First of all, our study approaches artificial intelligence crimes from a general perspective, and it clarifies the concepts of “robot” and “artificial intelligence.” Subsequently, the study assesses the offenses that involve artificial intelligence within the current legal framework and possible challenges. Further, it evaluates whether artificial intelligence may have a personality regarding the direct liability of artificial intelligence. Finally, the study examines the current sanction theory for the prospective artificial intelligence personality.

Artificial Intelligence, Robot, Criminal Law, Criminal Liability, Free will, Sanction.

A. Genel Olarak

Ceza hukuku modern toplumlar üzerindeki en güçlü kontrol mekanizmalarından biri olarak gösterilebilir.1 Bu kapsamda yapay zekanın hukukun özellikle ceza hukukunun bir parçası haline gelmesi gündemdedir. Büyük ticari şirketlerin kuruldukları ilk zamanlarda, sahip oldukları ekonomik güç nedeniyle kolayca suç işleyeceklerinden korkulmuştur. Bu durum gerekli yasal düzenlemelerin yapılması sayesinde giderilmiştir.2 Benzer durum yapay zeka için de geçerlidir. Yapay zekaların cezai sorumluluğu artık bilim kurgu ürünü olmaktan çıkmaktadır. Yapay zekânın bir araç olarak kullanılmasının yanında artık kendi kendine karar verebilir hale gelmesi sorumluluğun üreticiden yahut da yazılımcıdan başka birine, yapay zekâya geçmesine sebebiyet verebilecektir.3 Bu durumda gerçekten de bir insan etkisi olmadığından sorumluluğun bu kişilere atfedilebilirliği ortadan kalkabilecektir.4 O nedenle tüzel kişiler gibi yapay zekâların ceza hukuku sorumluluğunun belirlenmesi giderek zorunlu hale gelmektedir.

Amerika Birleşik Devletleri’nin Arizona eyaletinde Mart 2018’de bir yayanın ölümü sürücüsüz araçlara duyulan güvenin sarsılmasına neden olmuştur.5 Yapay zeka sistemleri algoritmaları kullanır ve belli modelleri tanımlamak için verileri inceleyerek “öğrenme” eylemini gerçekleştirir.6 Bu nedenle verdikleri kararlar kullandıkları veritabanlarının sağlığına bağlıdır. Otonom araçların kendi devinimleri içindeki hareketleri her ne kadar bir programlanmaya dayansa da bu devinim tek bir programlama operasyonuna indirgenerek takip edilemeyecektir. Bu nedenle her ne kadar belli bir biçimde hareket etmesi için programlansa da yapay zekalar benzer durumlar bakımından bambaşka kararlar verebileceklerdir.7 Bunun gibi bazı özellikleri bu sistemlerin doğruluğunu sarsabilecektir.

Önyargılı verilere dayanılarak oluşturulan bazı karar alma sistemlerinde önyargılı sonuçlara ulaşıldığı pek çok örnekte karşımıza çıkmaktadır. Örneğin, Amazon’un işe alma aracı erkek adayların daha tercih edilebilir olduğunu öğrenmiştir. Bunun nedeninin Amazon’un bilgisayar modelinin geçmiş on yılda şirkete başvuru yapmış adayların özgeçmişlerini kullanmasından kaynaklandığı iddia edilmiştir. Veritabanından kaynaklanan bu hal erkeklerin teknoloji endüstrisindeki hâkimiyetini de gözler önüne sermiştir.8 Yine, farklı yapay zekâ sistemleri farklı algoritmalarla çalışmaktadır ve bu nedenle de çoğu durumda farklı veritabanları etkili olmaktadır.9 Verilerin bu kadar etkin rol oynaması ile birlikte kişisel verilerin korunması bakımından getirilen yeni düzenlemelerdeki10 kısıtlamalar her ne kadar kişi güvenliği için gerekli olsa da yapay zeka teknolojilerinin güvenilirliğini etkileyebilecektir.