Arama yapmak için lütfen yukarıdaki kutulardan birine aramak istediğiniz terimi girin.

Otonom Yapay Zekâ Sistemlerinden Kaynaklanan Zararlar Bakımından Üretici Gelişim Riski Savunması İleri Sürebilir Mi?

Is the Producer Allowed to Raise Development Risk Defense for Damages Resulting from Autonomous Artificial Systems?

Burcu G. ÖZCAN BÜYÜKTANIR, Dila OKYAR

Hayatımızı hızla dönüştüren dijital çağda, güncelliğini uzun süre koruyacak hararetli tartışmaların başında yapay zekâ kullanımından doğan zararlardan hukukî sorumluluk gelir. Modern eğilim, yapay zekâya ayrı bir hukukî kişilik atfetmeye- en azından şimdilik- ihtiyaç olmadığı, meydana gelen zararın mevcut hukukî normlar çerçevesinde hukuk süjelerine atfedilerek sorumluluğun kurulabileceği yönündedir. Çalışmamızın amacı, çevresi ile benzersiz bir şekilde etkileşime geçerek öğrenme yeteneği ile donatılmış, kendi değişken tecrübeleriyle edindiği yeni girdilere doğası gereği öngörülemez tepkiler gösterme potansiyeli olan yüksek otonomi seviyeli yapay zekâ sistemlerinin kendi kendine öğrenme sürecinde geliştirdiği hatalardan kaynaklanan sözleşme dışı sorumluluk bakımından üreticinin gelişim riski savunması ileri sürüp süremeyeceğini tartışmaktır. Çalışmamızda, yapay zekâya hukukî kişilik tanınmasına ilişkin tartışmalar ışığında, üreticinin hukukî sorumluluğu bakımından yapay zekâ sistemlerinin “ürün” niteliği ve üreticinin gelişim riski savunması, 7223 sayılı Ürün Güvenliği ve Teknik Düzenlemeler Kanunu, bu kanuna mehaz teşkil eden 1985 tarihli AB Ürün Sorumluluğu Direktifi (85/374/EEC) ile 2020 tarihli AB Ürün Sorumluluğu Direktif Taslağı çerçevesinde değerlendirilmektedir.

Yapay Zekâ, Üreticinin Sorumluluğu, Kusursuz Sorumluluk, Öngörülebilirlik, Gelişim Riski.

In the digital age that is rapidly transforming our lives, legal liability for damages arising from the use of artificial intelligence is at the forefront of the heated debates that will keep its actuality for a long time. The modern trend is that there is no need - at least for now - to recognize artificial intelligence as an independent legal personality. It is thus argued that liability can be established by attributing the damage to legal subjects within the framework of existing legal norms. The aim of our study is to discuss whether the producer is allowed to advance development risk defence in terms of errors developed in the self-learning process of high autonomy level artificial intelligence systems, which are equipped with the ability to learn by interacting with their environment in a unique way, and have the potential to show unpredictable reactions to new inputs acquired through their own variable experiences. In our study, in the light of discussions on legal personality, within the framework of Law on Product Safety and Technical Regulations (no. 7223), the 1985 EU Product Liability Directive (85/374/EEC), as the reference law and the 2020 Product Liability Directive Draft, in terms of legal liability of the producer, the qualification of “product” of artificial intelligence systems and the development risk defence of the producer are discussed.

Artificial Intelligence, Producer’s Liability, Strict Liability, Foreseeability, Development Risk.

Giriş

Çekçe kökenli, “angarya, kölelik” gibi çağrışımları olan robota kelimesinden türetilmiş “robot” kavramını1 dünya dillerine kazandıran Karel Čapek’in kaleme aldığı bilimkurgu tiyatro oyununda2 robotları bir fabrikada çalışan köle yapay insanlar olarak tasvir ederek bu kavramı ilk kez kullanmasının üzerinden yaklaşık yüz yıl geçti. Bugün ise insanlık, yapay zekâlı robotlara bir yandan hukukî kişilik tanınmasını tartışırken, diğer yandan yakın gelecekte yapay zekânın hükümranlık sürdüğü bir dünyadan endişe duyuyor. Yakın tarihte vizyona giren ve insanların yapay zekâ tarafından manipüle edilme endişesini çarpıcı bir şekilde işleyen Mission: Impossible-Dead Reckoning Part One filminde “Varlık” (the Entity) olarak adlandırılan yapay zekâ, filmin antagonisti olarak karşımıza çıkıyor.

Yapay zekâ günümüzde artık salt bilimkurgu eserlerinin konusu olmaktan çıkmıştır; hem günlük hem de ticarî hayatımızın tam ortasındadır. Hayatımızı hızla dönüştüren dijital çağda, sorumluluk hukukunun oldukça popüler ve güncelliğini uzun süre koruyacak hararetli tartışmalarının başında yapay zekâ kullanımından doğan zararlardan hukukî sorumluluk gelmektedir. Modern eğilim, yapay zekâya ayrı bir kişilik atfederek bağımsız bir hak süjesi olarak kabul etmeye- en azından şimdilik- ihtiyaç olmadığını; meydana gelen zararı mevcut hukukî normlar çerçevesinde bir ya da birden fazla kişiye atfederek sorumluluğun kurulabileceğini savunur.

Hukukçular, hukuk fakültesinin ilk gününden itibaren, ‘hukukçu gibi düşünmeyi’ öğrenmek için eğitim görürler ve bu da, özellikle Anglo-Sakson hukuk sisteminde, analoji yoluyla akıl yürütmeye dayanır. Yeni teknolojileri anlamaya çalışırken onları bildiğimiz şeylerden hangisine benzettiğimiz, diğer bir ifadeyle, hangi metaforu kullandığımız hukukî düzenlemelerin başarısında belirleyici etkendir. Bu doğrultuda, robotları bir kâhyaya mı, bir çocuğa mı yoksa bir hayvana mı benzeteceğiz?3 Robot ve yapay zekâ sistemlerinden kaynaklanan hukukî sorumluluk meselesini her ne kadar mevcut sorumluluk normlarına benzeterek çözmeye çalışsak da4 , geleneksel sorumluluk anlayışı acaba ileri düzey otonom yapay zekâ bakımından yetersiz ve işlevsiz mi kalacaktır? Yakın gelecekte, robotlara özgü hukukî düzenlemelerde artış kaçınılmaz mıdır? Richards/Smart, “Android safsatası” (android fallacy) olarak nitelendirdiği mantık hatasına düşmeden, ne kadar sofistike olursa olsun, tüm robotların, en nihayetinde bir makineden ibaret olduğunu unutmamamız gerektiğini vurgulamaktadır5 .

Gelişim riski özellikle ilaç, kimya, kozmetik ile yapay zekâ ve robotik gibi dijital teknoloji ürünleri bakımından önem arz eder6 . Çalışmamızın amacı, çevresi ile benzersiz bir şekilde etkileşime geçerek öğrenme yeteneği ile donatılmış, kendi değişken tecrübeleriyle edindiği yeni girdilere doğası gereği öngörülemez tepkiler gösterme potansiyeli olan yüksek otonomi seviyeli yapay zekâ sistemlerinin kendi kendine öğrenme sürecinde geliştirdiği hatalardan kaynaklanan sözleşme dışı sorumluluk bakımından üreticinin gelişim riski savunması ileri sürüp süremeyeceğini tartışmaktır.

Yapay zekâ sistemlerinden kaynaklanan sorumluluk konusunda akla gelen ilk sorumluluk süjesi, üretim zincirinin en başında yer alan kişi olarak yapay zekâ sisteminin üreticisidir7 . Konumuz bakımından üreticinin sorumluluğu, robotların ve yapay zekâ sistemlerinin hukukî statüsüne ilişkin güncel tartışmalar ile de yakından ilgilidir. Bu çerçevede ilk olarak, Türk Hukukunda üreticinin sorumluluğunun tarihsel gelişimi ve hukukî dayanağı ele alındıktan sonra, robot ve yapay zekâ kavramları ile yapay zekâlı robotlara hukukî kişilik tanınmasına ilişkin tartışmalar, Avrupa Birliği’ndeki gelişmeler ışığında incelenecektir. “Robot” ve “yapay zekâ” kavramları son dönemde literatürde yoğun bir şekilde işlendiğinden, konu bütünlüğünü sağlamak için çalışmamızda bu kavramlara gerektiği ölçüde yer verilmekle yetinilecektir. Ardından, 7223 sayılı Ürün Güvenliği ve Teknik Düzenlemeler Kanunu8 (‘ÜGTDK’) ve bu kanuna mehaz teşkil eden 85/374/EEC sayılı AB Ürün Sorumluluğu Direktifi9 (‘Direktif’) çerçevesinde, robotların ve yapay zekâlı sistemlerin “ürün” niteliği değerlendirilecek ve üreticinin, ileri düzeyde otonom yapay zekâ sistemlerinden kaynaklanan hukukî sorumluluğu bakımından gelişim riski savunması ileri sürerek sorumluluktan kurtulmasının mümkün olup olmadığı tartışılacaktır.

I. Türk Hukukunda Üreticinin Sorumluluğunun Hukukî Dayanağı

Üreticinin (imalatçının) sorumluluğu10 kavramı, üretici tarafından piyasaya sürülen hatalı ürünün neden olduğu zarardan hukukî sorumluluğu ifade eder. Üreticinin sorumluluğunu sözleşme hukuku zeminine oturtmaya çalışmak, sorumluluğun yapısına uygun düşmediğinden tatmin edici çözümler sağlamamaktadır. Günümüzün çok katmanlı ve uzun dağıtım zincirinde, üretici ile nihaî alıcının/kullanıcının temas ettiği ilişkilere nadiren rastlanır. Üretici ile kullanıcı arasında bir sözleşme ilişkisi bulunsa bile, sözleşme hukukunun temel prensipleri, üreticinin sorumluluğunun kendine özgü sorunlarına çözüm sağlamada yetersiz kaldığından, üreticinin sorumluluğu, hukukî temeli itibariyle haksız fiil hukukuna dayanan bir sorumluluk türü olarak gelişmiştir11 .

Türk Hukuku uzun yıllardır üreticinin kusursuz sorumluluğunu kanun düzeyinde öngören açık bir sorumluluk normuna hasret kalmıştır. Her ne kadar doktrinde çeşitli hükümler dayanak olarak gösterilerek çare aranmış da, bu zorlama çözümler üreticinin sorumluluğunun bünyesine uygun düşmediğinden yetersiz kalmış ve haklı eleştirilere uğramıştır12 . Yargıtay ise üreticinin sorumluluğunu, genel haksız fiil sorumluluğu (TBK m. 49 vd.) çerçevesinde değerlendirmiştir13 . 12 Mart 2021 tarihinde yürürlüğe giren ÜGTDK m. 6 hükmü ile üreticinin sorumluluğu açık bir kanunî dayanağa kavuşmuştur. Söz konusu Kanun, Avrupa Birliği müktesebatı ile uyum çerçevesinde, Direktif’i iç hukukumuza aktarma amacı taşımakla birlikte14 , yapılan kanunî düzenleme doktrinde önemli eleştiriler almıştır15 . Konumuz ile ilgisi ölçüsünde hem Direktif hem de ÜGTDK’de yer alan düzenlemeler incelenecektir.

II. Robotların ve Yapay Zekâlı Sistemlerin Hukukî Statüsü Çerçevesinde Hukukî Kişilik Tartışması

Robot, ana hatları itibariyle, çevresini algılama kabiliyetine ve bir çeşit zekâya sahip olan, fiziksel ve zihinsel faaliyet sergileyen bir makinedir. Robottan bahsedilebilmesi için, hem fiziksel hem de zihinsel yeteneklere sahip olması gerekir. Bu nedenle, bir fabrikada bant üzerinde araba parçalarını birleştiren endüstriyel otomat kol robot değildir ancak akıllı haritalama ve uyum teknolojisi ile donatılmış iRobot Roomba akıllı süpürge robot niteliğindedir16 . Her makine bir robot değildir; bir makinenin robot niteliğine sahip olabilmesi için taşıması gereken dört temel özellik şöyledir17 : çevreyi algılamak, hareket etmek, bir güç kaynağına sahip olmak ve bir çeşit zekâya sahip olmak. Fiziksel bir varlığa sahip olan robotlar, çevrelerini algılar, bilgileri işler ve harekete geçerler. Robotlar, yapıları itibariyle, donanım (hardware) ve yazılım (software) olmak üzere iki temel bileşenden oluşur. Robotun donanımı, elektronik ve mekanik aksamını oluşturan fiziksel kısmını, yazılım ise, donanımı kontrol eden, bilgisayarda işletilmek üzere programlama dilinde yazılıp tasarlanmış bilgisayar programını ifade eder.

Sözlük anlamıyla zekâ, “insanın düşünme, akıl yürütme, objektif gerçekleri algılama, yargılama ve sonuç çıkarma yeteneklerinin tamamı”nı ifade eder18 . Yapay zekâ (artificial intelligence, AI) ise, insan zekâsını-daha isabetli bir ifadeyle doğal zekâyı19 - taklit ederek doğal zekâya özgü karakteristik özellik ve yetenekler sergileyen (düşünme, akıl yürütme, problem çözme, plan yapma vb. zihinsel yetenekler ile insanların duygularını anlama, sosyal etkileşime geçme vb. sosyal yetenekler) bir bilgisayar programıdır. Avrupa Komisyonu’nun 21 Nisan 2021 tarihli Yapay Zekâ Tüzüğü Taslağı’na (Artificial Intelligence Act, AI Act)20 göre yapay zekâ, belirli teknik ve yaklaşımlar (makine öğrenimi, mantık ve bilgiye dayalı yaklaşımlar, istatistiksel yaklaşımlar vb.) kullanılarak geliştirilen, insan tarafından belirlenen amaçlar dâhilinde, içerik, tahmin, tavsiye veya karar gibi çıktılar ortaya koyarak etkileşime girdiği ortamları etkileyen yazılımlardır (m. 3/1).

Bu açıklamalar ışığında, robot ve yapay zekâ kavramları arasındaki ilişki şu şekilde özetlenebilir: Salt bir yazılımdan ibaret olan sistemler robot değildir21 . Robotlardan farklı olarak, yapay zekâ yazılımları da bir bilgisayar programı olup fiziksel bir varlığa sahip değildir22 . Kapancı’nın ifadesiyle, “Nasıl ki insan düşünmek için beynini, burada karar verdikten sonra harekete geçmek için vücudundaki uzuvları kullanır; işte bu ilişkide yapay zekâ insan beynindeki aktivitenin bir makinedeki hali, robot ise insan vücudunun kendisidir23 .

Robotların bir çeşit zekâya sahip olması gerekmekle birlikte, her robot yapay zekâlı değildir24 . Yapay zekâ ile otonomi seviyesi doğru orantılı olup, yapay zekâ seviyesi yükseldikçe, otonomi seviyesi de yükselir. “Otonomi” (autonomy, özerklik), bir makine ya da sistemin kendisine tanımlanan görevi yerine getirirken insan kontrolünden bağımsızlık derecesidir. “Makine öğrenimi” (machine learning) olarak adlandırılan yapay zekâ yöntemi ise, bilgisayarların kendi deneyimlerinden ve çevreleriyle etkileşime geçerek edindikleri tecrübelerden öğrenerek performansını geliştirmesini ve böylelikle zaman içerisinde otonomlaşarak “daha zeki” hâle gelmesini ifade eder. Tam otonom bir yapay zekâ sistemi, insan müdahalesi olmaksızın kendi tecrübelerinden öğrenme, bağımsız karar alma ve aldığı bu kararları uygulama mekanizmasına sahiptir. Hukukî kişilik tartışması da tam da bu tür otonom yapay zekâ sistemleri bakımından gündeme gelir25 .

Hukukî bir kavram olan “kişi”, hak ehliyetine sahip varlığı ifade eder. Hak ehliyeti, kişinin hak sahibi olabilme ve borç altına girebilme iktidarıdır. Bir varlığın hukuk düzeni tarafından kişi olarak kabul edilip ona hak ehliyeti tanınması, bir hukuk politikası tercihidir. Kanun koyucu bir varlığa kişilik atfedebileceği gibi, aksine, o varlığı hakkın konusu (objesi) olarak da kabul edebilir. Dolayısıyla “kişi”, hukuk mantığının bir ürünü olup, esasında yapay bir varlıktır26 . Hukukî anlamda kişilik, hukuk kuralları ile yaratılan bir fiksiyondan ibarettir.

Radikal yaklaşıma göre, bir hukuk politikası tercihi olarak otonom yapay zekâ sistemleri/yapay zekâlı robotlar hakkın objesi değil, bağımsız bir hak süjesi olarak kabul edilmelidir. Ancak hâlihazırda Avrupa Birliği düzeyinde geleneksel bir yaklaşım tarzı benimsendiği görülmektedir. Buna göre, robotlara ve yapay zekâ sistemlerine ayrı bir hukukî kişilik atfederek bağımsız bir hak süjesi olarak kabul etmeye -en azından şimdilik- ihtiyaç bulunmamaktadır. Avrupa Parlamentosu’nun 16 Şubat 2017 tarihli Robotik Hakkında Medenî Hukuk Kurallarına İlişkin İlke Kararı’nda27 , “sorumluluğun en azından şimdilik robota değil bir insana ait olması gerektiği” vurgulanmış (§ 56); ancak “özerk bir şekilde kendi değişken tecrübelerinden öğrenme ve benzersiz bir şekilde kendi çevresiyle etkileşime geçme yeteneği ile donatılmış yeni nesil robotların belli bir dereceye kadar öngörülemez nitelikteki davranışlarından kaynaklanan zararları karşılamada mevcut yasal düzenlemelerin yetersiz kalacağı” endişesi dile getirilmiş (§ Z.AI) ve bir çözüm önerisi olarak “en azından karmaşık yapılı otonom robotlara elektronik kişilik tanınabileceği” (§ 59/f) tavsiye edilmiştir. Söz konusu Karar, Üye Devletler bakımından bağlayıcı olmasa da, özel bir hukukî statü olarak elektronik kişilik modelini öneren ilk uluslararası hukukî metin olması bakımından özel bir öneme sahiptir.

Avrupa Komisyonu Yapay Zekâ Üst Düzey Uzman Grubu’nun 26 Haziran 2019 tarihli Güvenilir Yapay Zekâ için Politika ve Yatırım Önerileri28 başlıklı çalışmada ise, robotlara ve yapay zekâ sistemlerine hukukî kişilik tanımanın ciddi bir ahlâkî çöküntü yaratacağı endişesi belirtilerek karar mercileri hukukî kişilik tanımaktan kaçınmaya davet edilmiştir (§29.7). Avrupa Parlamentosu’nun 20 Ekim 2020 tarihli Yapay Zekâ Hakkında Hukukî Sorumluluk Rejimine İlişkin İlke Kararı’nda29 ise, “yapay zekâ tarafından yönlendirilen tüm fiziksel veya sanal faaliyet, cihaz ve süreçlerin, doğrudan veya dolaylı olarak zararın sebebi olabileceği, ancak ortaya çıkan bu zararın nihayetinde her zaman bir insanın bu sistemleri kurması, etkin bir şekilde kullanması ya da bu sistemlere müdahale etmesinden kaynaklandığı, dolayısıyla yapay zekâ sistemlerine ayrı bir hukukî kişilik tanımaya gerek olmadığı” (§7) belirtilmiştir.

Geleneksel anlayışın temel hareket noktası, robotların insan üretimi birer eşya (property) statüsünde olmasıdır. Türk Hukukunda eşya, cismanî (maddî) varlığı30 olan, sınırlandırılmış, üzerinde fiilî ve hukukî hâkimiyet kurulabilen ve ekonomik değeri bulunan şeyleri ifade eder. Robotlar, fiziksel bir varlığa sahip olmalarından hareketle, de lege lata, eşya niteliğindedir. Bir eşyada cisimleşmemiş yapay zekâ yazılımları ise gayrimaddi malvarlığı değeri olarak sınıflandırılmalıdır31 . Robotların ve yapay zekâ sistemlerinin malvarlığına dâhil olmalarından hareketle yeni bir hukukî dayanak yaratmaya gerek olmadığı (“the no new liability thesis”); ortaya çıkan zararın mevcut sorumluluk normları çerçevesinde hangi sorumluluk süjesine/süjelerine izafe edilebileceğinin değerlendirilmesi gerektiği savunulur. Diğer bir ifadeyle, “uzatılmış el” (verlangten Arm) metaforundan hareketle, bir robot/yapay zekâ sisteminin arkasında kimin/kimlerin eli olduğu sorusu cevaplanmalıdır. Klâsik sorumluluk normları çerçevesinde akla ilk gelen muhtemel sorumluluk süjeleri şöyledir: üretici (producer), programlayıcı (programmer), işleten (operator) ve kullanıcı (user). Çalışma konumuz bakımından, üretim zincirinin en başında yer alan üreticinin sorumluluğunun değerlendirilebilmesi için öncelikle yapay zekâ sistemlerinin “ürün” niteliğinde olup olmadığı belirlenmelidir.