Otonom Sistemler Ve Geleneksel Hukukun Çıkmazı
Teknolojinin hızla evrilmesiyle birlikte, yapay zeka ve otonom sistemlerin gündelik hayatın ayrılmaz bir parçası haline gelmesi, beraberinde yanıtlanması oldukça güç etik ve hukuki soruları getirmektedir. Geleneksel hukuk sistemleri, bir eylemin suç sayılabilmesi için iki temel unsura dayanır: Fiziksel eylem (actus reus) ve kusurlu bir zihin yapısı, yani kasıt (mens rea). Bir makine, karmaşık algoritmaları aracılığıyla belirli bir fiziksel fiili kusursuz bir hassasiyetle yerine getirebilir; ancak bu eylemi gerçekleştirirken insani bir "kötü niyet" veya "ahlaki bilinç" taşıyıp taşımadığı, modern hukuk felsefesinin en büyük muammalarından biridir. Mevcut durumda makineler, bilinçli bir özgür iradeye sahip olmadıkları için ahlaki birer fail olarak kabul edilmezler. Dolayısıyla, bir robotun birine zarar vermesi durumunda sorumluluk genellikle "eşya" mantığıyla onu tasarlayan mühendise veya üreten şirkete yüklenir. Ancak bu yaklaşım, "öğrenen sistemler" dünyasında geçerliliğini yitirmeye başlamıştır. Modern yapay zeka, sadece kendisine verilen komutları yerine getiren pasif bir araç değildir. Derin öğrenme ve yapay sinir ağları sayesinde, yaratıcısının bile öngöremeyeceği kararlar alabilen, tecrübe kazandıkça kendi stratejilerini geliştiren bir yapıya bürünmüştür. Bu noktada, makinenin aldığı ve tasarımcısının kontrolü dışındaki bir kararın yol açtığı zarardan kimin sorumlu tutulacağı sorusu, hukukun deterministik yapısını sarsmaktadır. Eğer bir algoritma, verileri işlerken insanın tahmin edemeyeceği bir korelasyon kurup hatalı bir hamle yaparsa, bu hatayı yazılımcıya yüklemek ceza hukukunun "şahsilik" ilkesiyle çelişebilir.
Sorumluluk Boşluğu Ve Algoritmik Belirsizlik
Yapay zeka geliştikçe, literatürde "sorumluluk boşluğu" (responsibility gap) olarak adlandırılan fenomen, hukukçuların ve etik uzmanlarının uykusunu kaçırmaktadır. Kendi başına karar verebilen bir algoritma hata yaptığında, geleneksel sorumluluk zinciri kopmaktadır. "Eğer bir operatörün veya programcının makinenin davranışını tam olarak kontrol edemediği veya öngöremediği bir durumla karşı karşıyaysak, ortaya çıkan zararın sorumluluğunu onlara yüklemek ahlaki bir boşluk yaratır"[1] tespiti, dijital çağın hukuk anlayışındaki temel açmazı özetler. Yazılımcının dahi "kara kutu" (black box) olarak adlandırılan işlem sürecine müdahale edemediği durumlarda, klasik ihmal veya kasıt kavramları yetersiz kalmaktadır. Bu boşluk, özellikle otonom araçların dahil olduğu "Tramvay Problemi" gibi ahlaki ikilemlerde daha belirgin hale gelir. Bir kaza anında kimin feda edileceğine karar veren algoritma, aslında matematiksel bir hesaplama yapmaktadır; ancak bu hesaplamanın sonucu toplum nezdinde ahlaki bir yargı olarak algılanır. Burada karşımıza çıkan sorun, makinenin bir suç işleyip işlemediği değil, suçun tanımının dijital varlıkları kapsayacak şekilde genişletilip genişletilemeyeceğidir. Makineler cezalandırılamaz çünkü cezalandırmanın temel amacı olan "pişmanlık duyma" veya "topluma kazandırılma" gibi kavramlar biyolojik olmayan varlıklar için anlamsızdır. Bir algoritmayı "hapsetmek", sadece onun kaynak kodlarını kapatmak veya elektrik bağlantısını kesmekten ibarettir.
Dijital Kişilik Ve Geleceğin Ceza Türleri
Gelecekte makinelerin hukuki bir "kişilik" kazanması tartışmaları, robotların haklara sahip olmasından ziyade, onların faaliyetlerinden doğan sorumluluğun yönetilmesini amaçlamaktadır. Avrupa Parlamentosu'nun 2017 yılında sunduğu "elektronik kişilik" önerisi, bu dönüşümün ilk ayak sesleridir. "Robotları birer hukuki kişi olarak tanımak, onları insanlarla eşitlemek değil; aksine, sebep oldukları karmaşık zararların tazmin edilmesi için bir fon oluşturmak veya sigorta sistemi kurmak adına pratik bir çözümdür"[2] görüşü, meselenin insani duygulardan ziyade ekonomik ve idari bir düzenleme gerektirdiğini savunur. Bu senaryoda, bir makinenin "suçlu" bulunması, onun dijital varlıklarından tazminat ödenmesi veya belirli bir süre faaliyetinin kısıtlanması gibi yeni nesil yaptırımları beraberinde getirebilir.
Yine de, robotlara bir tür "cezai ehliyet" verilmesi fikri, teknoloji dünyasında sert eleştirilere maruz kalmaktadır. "Robotlar, insanların sorumluluklarından kaçmak için kullanabilecekleri birer 'kukla' statüsüne indirgenmemelidir; hukuki statü vermek, gerçek sorumluları maskeleme riski taşır"[3] uyarısı, etik sınırların nerede çizilmesi gerektiğini hatırlatır. Eğer sorumluluğu tamamen algoritmaya bırakırsak, teknoloji şirketlerinin etik standartları ikinci plana itmesinin önünü açmış olabiliriz. Bu nedenle, hukukun bu dijital dönüşüme uyum sağlaması, robotun "suçluluğundan" ziyade insanın "gözetim yükümlülüğünü" yeniden tanımlamasıyla mümkün olacaktır.
Sonuç olarak, makineler henüz biyolojik veya ahlaki anlamda birer "suçlu" değildir ve uzun bir süre de olmayacaklardır. Ancak dijitalleşen dünyada kusur kavramı, sadece et ve kemikten oluşan varlıkların tekelinden çıkmaktadır. Etik kodların algoritmik birer standart haline getirilmesi ve hukuki sistemlerin otonom kararlara yanıt verebilecek esnekliğe kavuşturulması, robot-insan etkileşiminin güvenli bir zemine oturması için hayati bir zorunluluktur. Algoritmaların sanık sandalyesine oturtulması belki mümkün olmayacak; ancak o koltuğun boş kalmaması için hukukun yeni bir dil inşa etmesi gerekecektir.
[1] Andreas Matthias, University of Kassel, "Eğer bir operatörün veya programcının makinenin davranışını tam olarak kontrol edemediği veya öngöremediği bir durumla karşı karşıyaysak, ortaya çıkan zararın sorumluluğunu onlara yüklemek ahlaki bir boşluk yaratır", Ethics and Information Technology, Kassel, 2004
[2] Ryan Calo, University of Washington School of Law, "Robotları birer hukuki kişi olarak tanımak, onları insanlarla eşitlemek değil; aksine, sebep oldukları karmaşık zararların tazmin edilmesi için bir fon oluşturmak veya sigorta sistemi kurmak adına pratik bir çözümdür", California Law Review, Seattle, 2015
[3] Joanna Bryson, University of Bath, "Robotlar, insanların sorumluluklarından kaçmak için kullanabilecekleri birer 'kukla' statüsüne indirgenmemelidir; hukuki statü vermek, gerçek sorumluları maskeleme riski taşır", University of Bath Research Portal, Bath, 2010
YANSIMA Bilimsel Perspektif Dergisi
Ücretsiz Aylık Dijital DergiTel: 0 553 403 88 04 (WP/GSM)iletisimMakaleler özgün yorumlar sunar. Ayrıca sitemizdeki resimler; muhabirlerimizn çektiği özgün fotolgraflar, çizerlerimiz tarafından oluşturulan özgün karikatür ve özgün illustrasyonlardan oluşur. Alıntılar tırnak içinde ve kaynak belirtilerek sunulur."Bilgi, paylaşıldıkça artan tek hazinedir."www.yansimabilim.com.tr