Algoritmik karar alma sistemlerinin kamu ve özel hukuk alanlarında giderek daha yaygın hâle gelmesi, yapay zekâ uygulamalarının yalnızca teknik araçlar olarak değil, hukukî sonuç doğuran algoritmik karar mekanizmaları olarak değerlendirilmesini zorunlu kılmaktadır. Günümüzde kredi değerlendirmeleri, idari risk analizleri, sosyal yardım tahsisleri, kamu güvenliği uygulamaları ve hatta ceza adaletine ilişkin öngörü sistemleri, insan kararlarını büyük ölçüde algoritmik çıktılar üzerinden şekillendirmektedir. Bu durum, yapay zekâ tarafından üretilen kararların hukukî meşruiyetinin nasıl kurulacağı ve bu kararların yol açtığı sonuçlardan kimin sorumlu tutulacağı sorusunu hukuk teorisinin merkezine yerleştirmiştir.
Bu makale, yapay zekânın etik süje olup olmadığı tartışmasını ikincil bir mesele olarak ele almakta; asıl problemi, algoritmik kararların mevcut hukukî sorumluluk rejimleri içerisinde neden açıklanmakta zorlandığı sorusu üzerinden incelemektedir. Bu bağlamda odak noktası, literatürde giderek belirginleşen ve klasik sorumluluk anlayışını zorlayan “sorumluluk boşluğu” problemidir.
I. Algoritmik Karar Olgusunun Hukukî Niteliği
1. Karar Kavramının Hukuk Teorisi Açısından Anlamı
Hukuk düzeninde “karar”, salt bilişsel bir tercih değildir. Karar, normatif bir bağlam içinde anlam kazanır ve belirli hukukî sonuçlar doğurur. Bu nedenle hukuk, kararın psikolojik arka planından ziyade, kararın nesnel olarak dış dünyada yarattığı etkiyi esas alır. Bir işlemin hukukî niteliği, karar vericinin öznel niyetlerinden çok, kararın öngörülebilirliği, gerekçelendirilebilirliği ve denetlenebilirliği ile ilgilidir.
Bu yaklaşım, insan kararları bakımından uzun süredir geçerlidir. Bir hâkimin, idarecinin ya da özel hukuk aktörünün gerçekten ne düşündüğü değil; hangi gerekçeyle, hangi normu uygulayarak ve hangi sonucu doğurduğu önemlidir. Dolayısıyla hukuk açısından karar, kişisel bilinçten bağımsız olarak değerlendirilebilen bir olgudur.
Bu noktada yapay zekâ sistemleri bakımından kritik bir eşik ortaya çıkar. Eğer hukuk, insan kararlarını bilinç ve öznel deneyimden bağımsız olarak değerlendirebiliyorsa, algoritmik kararların yalnızca “bilinç yokluğu” gerekçesiyle hukukî analiz dışında bırakılması teorik olarak tutarlı değildir.
2. Algoritmik Kararların Ayırt Edici Özellikleri
Algoritmik kararlar, klasik insan kararlarından üç temel noktada ayrılır.
a) Dağıtılmış Üretim Yapısı
Bir algoritmik karar, tek bir failin eylemi değildir. Kod geliştiriciler, veri sağlayıcılar, model tasarımcıları, sistem işletmecileri ve kullanıcılar arasında zamana yayılmış bir üretim sürecinin ürünüdür.
b) Öngörülemezlik
Özellikle makine öğrenmesi temelli sistemlerde, karar çıktısı önceden kesin olarak tahmin edilemez. Sistem, öğrenme süreci boyunca kendisini dönüştürür ve bu dönüşüm insan müdahalesi olmaksızın gerçekleşebilir.
c) Gerekçelendirme Sorunu
Hukuk, kararların yalnızca doğru olmasını değil, gerekçeli olmasını da talep eder. Ancak kara kutu niteliği taşıyan algoritmik sistemlerde, kararın hangi nedene dayandığını sonradan açıklamak çoğu zaman mümkün değildir.
Bu üç özellik birlikte değerlendirildiğinde, algoritmik kararların klasik hukukî karar tanımıyla tam olarak örtüşmediği görülür. Ancak bu durum, algoritmik kararların hukuk dışı bırakılmasını değil; hukuk teorisinin bu yeni olguya uyarlanmasını gerektirir.
II. İnsan Temelli Yaklaşım ve Araç Varsayımının Eleştirisi
1. Yapay Zekânın Araç Olarak Konumlandırılması
İnsan temelli yaklaşım, yapay zekâyı nihai olarak bir araç olarak tanımlar. Bu yaklaşıma göre algoritmik sistemler, ne kadar karmaşık olursa olsun, insan amaçlarını gerçekleştiren teknik vasıtalardan ibarettir. Dolayısıyla ortaya çıkan sonuçlardan her hâlükârda insanlar sorumludur.
Bu yaklaşımın cazibesi açıktır. Hukukî sorumluluğu insan dışı bir varlığa atfetme riskinden kaçınılır ve mevcut sorumluluk rejimleri korunur. Ancak bu yaklaşım, modern algoritmik sistemlerin fiilî işleyişiyle tam olarak örtüşmez.
Klasik araç anlayışı şu varsayıma dayanır: Araç, sonucu belirlemez; yalnızca failin iradesini dış dünyaya taşır.
2. Araç Varsayımının Çöküş Noktaları
Algoritmik sistemlerde insan, çoğu zaman:
- Sonucu değil, yalnızca başlangıç koşullarını belirler,
- Karar sürecini değil, yalnızca karar alanını tanımlar,
- Çıktıyı değil, yalnızca optimizasyon hedefini seçer.
Bu durumda ortaya çıkan kararın, doğrudan insan iradesinin bir uzantısı olduğu iddiası zayıflar. Yapay zekâ sistemleri, insan tarafından belirlenen çerçeve içinde, fakat insan tarafından tek tek öngörülmeyen yollarla karar üretir.
Eğer karar, insan tarafından bire bir belirlenmiyorsa; ancak sistem de hukukî özne olarak kabul edilmiyorsa, ortaya çıkan sonuç faili belirsiz bir karar hâline gelir. Bu belirsizlik, sorumluluk boşluğu probleminin çekirdeğini oluşturur.
3. İnsan Temelli Yaklaşımın Hukukî Yetersizliği
İnsan temelli yaklaşımın en temel sorunu, yapay zekâ destekli karar süreçlerinde insanın rolünü normatif olarak olduğundan daha belirleyici varsaymasıdır. Oysa fiilî karar alma süreçleri incelendiğinde, insan aktörlerin çoğu zaman kararın içeriğine değil, yalnızca sistemin kullanımına ilişkin genel çerçeveye müdahil oldukları görülmektedir.
Bu durum özellikle yüksek hacimli ve otomatik karar süreçlerinde belirgindir. İnsan, sistemin hangi alanda kullanılacağını belirler; ancak sistemin her bir somut olayda nasıl bir karar üreteceğini ne önceden tayin edebilir ne de sonradan anlamlı biçimde denetleyebilir. Bu hâlde insan temelli yaklaşım, sorumluluğu insan üzerinde toplarken, kararın fiilî üretim sürecini hukukî analiz dışında bırakmaktadır.
Böyle bir yaklaşım, sorumluluğu açıklamak yerine, onu görünürde çözen fakat gerçekte askıya alan bir işlev görür. İnsan sorumlu kabul edilir; ancak bu sorumluluğun hangi davranışa dayandığı, hangi normun ihlal edildiği ve ihlalin nasıl gerçekleştiği belirsiz kalır.
Dolayısıyla insan temelli yaklaşım, yapay zekâ çağında hukukî sorumluluğu korumak yerine, sorumluluğun gerekçelendirilmesini zayıflatan bir etki doğurmaktadır.
III. Sorumluluk Boşluğu Sorunu
1. Sorumluluk Boşluğunun Tanımı
Sorumluluk boşluğu, hukukî sonuç doğuran bir karar veya fiilin mevcut sorumluluk rejimleri içerisinde güvenilir biçimde herhangi bir özneye atfedilememesi durumunu ifade eder. Bu boşluk, ne kararın sonuçsuz kalması ne de zararın yok sayılması anlamına gelir; aksine zararın mevcut olduğu, fakat bu zarardan kimin sorumlu tutulacağı sorusunun cevapsız kaldığı hâlleri kapsar.
Yapay zekâ temelli karar sistemlerinde sorumluluk boşluğu, özellikle üç temel unsurun aynı anda zayıflamasıyla ortaya çıkar: nedensellik, öngörülebilirlik ve kusur.
2. Nedensellik Bağının Zayıflaması
Klasik hukuk teorisinde sorumluluk, fiil ile sonuç arasındaki nedensellik bağı üzerine kuruludur. Ancak algoritmik karar sistemlerinde zarar doğuran sonuç, tek bir fiilin ürünü değildir. Kodlama tercihleri, veri setleri, model mimarisi ve kullanım bağlamı arasında dağılmış bir nedenler ağı söz konusudur.
Bu yapı içerisinde belirli bir insan davranışının doğrudan zarara yol açtığını söylemek çoğu zaman mümkün değildir. Nedensellik, parçalanmış ve zamana yayılmış hâle gelir. Bu durum, klasik “şu fiil bu sonucu doğurdu” mantığını işlevsiz kılar.
3. Öngörülebilirlik İlkesinin Aşınması
Öngörülebilirlik, hem kusur sorumluluğunun hem de hukukî güvenliğin temel unsurlarından biridir. Bir kimsenin sorumlu tutulabilmesi için, davranışının muhtemel sonuçlarını makul ölçüde öngörebilmesi gerekir.
Oysa öğrenen algoritmalar bakımından, sistemin hangi somut durumda nasıl bir karar üreteceği önceden kesin olarak bilinememektedir. Bu durum, yalnızca kullanıcılar için değil, çoğu zaman geliştiriciler için de geçerlidir. Sonuçların bu denli belirsiz olduğu bir ortamda öngörülebilirlik varsayımı ciddi biçimde zayıflar.
4. Kusur Kavramının İşlevsizleşmesi
Kusur, normatif bir ihlali ifade eder. Ancak algoritmik karar süreçlerinde hangi davranışın norm ihlali oluşturduğu belirsizdir. İnsan, sistemi kullanmakla mı kusurludur? Geliştirici, öngöremediği bir sonuçtan dolayı mı kusurludur? Yoksa veri sağlayıcı, dolaylı etkilerden mi sorumludur?
Bu sorulara verilen cevaplar çoğu zaman varsayımsal kalmakta ve somut olaya uygulanabilirliklerini yitirmektedir. Böylece kusur kavramı, sorumluluk tesis eden bir araç olmaktan çıkmakta, soyut bir etik değerlendirme düzeyinde kalmaktadır.
5. Etik Süje Olmadan Hukukî Fail Mümkün mü?
Bu noktada temel bir ayrım yapılması gerekir: etik süjelik ile hukukî faillik aynı kavramlar değildir. Hukuk, tarihsel olarak etik süje olmayan varlıkları da sorumluluk rejimleri içerisine dâhil edebilmiştir. Tüzel kişiler, kusursuz sorumluluk hâlleri ve tehlike sorumluluğu bunun örnekleridir.
Dolayısıyla yapay zekânın etik süje olarak kabul edilmemesi, onun kararlarının hukukî olarak tamamen fail dışı bırakılmasını zorunlu kılmaz. Asıl mesele, yapay zekâ kararlarının hangi normatif kategoriye yerleştirileceğidir.
6. Alternatif Yaklaşımlar: Risk ve Fonksiyon Temelli Modeller
Sorumluluk boşluğunu aşmak için literatürde çeşitli modeller önerilmektedir. Bunlardan biri risk temelli sorumluluk yaklaşımıdır. Bu modele göre, belirli düzeyde risk yaratan yapay zekâ uygulamaları bakımından kusur aranmaksızın sorumluluk öngörülmelidir.
Bir diğer yaklaşım ise fonksiyonel fail modelidir. Bu modelde, kararın fiilî olarak hangi sistem tarafından üretildiği esas alınır ve sorumluluk, karar üretme fonksiyonunu yerine getiren yapı üzerinden değerlendirilir.
Bu modellerin ortak noktası, sorumluluğu ontolojik tartışmalara değil, kararın işlevsel etkilerine dayandırmalarıdır.
Sonuç
Algoritmik karar alma sistemlerinin hukuk düzeni içerisindeki konumu, yalnızca teknik ya da etik bir mesele değildir. Bu sistemler, doğrudan hukukî sonuçlar üretmekte ve bireylerin hak ve yükümlülüklerini etkilemektedir. Dolayısıyla yapay zekâ kararlarının hukukî meşruiyeti, mevcut sorumluluk teorilerinin sınırlarını zorlayan bir problem olarak ele alınmalıdır.
İnsan temelli yaklaşım, yapay zekânın etik süje olmadığı varsayımıyla hareket ederek sorumluluğu insan üzerinde toplamaya çalışmaktadır. Ancak bu yaklaşım, fiilî karar alma süreçlerini yeterince açıklayamamakta ve sorumluluk boşluğu sorununu çözmek yerine görünmez kılmaktadır.
Bu nedenle yapay zekâ çağında ihtiyaç duyulan şey, ne yapay zekâyı insanlaştırmak ne de onu tamamen araçsallaştırmaktır. İhtiyaç duyulan şey, karar alma olgusunu merkeze alan, nedensellik, öngörülebilirlik ve risk kavramlarını yeniden düşünen bir hukukî sorumluluk anlayışıdır.
Aksi hâlde hukuk, kararların fiilen algoritmalar tarafından verildiği bir dünyada, sorumluluğu yalnızca teorik düzeyde var olan bir insan iradesine dayandırmak zorunda kalacak; bu da hukukî meşruiyetin aşınmasına yol açacaktır.
Algoritmik karar alma sistemlerinin adalet duygusu üzerindeki etkisi, yalnızca hukukî sorumluluk ve meşruiyet sorunlarıyla sınırlı değildir; aynı zamanda adil yargılanma hakkı, eşitlik ve kararın insani boyutu gibi daha geniş etik ve felsefî soruları da gündeme getirmektedir. Yapay zekânın mahkeme kararlarında veya yargısal süreçlerde kullanılmasının doğurduğu bu gerilimler, daha erişilebilir bir perspektifle ele alınan
Adaletin Kodları: Yapay Zekâ Mahkeme Kararı Verebilir mi?
başlıklı yazımızda, algoritmik önyargı, kara kutu problemi ve hesap verebilirlik sorunu üzerinden ayrıca tartışılmıştır.
Teorik Bağlantı ve Kaynak Notu
Bu çalışma, yapay zekâ etiği ve hukukî sorumluluk tartışmalarında özellikle insan temelli yaklaşım, etik süjelik, hukukî sorumluluk ve deflasyonist görüş ekseninde yürütülen teorik tartışmalarla bilinçli bir bağlantı kurmaktadır .
Bu çerçevede, yapay zekânın etik süje olarak kabul edilip edilemeyeceği, etik sorumluluğun insan merkezli biçimde sınırlandırılmasının gerekçeleri ve bu yaklaşımın içsel tutarlılığına yönelik tartışmalar, daha önce kaleme alınmış bazı çalışmaların ortaya koyduğu teorik çerçeveyle ilişkilidir. Bu bağlamda, “Yapay Zekâ Etiğine İnsan Temelli Yaklaşımın Bir Eleştirisi” başlıklı çalışma, etik süjelik ve insan temelli yaklaşım tartışmalarını ele alan metinlerden biri olarak, eldeki çalışmanın teorik arka planıyla temas noktaları içermektedir.
Ancak eldeki çalışma, söz konusu makaledeki tartışmaları tekrar etmeyi veya özetlemeyi amaçlamamakta; bu teorik hattı esas alarak, algoritmik kararların hukukî meşruiyeti ve bu kararlar bağlamında ortaya çıkan sorumluluk boşluğu sorununu bağımsız bir problematik olarak ele almaktadır.
İlgili makalenin tam metnine aşağıdaki bağlantı üzerinden erişilebilir 👇
Yapay Zekâ Etiğine İnsan Temelli Yaklaşımın Bir Eleştirisi (PDF)





