Yapay Zekâ Karar Verebilir mi, Yoksa Sorumluluk Hep İnsanda mı Kalmalı?
Yazının Giriş Tarihi: 21.03.2026 13:34
Yazının Güncellenme Tarihi: 21.03.2026 13:36
Teknolojinin baş döndürücü bir hızla ilerlediği bir çağda yaşıyoruz. Dün hayal olarak gördüğümüz pek çok şey bugün gündelik hayatımızın bir parçası haline geldi. Yapay zekâ ise bu dönüşümün en güçlü aktörlerinden biri olarak karşımızda duruyor. Peki, hukuk bu hızlı değişime ne kadar hazır? Daha da önemlisi: Yapay zekâ karar verebilir mi, yoksa sorumluluk her zaman insanda mı kalmalıdır?
Hukukun temelinde sorumluluk kavramı yer alır. Bir fiilin hukuki sonuç doğurabilmesi için o fiilin bir iradeye dayanması gerekir. İşte tam da bu noktada yapay zekâ ile ilgili en büyük tartışma başlar. Çünkü yapay zekâ, her ne kadar “öğrenebilen” ve “karar verebilen” sistemler olarak tanımlansa da, aslında kendi iradesine sahip değildir. Onu tasarlayan, geliştiren ve eğiten insanın izlerini taşır.
Bununla birlikte, gözden kaçırılmaması gereken çok önemli bir husus daha vardır: Hukuk yalnızca teknik bir değerlendirme alanı değildir; aynı zamanda vicdanla, empatiyle ve insani öngörüyle şekillenen bir disiplindir. Bir hâkimin karar verirken yalnızca mevzuata değil, olayın somut özelliklerine, tarafların durumuna ve toplum vicdanına da temas etmesi beklenir. İşte bu noktada yapay zekânın sınırları belirginleşmektedir.
Yapay zekâ, veriler üzerinden analiz yapabilir; ancak “vicdani kanaat” oluşturamaz. Bir insanın yaşadığı mağduriyeti hissedemez, pişmanlığı ölçemez, adalet duygusunun inceliklerini kavrayamaz. Aynı şekilde “duygusal öngörülebilirlik” dediğimiz, bir kararın bireyler ve toplum üzerindeki psikolojik etkilerini değerlendirme kapasitesi de yapay zekâ için oldukça sınırlıdır. Oysa hukuk, çoğu zaman satır aralarındaki bu insani unsurlar üzerinden anlam kazanır.
Öte yandan, mevcut hukuk sisteminin hiçbir değişikliğe ihtiyaç duymadığını söylemek de mümkün değildir. Özellikle yüksek risk içeren yapay zekâ uygulamaları için daha sıkı denetim mekanizmaları kurulmalı, şeffaflık ve izlenebilirlik ilkeleri zorunlu hale getirilmelidir. “Algoritmik sorumluluk” kavramı artık hukuk literatüründe daha fazla yer bulmalıdır.
Sonuç olarak, yapay zekâ karar verebilir; ancak bu kararların hukuki sorumluluğu bugünün koşullarında hâlâ insana aittir ve ait olmalıdır. Çünkü hukuk, sadece sonuçlarla değil, o sonuçların arkasındaki irade ve vicdan ile ilgilenir. Yapay zekâ ise henüz bir irade değil, bir araçtır; ve en azından şimdilik, adaletin insani boyutunu taşıyabilecek kapasiteden uzaktır.
Belki bir gün bu tartışmayı çok daha farklı bir noktada yapacağız. Ancak bugün için sormamız gereken soru şudur: Teknoloji geliştikçe sorumluluğu kim üstlenecek? Cevap açık görünse de, geleceğin hukukunu belirleyecek olan işte bu sorudur.
Sizlere daha iyi hizmet sunabilmek adına sitemizde çerez konumlandırmaktayız. Kişisel verileriniz, KVKK ve GDPR
kapsamında toplanıp işlenir. Sitemizi kullanarak, çerezleri kullanmamızı kabul etmiş olacaksınız.
En son gelişmelerden anında haberdar olmak için 'İZİN VER' butonuna tıklayınız.
Av.Kevser Yıldırım
Yapay Zekâ Karar Verebilir mi, Yoksa Sorumluluk Hep İnsanda mı Kalmalı?
Teknolojinin baş döndürücü bir hızla ilerlediği bir çağda yaşıyoruz. Dün hayal olarak gördüğümüz pek çok şey bugün gündelik hayatımızın bir parçası haline geldi. Yapay zekâ ise bu dönüşümün en güçlü aktörlerinden biri olarak karşımızda duruyor. Peki, hukuk bu hızlı değişime ne kadar hazır? Daha da önemlisi: Yapay zekâ karar verebilir mi, yoksa sorumluluk her zaman insanda mı kalmalıdır?
Hukukun temelinde sorumluluk kavramı yer alır. Bir fiilin hukuki sonuç doğurabilmesi için o fiilin bir iradeye dayanması gerekir. İşte tam da bu noktada yapay zekâ ile ilgili en büyük tartışma başlar. Çünkü yapay zekâ, her ne kadar “öğrenebilen” ve “karar verebilen” sistemler olarak tanımlansa da, aslında kendi iradesine sahip değildir. Onu tasarlayan, geliştiren ve eğiten insanın izlerini taşır.
Bununla birlikte, gözden kaçırılmaması gereken çok önemli bir husus daha vardır: Hukuk yalnızca teknik bir değerlendirme alanı değildir; aynı zamanda vicdanla, empatiyle ve insani öngörüyle şekillenen bir disiplindir. Bir hâkimin karar verirken yalnızca mevzuata değil, olayın somut özelliklerine, tarafların durumuna ve toplum vicdanına da temas etmesi beklenir. İşte bu noktada yapay zekânın sınırları belirginleşmektedir.
Yapay zekâ, veriler üzerinden analiz yapabilir; ancak “vicdani kanaat” oluşturamaz. Bir insanın yaşadığı mağduriyeti hissedemez, pişmanlığı ölçemez, adalet duygusunun inceliklerini kavrayamaz. Aynı şekilde “duygusal öngörülebilirlik” dediğimiz, bir kararın bireyler ve toplum üzerindeki psikolojik etkilerini değerlendirme kapasitesi de yapay zekâ için oldukça sınırlıdır. Oysa hukuk, çoğu zaman satır aralarındaki bu insani unsurlar üzerinden anlam kazanır.
Öte yandan, mevcut hukuk sisteminin hiçbir değişikliğe ihtiyaç duymadığını söylemek de mümkün değildir. Özellikle yüksek risk içeren yapay zekâ uygulamaları için daha sıkı denetim mekanizmaları kurulmalı, şeffaflık ve izlenebilirlik ilkeleri zorunlu hale getirilmelidir. “Algoritmik sorumluluk” kavramı artık hukuk literatüründe daha fazla yer bulmalıdır.
Sonuç olarak, yapay zekâ karar verebilir; ancak bu kararların hukuki sorumluluğu bugünün koşullarında hâlâ insana aittir ve ait olmalıdır. Çünkü hukuk, sadece sonuçlarla değil, o sonuçların arkasındaki irade ve vicdan ile ilgilenir. Yapay zekâ ise henüz bir irade değil, bir araçtır; ve en azından şimdilik, adaletin insani boyutunu taşıyabilecek kapasiteden uzaktır.
Belki bir gün bu tartışmayı çok daha farklı bir noktada yapacağız. Ancak bugün için sormamız gereken soru şudur: Teknoloji geliştikçe sorumluluğu kim üstlenecek? Cevap açık görünse de, geleceğin hukukunu belirleyecek olan işte bu sorudur.