Küçük bir deney
Şu soruyu bir düşünün: Bugün aldığınız kararların kaçta kaçı gerçekten sizin kararlarınızdı?
Sabah haberlere baktığınızda hangi haberlerin önünüze geldiğine siz mi karar verdiniz? Bir restorana gideceğinizde o restoranı kim seçti? Siz mi, yoksa arama motoru mu? İş yerinde bir rapor yazarken içeriği, yapıyı, hatta üslubu kim belirledi?
Bu sorular ürkütücü olmak zorunda değil. Ama bir şeyin üzerinde düşünmemizi sağlıyor: Karar verme süreci giderek daha fazla insan ile makine arasında paylaşılıyor. Ancak bu paylaşımın sessiz, görünmez bir maliyeti var.

Otomasyon önyargısı: Makinenin yanılmayacağını sandığımızda
1990’larda havacılık araştırmacıları tuhaf bir örüntü fark etti: Otomatik pilota sahip uçaklarda pilotlar, sistemin açıkça yanlış bilgi verdiği durumlarda bile zaman zaman otomatik pilotu takip ediyordu. Sisteme olan güven, kendi yargılarını bastırıyordu.
Araştırmacılar Linda Skitka ve Kathleen Mosier bu olguya otomasyon önyargısı adını verdi: İnsanların otomatik sistemlerin çıktılarını eleştirmeksizin takip etme ve bunlarla çelişen bilgileri görmezden gelme eğilimi. Yani “makine önerdi, makinenin bildiği bir şey vardır” düşüncesiyle kendi değerlendirme sürecini askıya alma.
Bu bulgu o günden bu yana onlarca farklı alanda tekrarlandı.
Sağlıkta: Deneyimli radyologların bile yapay zeka tanı sisteminin yanlış teşhisini kabul ettiği görüldü.
Hukukta: Yargıçların risk değerlendirme algoritmalarının önerilerini sorgulamadan benimsediği belgelendi.
Kamu yönetiminde: Sosyal yardım sistemlerinde görevli memurların algoritmanın kararlarına körce uyduğu gözlemlendi.
Oxford Academic’te 2023 yılında yayımlanan ve kamu sektörü karar vericilerini inceleyen bir araştırma, bu eğilimin iki biçimde tezahür ettiğini ortaya koydu: Ya algoritmaya koşulsuz itaat, ya da seçici uyum, yani algoritmayı yalnızca kendi önyargılarımızı desteklediğinde benimseme. Her iki durumda da gerçek anlamda bağımsız bir değerlendirme yapılmıyor.
Peki neden?
“Algoritma öyle dedi” cümlesi yalnızca bir bilgi aktarımı değil, aynı zamanda bir sorumluluk devridir.
Bilişsel tembellik mi, yoksa daha derin bir şey mi?
İlk bakışta açıklama basit: İnsanlar düşünmek istemez, en kolay yolu seçer. Buna bilişsel tembellik deniyor. İnsan zihinsel olarak yorucu işlerden kaçınma eğiliminde.
Ama bu açıklama yüzeysel kalıyor. Çünkü araştırmalar önemli bir şeyi daha ortaya koyuyor: İnsanlar makineyle karar paylaştıklarında yalnızca düşünmekten kaçınmıyor, aynı zamanda sorumluluktan da kaçınıyor.
Psikolojide sorumluluğun yayılması denen bir olgu var: Bir görevi başkalarıyla paylaştığımızda, o göreve yönelik kişisel sorumluluk hissimiz azalıyor. Bu başlangıçta sadece insanlar arasında gözlemlenmişti. Ancak araştırmalar aynı mekanizmanın insanlar ile makineler arasında da işlediğini gösteriyor: Bir yapay zeka sistemiyle karar paylaşan kişiler, o kararın sonuçlarından kendilerini daha az sorumlu hissediyor.
Bu neden önemli? Çünkü sorumluluk hissi azaldığında, eleştirel değerlendirme de azalıyor. “Algoritma öyle dedi” cümlesi yalnızca bir bilgi aktarımı değil, aynı zamanda bir sorumluluk devridir.
Siyaset felsefecisi Michael Sandel bunu şöyle ifade ediyor: Algoritmik karar almanın çekiciliği, öznel insan yargısını ve önyargısını aşmanın nesnel bir yolu gibi görünmesinden kaynaklanıyor. Oysa algoritmalar çoğunlukla toplumsal önyargıları yeniden üretiyor. Hem de bu kez bilimsel bir nesnellik kisvesiyle.
Sorumluluk boşluğu ve ahlaki körleşme
Hukukçular bu duruma sorumluluk boşluğu diyor: Bir yapay zeka sistemi zararlı bir karar verdiğinde, kim sorumlu tutulacak? Sistemi tasarlayan mühendis mi? Sistemi satın alan kurum mu? Kararı onaylayan insan mı? Yoksa sistemi kullanan kullanıcı mı?
Bu belirsizlik rastlantısal değil. Bir ölçüde sistemin mimarisinden kaynaklanıyor. Bu belirsizlik, karar alma süreçlerindeki ahlaki boyutu giderek aşındırıyor.
Shannon Vallor, 2015 tarihli makalesinde buna ahlaki körleşme (moral deskilling) diyor: Yapay zeka ahlaki kararları giderek bizim adımıza alırken, insanlar bu kararları verme kapasitesini yavaş yavaş kaybediyor. Tıpkı GPS kullandıkça yön duyusunun körelmesi gibi. Ancak çok daha derinde, çok daha önemli bir şeyde.
Bunu soyut bir tehdit olarak değil, gündelik bir süreç olarak düşünmek gerekiyor. Her gün onlarca küçük karar makineye devrediliyor: Bugün ne izleyeceğim? Bu metni nasıl yazayım? Bu kişiye ne cevaplayayım? Bu küçük devirler tek başına önemsiz görünüyor. Ama 2024’te Nature dergisinde yayımlanan bir analiz, bu süreçlerin toplamının karar alma ataleti yarattığını ortaya koyuyor: Kişi, özellikle pratik önemi olan kararlar söz konusu olduğunda bile, algoritmadan bağımsız düşünme kapasitesini kaybetmeye başlıyor.
Türkçede ilginç bir ifade var: “Kendi kendine karar veremez.” Bu bir eleştiridir. Çünkü kendi kendine karar verebilmek, yetişkin ve özgür bir bireyin temel niteliklerinden biri olarak görülür.
Kimlik meselesi: Kararlarım olmadan ben kimim?
Buraya kadar anlattıklarım teknik ya da psikolojik bir sorun gibi görünebilir. Ama asıl soru daha derine gidiyor: Karar verme süreci yalnızca bir problem çözme mekanizması değil, kimliğin nasıl inşa edildiği ile doğrudan ilgili.
Biz kararlarımızla varız. Sabah kahvemi sütlü mü şekersiz mi içeceğimi seçmek önemsiz bir karar. Ama hangi değerlere sadık kalacağımı, kiminle ilişki kuracağımı, hangi işi yapacağımı, nasıl bir insan olacağımı seçmek… Bunlar sadece tercihler değil, beni ben yapan şeyler. Felsefede buna özerklik deniyor: İnsan onurunun özünü oluşturan, kendi hayatını kendi değerleriyle yönlendirme kapasitesi.
Şimdi şunu düşünelim: Bu kararların giderek artan bir bölümü makinelere devredildiğinde ne oluyor?
Türkçede ilginç bir ifade var: “Kendi kendine karar veremez.” Bu bir eleştiri. Çünkü kendi kendine karar verebilmek, yetişkin ve özgür bir bireyin temel niteliklerinden biri olarak görülüyor. Yapay zekanın bizi götürdüğü yön, bu niteliği giderek daha az pratik ettiğimiz bir dünyadır.
Devir her zaman aktif bir tercih değil
Bu sürecin en dikkat çekici yanı şu: Karar yetkisini makineye devretmek çoğu zaman bilinçli bir tercih değil. Sessizce, kümülatif olarak, sezinlemeden gerçekleşiyor.
Bir öğretim üyesi sınava hangi soruların gireceğine artık yapay zekaya sorduktan sonra karar veriyor. Bir işe alım uzmanı aday listesini algoritmanın sıraladığı şekilde inceliyor. Bir doktor tedavi kararında sistemin önerisini temel alıyor. Bir gazeteci haberin hangi açıdan yazılacağını analitik araçların gösterdiği verilerden çıkarıyor.
Her bir vakada “ben karar verdim” denebilir. Ve bu kısmen doğru görünebilir. Bununla beraber, asıl karar çerçevesi yani ne değerlendirileceği, hangi seçeneklerin göründüğü, neyin önemli sayıldığı çoktan algoritma tarafından belirlenmiştir.
Logg, Minson ve Moore’un 2019 tarihli araştırması bunu algoritma beğenisi (algorithm appreciation) olarak adlandırıyor: İnsanların algoritmaları benzer nitelikteki insanlardan daha güvenilir bulma eğilimi. Bu eğilim kendi kendini pekiştiriyor: Algoritmalara ne kadar güvenirsek, kendi yargımıza o kadar az güveniriz. Ve kendi yargımıza ne kadar az güvenirsek, algoritmalara güvenme eğilimimiz o kadar artar.
Bu bizi nereye götürüyor?
İlk yazıda teknolojinin nasıl görünmez bir altyapıya dönüştüğünü anlatmıştım. Bu yazıda o altyapının bireysel düzeydeki somut etkisini gördük: Karar alma sürecinin giderek dışarıya devredilmesi ve bunun psikolojik, ahlaki ve kimliksel maliyetleri.
Bir noktayı tekrar açıklamak istiyorum: Yapay zekanın karar destekleme işlevine karşı değilim. Bir doktorun karmaşık sonuçları yorumlamada yapay zekadan yardım alması, bir araştırmacının geniş veri setlerini analiz etmesi, bir öğrencinin metinleri daha iyi anlaması için kullanması… Bunlar bana göre sorun değil.
Sorun, bu araçların karar çerçevesini ele geçirmesi ve insanın kendi yargısını askıya almasıdır. “İnsan döngü içinde” (human in the loop) ifadesi bugün kurumsal yapay zeka yönetişiminin standart bir ilkesi haline geldi. Ama araştırmalar gösteriyor ki insan bazen döngü içinde yalnızca onay mekanizması olarak yer alıyor, gerçek bir değerlendirici olarak değil.
O zaman şu soruyu sormak gerekiyor: Döngü içindeki insanın kararlarını gerçekten kendi değerlendirmesine dayandırabilmesi için ne gerekiyor?
Bu soruya doğrudan yanıt vermeden önce bir adım geri çekilmek istiyorum. Bir sonraki yazıda karar verme meselesini değil, düşünme meselesini ele alacağım. Çünkü sorun sadece kararlarımızı devretmek değil: Giderek daha az düşünüyor olabiliriz. Ve bu, çok daha sessiz ama çok daha derin bir dönüşüm.
Referanslar
- Skitka, L. & Mosier, K. (1996). Automation bias and complacency in automated systems. Ergonomics.
- Alon-Barkat, S. & Busuioc, M. (2023). Human-AI interactions in public sector decision making: automation bias and selective adherence. Journal of Public Administration Research and Theory, 33(1), 153–169.
- Vallor, S. (2015). Moral deskilling and upskilling in a new machine age: reflections on the ambiguous future of character. Philosophy & Technology, 28(1), 107–124.
- Logg, J., Minson, J. & Moore, D. (2019). Algorithm appreciation: people prefer algorithmic to human judgment. Organizational Behavior and Human Decision Processes, 151, 90–103.
- Sandel, M. (2020). Ethical concerns mount as AI takes bigger decision-making role. Harvard Gazette.
- Humanities and Social Sciences Communications (2024). Inevitable challenges of autonomy: ethical concerns in personalized algorithmic decision-making. Nature Portfolio.
- Frontiers in Psychology (2023). Check the box! How to deal with automation bias in AI-based personnel selection.
Bu yazı “Yapay Zeka, İnsan ve Toplum” serisinin ikinci yazısıdır.
Serideki diğer yazılar:
Yazı 1 — Yapay Zeka Bir Araç Değil, Altyapıdır (yayınlandı)
Yazı 2 — Makineye Devredilen Ben: Karar Vermeyi Bırakmak Ne Anlama Geliyor?
Yazı 3 — Düşünmeyi Unutan Nesil: Yapay Zeka ve Bilişsel Atrofi (21 Mart 2026)
Yazı 4 — Paralel Evrenler: Algoritmik Hiperişiselleştirme Toplumu Nasıl Parçalıyor? (24 Mart 2026)
Yazı 5 — Oy Veren Robot: Yapay Zeka Çağında Demokratik Katılım (26 Mart 2026)
Yazı 6 — İnsan Kalmak: Yapay Zeka Çağında Özerkliği Korumak (31 Mart 2026)
İletişim: ozgur@kamra.com.tr
Bağlantı: linkedin.com/in/ozgurkurtulus