Bir deney
2011 yılında Eli Pariser küçük ama çarpıcı bir deney yaptı. İki arkadaşına aynı arama motorunda “BP” yazdırdı. Birinin ekranında şirketin hisse fiyatları çıktı. Diğerinde Meksika Körfezi’ni kirleten petrol ile ilgili haberler. Aynı kelime, aynı an, iki ayrı dünya.
Pariser bunu filtre balonu olarak adlandırdı ve şunu öngördü: Algoritmalar bize yalnızca görmek istediğimizi gösterirse, ortak gerçeklik zeminiz çöker.
Aradan on dört yıl geçti. O öngörü kısmen doğrulandı ancak yanlış bir soruya yanıt veriyordu.

Yanlış soru
Filtre balonu araştırmaları genellikle şunu ölçtü: İnsanlar karşı görüşlere maruz kalıyor mu?
Yanıt çoğunlukla şaşırtıcı: Evet, kalıyorlar. 2025 yılında PNAS’ta yayımlanan ve yaklaşık 9.000 katılımcıyla dört deney yürüten araştırma, YouTube algoritmasını kasıtlı olarak kutuplaştırıcı biçimde ayarlasalar bile bunun katılımcıların görüşlerini anlamlı ölçüde değiştirmediğini gösterdi. Algoritmik kişiselleştirmenin kendi başına insanları izole ettiği iddiası ampirik zeminden yoksun kaldı.
Ama bu bulgu “tehlike yok” anlamına gelmez. Aksine, bize asıl soruyu sormayı öğretiyor:
Sorun algoritmalar gerçekliği seçiyor muydu? Yoksa asıl tehlike algoritmalar gerçekliği üretmeye başladığında mı ortaya çıkıyor?
İşte 2026’nın sorusu bu.
Nitel bir sıçrama
2011’de algoritmalar kuratoryal bir işlev üstlenmişti: Var olan içerikten seçiyor, sıralıyor, öne çıkarıyordu. Aslında bir editörün işini, ok daha hızlı ve çok daha büyük ölçekte yapıyordu. Üretken yapay zekayla bu ilişki tersine döndü.
Artık algoritmalar içeriği seçmekle yetinmiyor. Sıfırdan üretiyor. Carnegie Endowment’ın 2024 raporunun çarpıcı ifadesiyle: Üretken yapay zeka, insan dilini anlayan ve özerk biçimde içerik üretebilen ilk teknolojidir ve bu üretilen içerik, kaynağı ayırt edilemez biçimde gerçek içerikle iç içe geçiyor.
2022’den bu yana metin-görsel algoritmalarıyla 15 milyarın üzerinde görüntü üretildi. Her gün ortalama 34 milyon yeni yapay zeka görseli oluşturuluyor. Kamusal bilgi ortamı artık yalnızca insan deneyiminin kaydından oluşmuyor; kendi kendini üreten modellerin çıktılarıyla da dolup taşıyor.
Bu nitel bir farktır. Filtre balonu bir editoryal tercih sorunuydu. Bu, gerçekliğin dokusuna ilişkin bir sorudur.
Öfkenin ekonomisi
Ama algoritmik sistemlerin içeriği nasıl dağıttığını da göz ardı etmemek gerekiyor.
Asıl sorun kişiselleştirme değil, kişiselleştirmenin optimize edildiği metrik yani etkileşim. Algoritmalar bize ilgimizi çekeni değil, bizi ekrana bağlı tutanı öne çıkarıyor. Ve araştırmalar, insanları en uzun süre ekrana bağlayan içeriklerin öfke, korku ve ahlaki şok uyandıranlar olduğunu tutarlı biçimde gösteriyor.
Shoshana Zuboff bu dinamiği gözetim kapitalizminin özü olarak tanımlıyor: Davranışı tahmin etmek artık yetmiyor, onu şekillendirmek daha kârlı görünüyor. Algoritmalar bizi ilgi alanlarımıza göre değil, duygusal tepkilerimize göre optimize ediyor.
TikTok algoritmasını ters mühendislik yöntemiyle denetleyen Shin ve Jitkajornwanich’in 2024 tarihli araştırması bu dinamiği somut biçimde gösterdi: Platformun öneri sistemi, başlangıçta ana akım içerikle başlayan kullanıcıları zaman içinde, komplo teorileri, hiper-partizan söylem, dezenformasyon gibi aşırılık içeriklerine doğru kademeli olarak kaydırıyor. Algoritma bunu bilinçli olarak yapmıyor; etkileşimi optimize ediyor ve öfke etkileşim getiriyor.
Epistemik mimari
Buraya kadar anlattıklarım belki tanıdık geliyor. Ama asıl derin meseleye henüz gelmedim.
Springer’da yayımlanan “Yapay Zeka ve Epistemik Özerklik” araştırması şunu ortaya koydu: Algoritmik sistemler yalnızca içerik filtrelemez, inanç oluşturma ve revize etme süreçlerini de şekillendirir. Kimse seni doğrudan bir şeye inandırmıyor. Ama epistemik çevren yani hangi bilgilerin görünür olduğu, hangi argümanların makul göründüğü, hangi kaynakların güvenilir sayıldığı sistematik olarak farklılaşıyor.
Ve işte üretken yapay zekayla bu süreç yeni bir boyut kazanıyor: Artık yalnızca içeriğin dağıtımı değil, içeriğin üretimi de bu epistemik mimarinin parçası. Carnegie Endowment’ın raporunun uyarısı tam burada önem kazanıyor: Yapay zeka içerikleri kendi kendine referans veren döngüsel bir bilgi ekosistemine dönüşebilir.
Ortak gerçeklik zemininin çöküşü, filtre balonunun öngördüğü gibi insanların farklı şeyler görmesinden değil; insanların gördükleri farklı şeylerin gerçek olduğuna inanmasından kaynaklanıyor.
Karşı görüşlere maruz kalmak kutuplaşmayı azaltmıyor
Filtre balonu araştırmalarının gözden kaçırdığı kritik bir bulgu var: Karşı görüşlere maruz kalmak bazen kutuplaşmayı azaltmıyor, aksine artırıyor.
X (Twitter) deneyleri bunu tutarlı biçimde gösterdi: Muhalif görüşlerin yoğun akışına maruz bırakılan katılımcıların siyasi pozisyonları yumuşamak yerine sertleşti. Sebebi anlaşılır: Algoritmik ortamda çerçevelenen içerik, savunmacı ve reaktif bir alımlamayla karşılanıyor. Maruz kalmak önemli değil; nasıl maruz kalındığı belirleyici.
Bu noktada Heidegger’in teknoloji felsefesine dönmek gerekiyor: Çerçeveleme yalnızca neyi gördüğümüzü değil, neyi nasıl gördüğümüzü de belirliyor. Epistemik çevre şekillendiğinde, içerikleri nasıl işlediğimiz de şekilleniyor. Ve bu çevreyi artık yalnızca editoryal tercihler değil, sıfırdan içerik üretebilen sistemler inşa ediyor.
Ortak zemin
Geçtiğimiz haftalarda vefat eden Alman siyaset felsefecisi Habermas’ın müzakereci demokrasi teorisi bir önkoşul koyar: Birlikte karar verebilmek için olgularda uzlaşmak şart değildir ama tartışılabilir ortak bir zemin gereklidir. Argümanlar aynı gerçeklik içinde dolaşıma girmeli
Bu zemin erozyona uğradığında ne olur? Yalnızca farklı görüşler değil, farklı gerçeklikler ortaya çıkar. Ve farklı gerçekliklerde yaşayan insanlar arasında müzakere değil, ancak güç mücadelesi mümkün olur.
2025’te yayımlanan “Algoritmik Toplumda Müzakereci Demokrasi” araştırması üç somut zarar saptıyor: Algoritmalar söylemsel adacıklar yaratarak kapsayıcılığı zayıflatıyor; dezenformasyonu yayarak kamusal müzakerenin kalitesini düşürüyor; ve botlar ile sentetik içerik aracılığıyla bireysel düşünce kapasitesini aşındırıyor.
Bu üçüncü zarar dikkat çekici. Bir önceki yazıda ele aldığımız bilişsel atrofi meselesi burada siyasal bir boyut kazanıyor.
Soruyu yeniden sormak
Filtre balonu sorusu şuydu: Algoritmalar bizi birbirimizden izole ediyor mu?
Doğru soru şu: Algoritmalar ve üretken yapay zeka, bireysel ve kolektif ortak gerçeklik üretme kapasitemizi nasıl dönüştürüyor?
Bu soruya bakıldığında tehlikenin ölçeği farklı görünüyor. Sorun seçim değil üretim. Sorun izolasyon değil fabrikasyon. Ve bu fark, hem bireysel özerklik hem demokratik katılım açısından önemli sonuçlar doğuruyor.
Beşinci yazıda o sonuçların en somut tezahürüne geçiyorum: Algoritmik sistemler ve yapay zeka, bugün 20. Yüzyıl demokrasinin ayakta kalan son kurumlarından olan seçim sandığını nasıl dönüştürüyor?
Referanslar
- Pariser, E. (2011). The Filter Bubble: How the New Personalized Web Is Changing What We Read and How We Think. Penguin Press.
- Liu, N. vd. (2025). Recommendation algorithms have limited effects on political opinions in experimental settings. PNAS, Şubat 2025.
- Carnegie Endowment for International Peace. (2024). Can Democracy Survive the Disruptive Power of AI?
- Shin, D. & Jitkajornwanich, K. (2024). How algorithms promote self-radicalization: Audit of TikTok’s algorithm using a reverse engineering method. Social Science Computer Review, 42(4).
- Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.
- Danaher, J. vd. (2022). Democracy, epistemic agency, and AI: Political epistemology in times of artificial intelligence. AI and Ethics. Springer Nature.
- Bail, C. vd. (2018). Exposure to opposing views on social media can increase political polarization. PNAS, 115(37).
- Tanımlar, A. vd. (2025). Deliberative democracy in an algorithmic society: Harms, contestations and deliberative capacity in the digital public sphere. Democratization, Temmuz 2025.
Bu yazı “Yapay Zeka, İnsan ve Toplum” serisinin dördüncü yazısıdır.
Serideki diğer yazılar:
Yazı 1 — Yapay Zeka Bir Araç Değil, Altyapıdır
Yazı 2 — Makineye Devredilen Ben
Yazı 3 — Düşünmeyi Unutan Nesil: Yapay Zeka ve Bilişsel Atrofi
Yazı 4 — Paralel Evrenler: Algoritmik Hiper-Kişiselleştirme Toplumu Nasıl Parçalıyor?
Yazı 5 — Oy Veren Robot: Yapay Zeka Çağında Demokratik Katılım (26 Mart 2026)
Yazı 6 — İnsan Kalmak: Yapay Zeka Çağında Özerkliği Korumak (31 Mart 2026)