İçeriğe geç
Anasayfa » BLOG » Oy Veren Robot: Yapay Zeka Çağında Demokratik Katılım

Oy Veren Robot: Yapay Zeka Çağında Demokratik Katılım

2024: İnsanlık tarihinin en büyük seçim yılı

2024, seçim yoğunluğu bakımından insanlık tarihinin en olağan dışı yılıydı. 72 ülkede 3,7 milyar seçmen oy kullanma hakkına sahipti. ABD, Hindistan, Avrupa Parlamentosu, Endonezya, Meksika, Güney Afrika… Küresel nüfusun yarısından fazlası sandığa gidecekti.

Ve tüm bu seçimlerde yapay zeka ilk kez sistematik biçimde sahne aldı.

Sonuçlar beklentilerden daha temkinliydi. Harvard Ash Center’ın analizi şunu ortaya koydu: Deepfake’ler ve yapay zeka destekli dezenformasyon beklenen felaketi yaratmadı. Hiçbir seçimin kaderini değiştirdiği kanıtlanamayan bir operasyon olmadı.

Ama “felaket gerçekleşmedi” cümlesi, “tehlike yok” anlamına gelmiyor. Çünkü seçimler üzerindeki doğrudan etki, yapay zekanın demokrasiye yönelttiği daha derin tehdidi gölgeliyor.

Üç somut vaka

Slovakya, Ekim 2023

Seçimden iki gün önce bir ses kaydı dolaşıma girdi. Kayıtta liberal Progressive Slovakia partisinin lideri seçimi manipüle etmeyi tartışıyor gibi gösteriliyordu. Hızlıca sahte olduğu anlaşıldı ama mesajlaşma uygulamaları üzerinden yayılan kayıt, düzeltmelerden çok daha hızlı yayıldı. Parti yakın bir seçimde kaybetti. Deepfake’in rolü belirsiz kalıyor ancak güveni sarstığı kesin.

Hindistan, Mayıs 2024

Dünyanın en büyük seçiminde (yaklaşık 600 milyon seçmen), seçmenler arasında ünlü isimlerin iktidar partisini eleştirdiğini gösteren yapay zeka üretimi videolar yayıldı. Seçim Komisyonu’nun raporuna göre bu içerikler yaklaşık 5.800 WhatsApp grubu üzerinden 15 milyondan fazla kişiye ulaştı. İçerikler yerel dil çeşitliliğine uygun tasarlanmıştı; her gruba kendi dilinde, kendi bölgesel kaygılarını yansıtan bir versiyon gönderildi.

New Hampshire, Ocak 2024

ABD Demokratik ön seçimi öncesinde yaklaşık 25.000 seçmen, Başkan Biden’ın sesini taklit eden yapay zeka üretimi bir robocall aldı. Ses, seçmenlere oy kullanmamaları gerektiğini söylüyordu. İşlem hızla fark edildi ve sorumlular hukuki işlemle karşılaştı. Ama 25.000 kişi mesajı aldı ve önemli bir bölümü gerçek olduğunu düşündü.

Bir kampanyanın milyonlarca seçmenle, her biriyle bireysel olarak, kendi değerlerine ve kaygılarına göre özelleştirilmiş bir argümanla konuşabildiğini hayal edin.

Deepfake’lerin ötesi: Asıl tehdit ikna kapasitesi

Bu vakalar dikkat çekici. Bununla birlikte, asıl tehditi temsil eden örnekler değil. Çünkü dikkatimiz deepfake’lerin göze çarpan sahteliğine odaklandığında, çok daha sessiz ve çok daha etkili bir mekanizmayı gözden kaçırıyoruz: Yapay zekanın ikna kapasitesi.

Nature dergisinde Aralık 2025’te yayımlanan ve üç seçim dönemini kapsayan araştırma (2024 ABD başkanlık seçimi, 2025 Kanada federal seçimi ve 2025 Polonya cumhurbaşkanlığı seçimi), son derece çarpıcı bulgular ortaya koydu. Katılımcılar rastgele olarak bir adayı savunan yapay zeka modeliyle sohbet etti. Sonuç: Adaya yönelik tercih üzerindeki etki, geleneksel seçim reklamlarından anlamlı biçimde büyük çıktı.

Dahası araştırmacılar, bu iknanın nasıl gerçekleştiğini de inceledi. Yapay zeka modelleri karmaşık psikolojik manipülasyon teknikleri kullanmıyordu. Temel argümanlarla, gerçeklerle ve kanıtlarla ikna ediyorlardı. Yani tehdit, yapay zekanın manipülatif olmasından değil, ikna edici olmasından kaynaklanıyor.

Şimdi bunu ölçeklendirin: Bir kampanyanın milyonlarca seçmenle, her biriyle bireysel olarak, kendi değerlerine ve kaygılarına göre özelleştirilmiş bir argümanla konuşabildiğini hayal edin.

Yalancının temettüsü

Deepfake tartışmasında genellikle göz ardı edilen bir dinamik var: Sahte içeriğin değil, gerçek içeriğin sahte sayılabileceği risk.

Munich Security Conference’ın analizi bu durumu “yalancının temettüsü” (liar’s dividend) olarak adlandırıyor: Yapay zeka üretimi içeriğin yaygınlaştığı bir ortamda, gerçek içerik de yapay zeka üretimi olduğu iddiasıyla reddedilebilir hale geliyor.

Hindistan’ın 2024 seçim kampanyasından somut bir örnek: Bir adayın kendi partisini eleştirdiği gerçek bir ses kaydı, bağımsız doğrulama yapılmış olmasına rağmen, yapay zeka ürünü olduğu iddiasıyla defalarca yayıldı.

Bu paradoks, derin bir epistemik sorunu işaret ediyor: Artık yalnızca sahte içeriklere değil, gerçek içeriklerin de şüpheyle karşılandığı bir bilgi ortamına giriyoruz. Ve bu, dördüncü yazıda ele aldığımız epistemik fragmantasyonun seçim pratiğine yansıması.

Journal of Democracy’de 2026 başında yayımlanan bir makale bu tehlikeyi şöyle özetliyor: Yapay zeka ikna makinesini kullanan tarafın seçimi kazanması halinde, kaybeden taraf ve uluslararası gözlemciler “gerçek bir demokratik ifadeye mi, yoksa teknolojik olarak güçlendirilmiş bir darbeye mi” tanıklık ettiklerini sorgulamaya devam edecek.

Daha az görünen boyut: Sivil katılımın aşınması

Seçim etkisinin ötesinde, daha az tartışılan ama daha kapsamlı bir boyut var: Yapay zeka sivil katılımın gündelik dokusunu nasıl dönüştürüyor?

Carnegie Endowment’ın 2024 raporu bu dönüşümü şöyle çerçeveliyor: Üretken yapay zeka, insan dilini anlayan ve özerk biçimde içerik üretebilen ilk teknolojidir. Bu nedenle, gazetecilikten siyasi kampanyalara, sivil toplum iletişiminden seçmen eğitimine kadar, kamusal söylemin her katmanını dönüştürebilecek yetenektedir.

Habermas’ın müzakereci demokrasi teorisi, demokratik meşruiyetin özünün kamusal akıl yürütme olduğunu savunur: Vatandaşların ortak kaygılar üzerinde, eşit katılım koşullarında, akla dayalı argümanlarla müzakere etmesi. Bu süreç için ortak gerçeklik zeminini paylaşmak ve siyasi özerkliği korumak temel koşullardır.

Yapay zeka bu koşulların her ikisini de baskı altına alıyor. Ortak gerçeklik zemini, önceki yazıda ele aldığımız epistemik fragmantasyonla aşınıyor. Siyasi özerklik ise hem dezenformasyon hem de ikna kapasitesinin ölçeklenebilirliğiyle tehdit altına giriyor.

Bu yazı dizisinde kurmaya çalıştığım kavramsal bağlantı şimdi netleşiyor: Karar verme kapasitesini makineye devreden, düşünme kapasitesi zayıflayan, ortak gerçekliği parçalanmış bir vatandaş, siyasi ikna karşısında da daha savunmasız.

Yapay zekanın demokratik potansiyeli

Ancak yapay zeka ile ilgili her toplumsal konuda olduğu gibi yapay zekanın demokrasi üzerindeki etkisi de tek yönlü değil.

Düşünmek gerekirse: Demokrasinin kadim sorunu nedir? Ölçek. Ya birkaç kişiyle derinlemesine konuşursun, ya da milyonlarla yüzeysel. Yapay zeka destekli araçlar bu ikilemi ilk kez gerçekten aşmanın önünü açıyor.

Tayvan bu konuda yıllar içinde ciddi bir laboratuvara dönüştü. 2014’te kurulan vTaiwan platformu, Pol.is adlı bir araç üzerinden büyük ölçekli vatandaş müzakereleri yürütüyor. Platformun tasarımı dikkat çekici: Katılımcılar birbirinin yorumlarına doğrudan yanıt veremiyor. Bu küçük bir kısıtlama gibi görünüyor ama etkisi büyük; platformun algoritması kutuplaştırıcı ifadeleri bastırıp uzlaşmayı öne çıkarıyor. Uber düzenlemesinden telif hakkı meselelerine uzanan 26 ulusal konuda kullanılan platformun müzakerelerinin yüzde sekseninden fazlası somut hükümet kararlarına dönüştü. Aralık 2024’te ise Tayvan’ın yapay zeka temel yasası taslağı için vatandaş görüşleri toplandı. Teknoloji politikasını yine teknoloji aracılığıyla şekillendirme girişimi.

2020’de Stanford Müzakereci Demokrasi Laboratuvarı ile Şili Senatosu ortaklığında 500’ü aşkın vatandaş çevrimiçi ortamda sağlık ve emeklilik reformlarını tartıştı. Platformdaki yapay zeka aracının görevi içerik üretmek değildi; konuşma sürelerini izleyerek herkese eşit söz hakkı tanımaktı. Bu küçük ama önemli bir ayrım. Geleneksel kamusal tartışmalarda güçlü söyleyen her zaman çok söyler; sistem zaten var olan güç asimetrilerini yeniden üretir. Yapay zeka burada kuralı değil, eşit katılım koşulunu güvence altına aldı.

Fransa ise farklı bir soruyu yanıtlıyor: Milyonlarca vatandaş katkısını politika yapıcıların anlayabileceği bir dile nasıl dönüştürürsün? 2019’daki Grand Débat National’da 2 milyonu aşkın katkı toplandı ve yapay zeka bu ölçeği politika sürecine taşıyacak biçimde sentezledi. Yapay zeka burada kararı değil, sesi görünür kılıyordu.

2024 Tokyo valilik seçiminde ise çok farklı bir potansiyel gün yüzüne çıktı. Elli altı adayın yarıştığı kalabalık seçimde bağımsız aday Takahiro Anno, seçmenlerden gelen 8.600 soruyu yanıtlayan bir yapay zeka avatarı kullandı ve beşinci oldu. Büyük kampanya bütçeleri olmaksızın, yalnızca erişilebilir araçlarla binlerce seçmenle bireysel düzeyde ilişki kurabilmek, demokratik katılımın finansal engellerine karşı henüz erken ama gerçek bir yanıt.

Bu dört örneğin ortak paydası şu: Yapay zeka hiçbirinde kararı üstlenmedi. Söz sırası belirledi, uzlaşıyı görünür kıldı, ölçeği yönetti, erişimi genişletti. Teknoloji platformun merkezine değil, insan müzakeresinin hizmetine konuldu.

Yapay zeka bu örneklerde demokrasiyi güçlendiren bir potansiyel taşıyor: Karmaşık politika belgelerini erişilebilir biçimde özetleyebiliyor, yanlış bilgiyi gerçek zamanlı olarak doğrulayabiliyor, dezavantajlı seçmenleri siyasi süreçlere dahil edebiliyor ve büyük ölçekli müzakere platformlarını mümkün kılabiliyor. Araştırmacılar, YZ destekli müzakere platformlarının katılımcıların ortak zemin bulmasını kolaylaştırdığını gösterdi. Bu potansiyel de gerçek ve göz ardı edilmemeli.

Ama seçim nerede yapılıyor?

Teknoloji değil teknolojiyi nasıl kullandığımız demokrasi üzerindeki etkisini belirler. Bu, ilk yazıdan bu yana taşıdığım temel argüman.

Yapay zeka ikna kapasitesini demokratik iletişimin kalitesini artırmak için de kullanılabilir, seçmen özerkliğini aşındırmak için de. Deepfake’ler gerçeği çarpıtmak için de kullanılabilir, sahte içerikleri tespit etmek için de.

Belirleyici olan, bu teknolojiyi kim geliştiriyor, kim düzenliyor ve kim denetliyor. AB Yapay Zeka Yasası, dijital platformları düzenleyen DSA, çeşitli ülkelerin seçim kampanyalarında deepfake kullanımını kısıtlayan yasal düzenlemeler… Bunlar umut verici başlangıçlar. Ama hem seçim döngülerinin hem de teknolojik dönüşümün hızına yetişmekte zorlanıyorlar.

Bu bizi nereye götürüyor?

Bu seride beş yazıda giderek genişleyen bir tablo çizdik: Yapay zekanın bireysel bilişsel kapasiteyi, karar alma özerkliğini, düşünme kapasitesini, ortak gerçeklik zeminini ve demokratik katılımı nasıl dönüştürdüğünü anlamaya çalıştık.

Her yazıda aynı çizgiyi korumaya çalıştım: Bu bir felaket senaryosu değil. Yapay zekanın tehdit boyutları gerçek ama potansiyeli de gerçek. Sorun teknolojide değil, teknolojiyle kurduğumuz ilişkide.

Bu serinin son yazısında bu ilişkiyi yeniden kurmaktan söz edeceğim. Tehdidin ötesinde, fırsatın içinde: İnsan özerkliğini yapay zeka çağında korumak ne anlama geliyor, ne yapabiliriz?

Referanslar

  • Costello, T.H. vd. (2025). Persuading voters using human-artificial intelligence dialogues. Nature, 648, 394–401.
  • Harvard Ash Center. (2024). The apocalypse that wasn’t: AI was everywhere in 2024’s elections.
  • Munich Security Conference. (2024). AI-pocalypse Now? Disinformation, AI, and the super election year.
  • Carnegie Endowment for International Peace. (2024). Can Democracy Survive the Disruptive Power of AI?
  • Journal of Democracy. (2026). The AI Democracy Dilemma.
  • PMC / Frontiers in Artificial Intelligence. (2025). AI-driven disinformation: Policy recommendations for democratic resilience.
  • Habermas, J. (1996). Between Facts and Norms: Contributions to a Discourse Theory of Law and Democracy. MIT Press.
  • Frontiers in Political Science. (2024). AI-generated misinformation in the election year 2024: Measures of the European Union.
  • Brennan Center for Justice. (2024). Gauging the AI Threat to Free and Fair Elections.
  • Emerald Publishing. (2025). The impact of disinformation generated by AI on democracy: US presidential elections 2016 & 2024.

Bu yazı “Yapay Zeka, İnsan ve Toplum” serisinin beşinci yazısıdır.

Serideki diğer yazılar:

Yazı 1 — Yapay Zeka Bir Araç Değil, Altyapıdır

Yazı 2 — Makineye Devredilen Ben

Yazı 3 — Düşünmeyi Unutan Nesil: Yapay Zeka ve Bilişsel Atrofi

Yazı 4 — Paralel Evrenler: Algoritmik Hiper-Kişiselleştirme Toplumu Nasıl Parçalıyor?

Yazı 5 — Oy Veren Robot: Yapay Zeka Çağında Demokratik Katılım

Yazı 6 — İnsan Kalmak: Yapay Zeka Çağında Özerkliği Korumak (31 Mart 2026)

Yorum Yapın...

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Bu site istenmeyenleri azaltmak için Akismet kullanır. Yorum verilerinizin nasıl işlendiğini öğrenin.