İçeriğe geç
Anasayfa » BLOG » Yapay Zeka ile Beynimizi Koruyarak Nasıl Çalışırız?

Yapay Zeka ile Beynimizi Koruyarak Nasıl Çalışırız?

Geçen hafta gazeteci Barış Doğru’nun 17. Amaç Youtube kanalına konuk oldum. Yapay zekanın insan üzerinde etkilerini konuştuk. Türkiye yapay zeka kullanımını en yaygın olduğu ülkelerden birisi olmasına rağmen, birçok insanın bu teknolojiden nasıl etkilendiği konusunda farkındalığının düşük olduğunu, bu konuların kamuoyunda fazla konuşulmadığından bahsettik. Yapay zekanın insan ve toplum üzerindeki etkileri önemli olduğu acil de bir konu.

Microsoft’un 2024 İş Eğilimleri Endeksi’ne göre bilgi çalışanları, görevlerinin ortalama %42’sini yapay zekaya devretmiş durumda. E-postada bu oran %67, toplantı özetlerinde %71. Rakam çarpıcı görünüyor,  ama asıl çarpıcı olanı başka bir veri.

Aynı kuruluşlar karar verme hızlarını %63 artırmış. Aynı dönemde alınmış kararların geri alınma oranı ise %22 yükselmiş. Yani daha hızlı düşünüyoruz. Daha doğru değil.

Konfor ve verimliliğin her zaman bir bedeli olur. Bu, “verimlilik” diye pazarlanan şeyin gizli bedeli.

Genişletilmiş zihin, ya da prangalanmış zihin

Andy Clark ve David Chalmers’ın “Genişletilmiş Zihin” hipotezi, dış araçların zihinsel kapasitemizin doğal bir uzantısı olduğunu söyler. Defter, hesap makinesi, harita… ve şimdi yapay zeka. Teorik olarak zihni genişletiyoruz.

Pratikte ne yaptığımızı ise Sparrow ve arkadaşlarının 2011’de Science‘ta yayımlanan çalışması gösterdi: Bilginin “dışarıda bir yerde” olduğunu bilmek, hafıza kodlama bölgelerimizdeki nöral aktivasyonu düşürüyor. Adına “Google Etkisi” denildi. UC San Francisco’dan nörobilimci Adam Gazzaley’in araştırmaları ise daha tedirgin edici bir şey söylüyor: Sürekli yapay zeka aracılı bilgi tüketimi, dikkat ağlarımızı yeniden yapılandırıyor.

Genişletilmiş zihin, bir bakıma, prangalanmış zihne dönüşebiliyor.

Aradaki fark, öğrenme psikolojisinde “arzu edilen zorluklar” (desirable difficulties) ilkesinin ihlal edilip edilmediği. Zihin sürtünmeyle güçlenir; yapay zeka sürtünmeyi tamamen yok ettiğinde, zihin de zayıflamaya  başlar.

Yedi günde yarıya inen bilgi

Amsterdam Üniversitesi’nden Jaap Murre’nin verileri sarsıcı: Yapay zeka desteğiyle öğrenilen bilgiler, geleneksel yöntemle öğrenilenlere göre %34 daha hızlı unutuluyor. Yedinci günün sonunda kayıp %50’ye ulaşıyor. Çaba gerektiren çalışmada bu oran sadece %23.

Daha önemlisi, 1930’lardan 1980’lere süren IQ artışı (Flynn Etkisi) birkaç gelişmiş ülkede durmakla kalmadı, tersine dönmeye başladı. 17-25 yaş grubunda yapay zeka bağımlılığı ile düşük eleştirel düşünme puanları arasında güçlü bir negatif korelasyon görüyoruz.

Bilişsel egemenliğimizin sessiz bir iflası bu. Ama mesele yalnızca bilişsel değil.

Duygusal yazarlık kaybı

Pascal Mowla’nın “duygusal yazarlık kaybı” diye adlandırdığı şey tam burada devreye giriyor: Birey, yapay zeka aracılığıyla aslında hissetmediği bir samimiyeti taklit etmeye başladığında, kendi diyakronik eylemliliği (zaman içindeki öz-tutarlılık) parçalanıyor. Ioana Literat’ın saptaması ise aynı tehlikenin başka bir adı: linguistik akıcılığı (fluency) güvenilirlikle (reliability) karıştırma eğilimi.

Yapay zeka akıcı konuşuyor. Bu, doğru söylediği anlamına gelmiyor. Ama akıcılık bizi ikna ediyor ve bu, hem psikolojik bağımlılığın hem de fikirsel homojenleşmenin temelinde yatan tek bir bilişsel hata.

Ne yapacağız?

Yapay zekayı reddetmek ne mümkün ne de istenir. Onu bir “ikame” değil, bir “iskele” olarak kullanmak. IEEE’nin etik ilkelerinde formüle edildiği gibi: yapay zeka insan yargısını ikame etmek için değil, güçlendirmek (augment) için tasarlanmalı.

Bunun için üç pratik öneri:

Birincisi, çalışma rejimimizde düzenli “analog dönemler” kurmak. Yapay zekasız çalışılan saatler. Çalıştırılmayan kas körelir; çalıştırılmayan zihin de.

İkincisi, süreç odaklı değerlendirme. Sadece çıktıya değil, o çıktıya nasıl varıldığına bakmak. Sorgulamanın derinliğine, eleştirel sürtünmeye prim vermek.

Üçüncüsü, kendi “bilişsel denetimimizi” kurmak. Yapay zeka desteği olmadan ne yapabildiğimizi düzenli olarak test etmek. Bağımlılık boşluklarını kapatmak.

Yapay zekâyla çalışmak, beyni dış kaynağa vermek değil; beyne yeni bir muhatap kazandırmak olmalı.

Gelecek, düşünme yetisini algoritmaya kurban edenlerin değil, algoritmayı kendi zihninin bir uzantısı olarak, eleştirel biçimde, yönetenlerin olacak.

Soru basit: Hangisi olmak istiyorsunuz?

Kaynaklar

Brynjolfsson, E. & McAfee, A. (2024). Yapay zekâ entegrasyonunun karar verme hızı ve müzakere kalitesi üzerindeki etkileri. MIT araştırması. Aktaran: Andre, R. (2025). Cognitive Offloading in the Age of AI: The New Digital Dependency. LinkedIn. https://www.linkedin.com/pulse/cognitive-offloading-age-ai-new-digital-dependency-andre-r6lbe

Clark, A. & Chalmers, D. (1998). The Extended Mind. Analysis, 58(1), 7–19. Aktaran: Digital Watch (2025). Cognitive Offloading and the Future of the Mind in the AI Age. https://dig.watch/updates/cognitive-offloading-and-the-future-of-the-mind-in-the-ai-age

Gazzaley, A. (2024). Sürekli yapay zekâ aracılı bilgi tüketiminin dikkat ağları üzerindeki etkileri. UC San Francisco, 890 katılımcılı çalışma. Aktaran: Andre, R. (2025). LinkedIn.

Gerlich, M. (2025). Yapay zekâ kullanımı ve eleştirel düşünme arasındaki korelasyon: yaş ve eğitim faktörleri. Aktaran: IE Center for Health and Well-Being (2025). AI’s Cognitive Implications: The Decline of Our Thinking Skills. https://www.ie.edu/center-for-health-and-well-being/blog/ais-cognitive-implications-the-decline-of-our-thinking-skills/

IEEE. (2019). Ethically Aligned Design: A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems (1. Baskı). IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems.

Literat, I. (2025). Akıcılık ve güvenilirlik: yapay zekâ çıktılarının algılanması üzerine değerlendirme. Teachers College, Columbia University. Aktaran: Experts Caution Against Using AI Chatbots for Emotional Support (Aralık 2025). https://www.tc.columbia.edu/articles/2025/december/experts-caution-against-using-ai-chatbots-for-emotional-support/

Microsoft. (2024). Work Trend Index 2024: Copilot AI kullanan 31.000 kuruluşun analizi. Aktaran: Andre, R. (2025). LinkedIn.

Mowla, P. (2025). Generative AI and Emotional Outsourcing: Deceiving Others and Ourselves. Public Ethics. https://www.publicethics.org/post/generative-ai-and-emotional-outsourcing-deceiving-others-and-ourselves

Murre, J. (2024). Yapay zekâ destekli ve desteksiz öğrenmede unutma eğrileri. Amsterdam Üniversitesi. Aktaran: Andre, R. (2025). LinkedIn.

Oakley, B. ve diğerleri. (2025). Flynn etkisinin tersine dönüşü ve bilişsel yükün dış kaynağa devri. Aktaran: Policy Options (Eylül 2025). How AI Is Eroding Human Memory and Critical Thinking. https://policyoptions.irpp.org/2025/09/ai-memory/

Sparrow, B., Liu, J. & Wegner, D. M. (2011). Google Effects on Memory: Cognitive Consequences of Having Information at Our Fingertips. Science, 333(6043), 776–778.

Yorum Yapın...

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Bu site istenmeyenleri azaltmak için Akismet kullanır. Yorum verilerinizin nasıl işlendiğini öğrenin.