10-11 Şubat tarihlerinde Paris’te düzenlenen Yapay Zeka Eylem Zirvesi, yapay zekanın olumsuz toplumsal etkilerinin ne kadar ciddi ve yakın olduğunu gözler önüne serdi. Zirve sonrasında yayınlanan kapsayıcı ve sürdürülebilir yapay zeka hakkındaki bildiri 60’tan fazla ülke tarafından imzalanırken, ABD ve İngiltere tarafından desteklenmedi.
İngiltere’nin bir “yapay zeka alıcısı” yerine “yapay zeka üreticisi” olmasını hedefleyen ve toplumsal kaygıları göz ardı eden “İngiltere Yapay Zeka Fırsatları Eylem Planı” ile Amerika’da genel yapay zeka (AGI) oluşturmak için bir “Manhattan Projesi” planı, bu iki devletin bu bildiriyi neden imzalamadığı hakkında bir fikir veriyor. Görünen o ki, yapay zeka alanındaki küresel rekabet her türlü güvenlik endişesinin önüne geçmiş durumda.
Yapay Zeka’daki Temel Meseleler
Yapay zeka, son iki yıldır her yerde karşımıza çıkıyor. Sosyal medyada kimin içeriklerini göreceğimize, hangi filmi izleyeceğimiz, aldığımız tıbbi tedavilere, banka kredisi alıp almayacağımıza kadar hayatımızı büyük ve küçük şekillerde etkileyen kararlar alıyor. Her geçen gün yapay zekanın hayatımıza daha fazla dahil olduğunu görüyoruz. Bir yapay zeka türü olan ChatGPT, Gemini, DeepSeek gibi büyük dil modelleri, gündelik dildeki sorularımıza yanıtlar veriyor, ihtiyaç duyduğumuz içerikleri;, müzikleri, resimleri ve videoları üretiyor. Bizim için mektuplar ve şarkılar yazıyor.
Ancak yapay zeka teknolojisine daha geniş bir bakış açısıyla bakıldığında şu meseleler ön plana çıkıyor:
- Yapay zekanın, inovasyonun ve gelecekteki refahın önemli bir destekleyicisi olarak görülmesi – ancak bu süreçte toplumsal değişimler yaratması ve bu değişimlerin eşit şekilde paylaşılmaması,
- Yapay zekanın insan müdahalesi olmadan görevleri otonom bir şekilde yerine getirmesi – hatta hayati kararlarda bile insan iradesini devre dışı bırakması,
- Genel Yapay Zeka (AGI) arayışı – yapay zekanın tüm bilişsel alanlarda insanları aşması ve belki de insan kontrolünün ötesine geçmesi.
Yapay zekanın güvenliğiyle ilgili temel meseleleri – gizlilik, güvenlik ve kötüye kullanım potansiyeli gibi – ele almanın gerekliliği bir miktar kabul görse de daha geniş çaplı konular ya göz ardı edilmekte ya da “inovasyon-karşıtı” olarak küçümsenmekte.
Sorumlu Yapay Zekanın Sonu mu?
Risklerin bir miktar kabul edildiğini, örneğin son birkaç yılda hem İngiltere’de hem de ABD’de Yapay Zeka Güvenlik Enstitüleri kurulması yönünde adımlar atıldığını ve Dünya Ekonomik Forumu’nun Yapay Zeka Yönetim İttifakı gibi oluşumların ortaya çıktığını görüyoruz. İngiltere Başbakanı Keir Starmer, Yapay Zeka Fırsatları Eylem Planı’nı duyurduğu konuşmasında, “Yapay zekayı regüle etmeden önce test edip anlayacağız… Bu teknolojinin güvenli olduğundan emin olacağız” dedi. Ancak onun bakış açısında, düzenleme “bilime dayalı ve orantılı” olmalı… çünkü “küçük bir risk korkusu nedeniyle… büyük bir fırsatı kaçırıyorsunuz.”
Bu regülasyon ve güvenlik anlayışı, yapay zekanın gerçekten sorumlu bir şekilde geliştirilmesi ve uygulanmasını gerektiren daha geniş toplumsal etkilerini göz ardı ediyor. Yapay zekadan kaynaklanan risk, onun “güvenli” bir şekilde çalışmaması değil, aksine amacına uygun bir şekilde çalışıp öngörülemeyen, beklenmedik sonuçlara yol açmasıdır.
MIT Technology Review’da yayınlanan bir makalede, Nathan E. Sanders ve Bruce Schneier, “teknolojinin yeni sevgilisi yapay zekadır” diyorlar ve bunun dünyayı birçok yönden değiştirme potansiyeline sahip olduğunu belirtiyorlar ve bu durumun daha önce de yaşandığını söylüyorlar. 2011’de sosyal medya, Arap Baharı olarak bilinen demokratik ayaklanmaları desteklemesi nedeniyle övgü almıştı. Şimdi ise sosyal medya, yanlış bilgi yayma, akıl sağlığına zarar verme ve belki de seçimleri etkileme nedeniyle suçlanıyor. “Yapay zeka konusunda sosyal medyada yaptığımız hataları tekrarlamayalım” diyorlar.
Ne yazık ki, büyük miktarda para ve küresel güç rekabeti söz konusu olduğunda ve hükümetlerin yapay zekada “bir numaralı” ülke olma yarışına girmesiyle, sorumlu yapay zeka yaklaşımı kolaylıkla bir kenara itiliveriyor..
Yeni Soğuk Savaş
Hollywood’un “kötü niyetli bir Skynet” tarzı süper zeka senaryolarının aksine, asıl ve acil tehlike, hayatımızın birçok alanının yakında yapay zeka tarafından kontrol edileceği ve bu kararlar üzerinde insanların yeterli bir denetim sağlayamayacağı gerçeğidir.
‘Yapay zeka savaşı’ hükümetler ve büyük, çoğunlukla ABD merkezli, şirketler tarafından yönlendirilmektedir. Jeopolitik faktörler de bu süreçte önemli bir rol oynuyor. Yeni Soğuk Savaş olarak adlandırılan bu dönemde ABD-Çin Ekonomik ve Güvenlik İnceleme Komisyonu, Çin’in kilit teknolojilerde ABD’yi geçebileceği endişesiyle, Kongre’ye İkinci Dünya Savaşı’ndaki Manhattan Projesi’ne benzer bir program oluşturup finanse etmesini tavsiye etti. Amaç, ABD’nin Genel Yapay Zeka (AGI) liderliğini sürdürmek için “AGI kapasitesine ulaşmak ve bu kapasiteyi kazanmak”tır.
Orijinal Manhattan Projesi atom bombasını geliştirmişti. O dönemde bilim insanları, bir nükleer bombanın atmosferi tutuşturacağından ciddi endişeler duyuyorlardı; ancak hesaplamalar bunun oldukça düşük bir ihtimal olduğunu veya imkansız olduğunu gösterdi Yapay zeka ile ilgili de benzer kontrol sorunları bulunmaktadır. Fakat yapay zeka teknolojisinin babalarından sayılan Nobel ödüllü Geoffrey Hinton’a göre bu risk, nükleer bombadakinden çok daha olasıdır.
Şu anda bir Yapay Zeka Silahlanma Yarışı yaşanıyor. 21 Ocak 2025’te Başkan Trump’ın ilk eylemlerinden biri, SoftBank, OpenAI, Oracle ve Emirati yatırım firması MGX’in de aralarında bulunduğu yatırımcıların katkısıyla 500 milyar dolarlık bir fonla başlatılan Stargate Projesi’nin duyurusu oldu. Paris Zirvesi’nde Başkan Macron, Fransız yapay zeka gelişimlerine özel sektör tarafından toplam 109 milyar avroluk yatırım yapılacağını duyurmuştu. İngiltere ise Yapay Zeka Fırsatları Eylem Planı doğrultusunda benzer bir taahhütte bulundu. Bu arada, Çin, açık kaynak DeepSeek yapay zeka modeliyle ABD’nin yapay zeka hegemonyasını sarstı.
İngiltere’nin Eylem Planı’nın teknoloji girişimcisi Matt Clifford tarafından yazılmış olması da dikkat çekici. Planın temel ilkelerinden biri şudur: “Yenilikçilerin yanında olun: Eylem Planı’nın her bir unsurunda hükümet, ‘Bu, Birleşik Krallık’ta yeni ve iddialı şeyler yapmaya çalışan insanlara ve organizasyonlara fayda sağlıyor mu?’ sorusunu sormalıdır. Eğer sağlamıyorsa, potansiyelimize ulaşamayız.”
Bu oldukça riskli bir strateji. Yapay zekanın başarısı, iş dünyasına ve ‘yenilikçilere’ ne kadar fayda sağladığına göre değil, insanlığa ne kadar fayda sağladığına göre değerlendirilmeli. Yapay zeka ve AGI savaşını durdurmak veya yavaşlatmak adına bir umut varsa, bu uluslararası iş birliğinden doğacaktır. Future of Life Institute başkanı Max Tegmark tehditi açık bir şekilde ifade ediyor: “AGI yarışı bir intihar yarışı olur çünkü AGI doğası gereği kontrol edilemez.”
Büyük teknoloji şirketleri sorumluluk ilkelerinden vaz mı geçiyor?
2024 yılının başlarında, yapay genel zekayı (AGI) “güvenli ve faydalı” bir şekilde geliştirme misyonuna sahip olduğunu belirten OpenAI, modellerinin silah geliştirme veya askeri uygulamalar için kullanılmasına yönelik yasaklarını gevşetmiş ve Ekim ayında, “misyonumuza sadık kalarak” ulusal güvenlik konularında çalışmaya hazır olacağını duyurmuştu. OpenAI, bunun “özgürlük, adalet ve insan haklarına saygı gibi değerlerle yönlendirilen demokratik ülkelerde” yapay zeka liderliğinin korunmasına yardımcı olacağını savunuyordu. Ancak bu son birkaç ayki gelişmeler sonunda, OpenAI’ın kuruluş sözleşmesinde belirtilen ve “yapay genel zekanın… tüm insanlığa fayda sağlamasını” hedefleyen misyonundan ne kadar uzaklaştığını görülebiliyor.
OpenAI 2019’dan bu yana Microsoft ile iş birliği içinde; bu ortaklık Microsoft’un, Gazze’deki katliama yönelik İsrail askeri operasyonlarına büyük ölçüde destek sağlayan Azure AI hizmetlerini kapsıyor. Microsoft, OpenAI’ın önemli bir yatırımcısı olarak fikri mülkiyetine erişim hakkına sahip. Ortaklıklarında yapılan son değişikliklere rağmen, OpenAI’ın programlama arayüzü hala yalnızca Microsoft’un Azure bulut platformunda bulunuyor.
Aralık 2024’te ise OpenAI’ın, askeri teknoloji şirketi Anduril ile stratejik bir ortaklık yaparak insansız hava araçlarına karşı (anti-drone) sistemler geliştireceği duyuruldu. Bunun, “ABD ve Çin arasında yapay zeka alanında dünya lideri olma yarışının hızlanmasına” bir yanıt olduğu iddia ediliyor. Askeri alanda çalışmak kârlı olabilir ve şüphesiz siyasi açıdan akıllıca görünebilir; ancak “müşteriniz ABD ordusu olduğunda, teknoloji şirketleri ürünlerinin nasıl kullanılacağını belirleyemez”.
Geleceğe Doğru
Yapay zeka savaşına ve hızla değişen dünya jeopolitik durumuna rağmen, sorumlu yapay zekadan vazgeçme girişimleri karşılıksız kalmıyor. Bunlar arasında, Future of Life Institute (FLI) gibi toplum kuruluşlarının müdahaleleri, Yoshua Bengio, Stuart Russell ve Geoffrey Hinton gibi yapay zeka alanındaki akademik liderlerin çabaları ve AB Yapay Zeka Yasası ile İngiltere Ulusal Güvenlik Enstitüsü gibi hükümet eylemleri yer alıyor. Buna karşın, ABD Yapay Zeka Güvenlik Enstitüsü’nün kaderi şu anda ciddi şekilde belirsiz görünüyor. Kaliforniya’nın SB 1047 olarak bilinen Frontier Yapay Zeka Modelleri için Güvenli ve Güvenilir İnovasyon Yasası vali Gavin Newsom tarafından veto edildi. Ancak raporlara göre bu veto, büyük yapay zeka modellerine yönelik sınırlı odaklanma ve henüz emekleme aşamasındaki bir teknolojiyi düzenlemenin zorluklarıyla ilgili kaygılar nedeniyle gerçekleşti. Son olarak, Paris Yapay Zeka Zirvesi’nde ABD Başkan Yardımcısı JD Vance, “Yapay zeka sektörünün aşırı düzenlenmesinin, sektör daha yeni gelişmeye başlamışken, bu dönüştürücü sektörü öldürebileceği” uyarısında bulundu. Ancak gelişmekte olan bir teknolojiyi düzenlemenin zorlukları yalnızca yapay zeka ile sınırlı değil; eskiden beri bu böyle ve hiçbir şey yapmamak için bir bahane olmamalı.
Paris Yapay Zeka Zirvesi, İnsanlar ve Gezegen İçin Kapsayıcı ve Sürdürülebilir Yapay Zeka Bildirgesi ile sona erdi. ABD’nin ve İngiltere’nin bildiriyi imzalamayı reddetmesinin ardında, her türlü düzenlemeye direnç göstermelerinin yanı sıra, “Amerika’nın avantajını korumak için Trump yönetiminin en güçlü yapay zeka sistemlerinin ABD’de, Amerikan tasarımı ve üretimi çiplerle inşa edilmesini sağlayacağı” yönündeki ısrarları yatıyor. Trump zihniyetinin, sosyal medyadaki dezenformasyonla mücadele için yapılan düzenleme girişimlerine de uzun süredir sansür olarak baktığını biliniyor.
Paris Yapay Zeka Zirvesi ardından taraflar daha net hale geldi. Bir yanda her türlü yapay zeka düzenlemesine agresif şekilde karşı çıkan ve “Önce Amerika” yaklaşımını savunan ABD yer alıyor. Diğer yanda ise Avrupa Birliği, Afrika Birliği, Birleşik Arap Emirlikleri, Güney Afrika da dahil olmak üzere Afrika ülkeleri ve Hindistan bulunuyor. Bu grup, çeşitlilik, çok paydaşlılık, insan haklarına dayalı, insan merkezli, etik, güvenli, emniyetli ve güvenilir yapay zekayı destekleme kararlılığını birlikte ilan etti. Çin’in tavrı belirsizliğini korurken, İngiltere’nin konumu ise bu iki kutup arasında bir yerde görünüyor.