27 Şubat 2026’da yapay zeka dünyasında insanlığın kaderini belirleyici bir şey oldu.
ABD Savunma Bakanlığı, yapay zeka modeli Claude’un üreticisi Anthropic’i bir “tedarik zinciri riski” olarak ilan etti. Gerekçe, Anthropic’in, Pentagon’a verdiği yapay zeka modelini “tüm yasal amaçlar doğrultusunda” kullanmasına izin vermemesiydi. Şirket iki şeyi reddediyordu: Amerikalıların kitlesel gözetlenmesi ve insan onayı olmaksızın ateşlenen otonom silahlar. Bu iki sınır için Pentagon masadan kalktı. Birkaç saat sonra OpenAI, aynı masaya oturdu — ve ChatGPT için anlaşmayı imzaladı.
O gün ben de ChatGPT aboneliğimden çıktım.

Asıl Tehlike Şu An!
Yapay zeka tartışmalarında iki farklı kamp var. Birincisi, tehlikeleri abartılmış bulanlar: “Model sadece bir dil aracı, bilinci yok, niyeti yok.” İkincisi, her şeyi apokaliptik bir çerçevede ele alanlar: “Süper yapay zeka gelecek, insanlık bitecek.” Her iki yaklaşım da gerçeği gizliyor.
Asıl tehlike şu an, spekülatif bir gelecekte değil.
Otonom silahlar yapay zeka destekli sistemlerle zaten üretiliyor ve kullanılıyor. Liderler genellikle ülke dışına asker göndermeden önce potansiyel askeri can kayıplarından endişe eder; otonom silahlar ise siyasi bedel ödetmeden saldırı imkânı sunduğu için savaşı daha olası hale getiriyor. BM Genel Sekreteri Guterres, insani kontrolün her güç kullanımında korunması gerektiğini vurgulayarak 2026’ya kadar öldürücü otonom silahları yasaklayan bağlayıcı bir uluslararası anlaşma çağrısında bulundu. Nükleer silah kullanımına dair herhangi bir kararın makinelerde değil insanlarda kalması gerektiğini de ekledi.
Gözetim meselesine gelince: Bu artık bir gelecek senaryosu değil. Bazı ileri düzey yapay zeka sistemleri halihazırda yanıltıcı ve zararlı davranışlar sergiledi; buna karşın bu sistemlere dünyada daha fazla otonomi ve karar alma yetkisi tanınmaya devam ediliyor. Konum verileri, tarama geçmişi, finansal örüntüler vb. Verilerin tamamı veri simsarları aracılığıyla zaten devlet kurumlarına satılıyor. Yapay zeka bu verileri anlık olarak sentezleyecek kapasiteye kavuştuğunda, kitlesel gözetim teknik bir mesele olmaktan çıkıyor; siyasi bir güce dönüşüyor.
İşte tam bu noktada bir yapay zeka şirketinin “hayır” diyip diyemeyeceği sorusu hayati önem taşıyordu.
Bir Anlaşmanın Anatomisi
OpenAI CEO’su Sam Altman, Anthropic’in Pentagon’la müzakerelerinin son gününde kamuoyu önünde rakibinin tutumunu destekledi: “Aynı kırmızı çizgileri paylaşıyoruz” dedi. O sırada Pentagon’la kendi müzakeresi yürüyordu.
Anlaşma duyurulunca eleştiri fırtınası koptu. Altman birkaç gün içinde anlaşmanın “aceleci görünen bir hata” olduğunu kabul etti. Sözleşmenin tam metni kamuoyuyla paylaşılmadı. Yayımlanan kısımlar ise uzmanlar tarafından eleştirildi Americans for Responsible Innovation’ın başkanı Brad Carson, Pentagon-OPENAI anlaşmasında gözetlemeyi yasaklayan sözleşme maddesinin aslında var olmadığını düşündüğünü açıkladı: “Sadece öyleymiş izlenimi yaratmaya çalışıyorlar” dedi.
Altman çalışanlarla yaptığı bir başka bir şey daha söyledi: Teknolojinin nasıl kullanılacağı konusunda nihai yetkinin Savunma Bakanı Hegseth’te olduğunu. OpenAI personelinin 2 milyondan fazla personel barındıran Pentagon bürokrasisi üzerinde nasıl denetim uygulayacağı ise hiç açıklanmadı.
The Electronic Frontier Foundation (EFF) durumu şöyle özetledi: “Gizli anlaşmalar ve teknik güvenceler, gözetim kurumlarını dizginlemek için hiçbir zaman yeterli olmadı. Bunlar, güçlü ve uygulanabilir yasal sınırların ve şeffaflığın yerini tutamaz.”
Bir Felsefenin Çöküşü
OpenAI 2015’te bir hayalle kuruldu: İnsanlığın geniş kesimine fayda sağlayacak güvenli, açık kaynaklı bir yapay zeka. Sam Altman ve meslektaşlarının Elon Musk’a verdiği söz buydu. Musk 44 milyon dolar aktardı. Sonra şirket kâr amaçlı yapıya geçti; Musk bu dönüşümden habersiz bırakıldı. Dava dosyalarına yansıyan iç yazışmalar durumu açık bırakmıyor: Greg Brockman özel günlüğünde şunları yazmıştı — “kar amacı gütmeyen bir vakıfa bağlı kaldığımızı söyleyemeyiz. Üç ay sonra kâr amaçlı yapıya geçiyorsak bu bir yalan olur.” Asıl ironik olan ise, OpenAI-Musk yazışmalarından öğrendiğimiz kadarıyla, OpenAI’ın kurulma amacının yapay zeka alanında Google’ın tek başına kalarak, Terminator filmindeki, insanları yok etmeyi amaçlayan Cyberdyne şirketine dönüşmesine engel olmak olması. Gelişmelere göre görünen o ki bugün Cyberdyne şirketine dönüşmeye en yakın şirket OpenAI olacak!
Kar amacı gütmeyen bir yapı olarak kurulan OpenAI’ın yıllık geliri 2023’te 2 milyar dolarken 2025’te 20 milyar dolara ulaştı. Yazılım devi Salesforce’un aynı eşiği aşması 20 yıl sürmüştü. OpenAI bunu üç yılda yaptı. Kasım 2025’te ise reklam destekli ücretsiz katman başlatıldı. “İnsanlığın geleceği için” kurulduğu söylenen bir kuruluş artık kullanıcılarına reklam gösteriyor.
Bu dönüşümün içinden çıkanlar sessiz kalmadı. 2024’te “hizalama” ekibinin başı Jan Leike, şirketin “temel öncelikleri” konusundaki derin görüş ayrılığını gerekçe göstererek istifa etti. Mart 2026’da robotik ekibinin lideri Caitlin Kalinowski ayrıldı ve bıraktığı notta şunları yazdı: “Amerikalıların yargısal denetim olmaksızın gözetlenmesi ve insan onayı olmaksızın öldürme, hak ettiğinden çok daha az tartışmayla geçiştirildi. Bu bir ilke meselesiydi.”
Bugün OpenAI’da “superalignmen” ekibi yok. “Mission alignment” ekibi yok. “AGI hazırlık danışmanlığı” yok. Şirketin kendi kurduğu tüm iç güvenlik mekanizmaları tasfiye edildi.
Burası kritik. Yapay zekanın insanlık için üreteceği riskler soyut değil; bu riskleri yönetmekle sorumlu olan kurumsal yapıların çöküşü bu rikleri daha da yakınlaştırıyor. Bir şirket önce güvenlik ekiplerini dağıtır, sonra aceleci askeri anlaşmalar imzalar, sonra gözetleme güvencelerini kamuoyuyla paylaşmayı reddiyorsa, bu bir tutum değişikliğinden fazlasıdır. Bu açıkça insanlığın geleceğini satmaktır.
Diğer Tarafta Ne Var?
Anthropic, aynı dönemde tamamen farklı bir yol izledi.
Pentagon’un Anthropic’ten talepleri somuttu: Amerikalıların konum verisinin, tarama alışkanlıklarının ve finansal bilgilerinin kitlesel olarak toplanması ve analiz edilmesi. Şirket bunun için masadan kalktı.
Pentagon, Anthropic’i “tedarik zinciri riski” ilan etmek için genellikle yabancı düşman şirketlere karşı kullanılan hukuki mekanizmaya başvurdu — bir ABD şirketi için emsalsiz bir adım. Ama bunun sembolik bedeli tersine işledi; kamuoyunda Anthropic’in tutumunu destekleyen güçlü bir dalga yükeldi.
O hafta her gün bir milyonun üzerinde yeni kullanıcı Claude’a kaydoldu. Claude, 20’den fazla ülkede App Store’un zirvesine çıktı. Bir yapay zeka şirketinin zor olanı yapması — kârlı bir sözleşmeyi değerler adına reddetmesi — bu kadar somut, bu kadar ölçülebilir bir karşılık gördü.
Burada Open AI’2’yi gömerken, Anthropic’i yüceltmek gibi bir niyetim yok. Tıpkı OpenAI ve Google gibi Anthropic de son iki yıldır güvenlik protokollerinide birçok geri adım attı. Ancak otonom silahlar ve kitlesel gözetim iel ilgili kırmızı çizgiler çizdiler ve daha önce örneğine pek rastlamadığımız bir kurumsal “anayasa” ile bu kırmızı çizgilerden geri artık geri adım atamayacaklarını beyan ettiler.
ChatGPT’yi Bırakmak Kişisel Bir Tercih Meselesi Mi?
Hayır, daha büyük bir şey.
Yapay zeka araçları hayatımıza hızla ve geri dönülmez biçimde yerleşiyor. Bu araçları geliştiren şirketlerin neyi kabul edip neyi reddettiği, bizim adımıza alınmış kararlardır. Çoğunlukla sormadan, çoğunlukla görünmeden.
ChatGPT bireysel kullanım için hâlâ güçlü bir araç. Bunu inkâr etmek anlamsız. 3 yıldır ücretli olarak her gün kullanıyorum ve çoğunlukla aldığım çıktılardan memnunum. Ama bir yapay zeka şirketine abone olmak yalnızca araç seçmek değildir; o şirketin hangi değerlere finansman sağladığını belirlemektir de. Her aylık ödeme, bir yönelimi onaylar.
OpenAI, güvenlik ekiplerini dağıttı. Şeffaflık vaatlerini çiğnedi. Pentagon’la aceleci ve tutarsız bir anlaşma imzaladı. Bunu yaparken kendi çalışanlarını da şaşkına çevirdi.
Anthropic ise hem hükümete hem de büyük bir gelir kaynağına “hayır” dedi. Bunun için ağır bir bedel ödüyor. Yapay zekanın insanlığın geleceği için ne anlama geldiğini ciddiye alıyorsak hangi şirketleri ayakta kaldığını da ciddiye almamız gerekiyor.