Suç ve Kötülük için Tasarlanan Yapay Zeka Modelleri: WormGPT ve FraudGPT

yazan: Özgür Kurtuluş

Son birkaç yılda yapay zeka (YZ) teknolojisi ve üretken yapay zeka araçları (ÜYZ) baş döndürücü bir hızla ilerlemeler kaydetti. ÜYZ’lerin etkisi kullanıcı sayısındaki artmasıyla genişlerken, WormGPT ve FraudGPT gibi araçlar, ÜYZ’nin kötüye kullanım risklerini ortaya koyan somut örnekler arasında yer alıyor.

Üretken Yapay Zeka Suç İşlemek için Kullanılabilir mi?

Popüler ÜYZ modelleri uzun süreli güvenlik süreçleri sonucunda birçok koşullanma ve sınırlanma ile birlikte kullanıcılara sunuluyor. Çünkü bu araçlar birer yanıt verme makinesi gibi tasarlandılar ve her soruya bir yanıt üretebilirler (doğru yanıt üretemedikleri durumda uydurabilirler ki buna halüsinasyon deniliyor). Örneğin bir kimyasal silahın formülünü de, bir etnik gruba yönelik nefret söylemi içeren metinleri de, kötü amaçlı bir yazılımın kodlarını da istendiğinde kolaylıkla üretebiliyorlar. Bu sebeple OpenAI, Google, Amazon, Anthropic gibi şirketler, ÜYZ modelleri geliştirirken, modele çeşitli koşullamalar ve sınırlamalar getiriyor. Bunu da çoğunlukla sistem promptlarıyla yapıyor.

Bununla birlikte şu anda birçok açık kaynaklı ÜYZ modeli de mevcut. Bunlardan en güçlüsü ve en popülerleri, META tarafından üretilen LLaMA 3.1, Mistral AI tarafından piyasaya sürülen Mistral 7B, Technology Innovation Institute tarafından geliştirilen Falcon 180B ve Allen Institute for AI tarafından oluşturulan OLMo. Bu modeller isteyen her geliştirici tarafından ücretsiz bir şekilde kullanılabiliyor ve yeniden eğitilerek (fine-tuning) ve sistem promptları tekrar düzenlenerek kullanıcılara yeni bir ürün olarak sunulabiliyor.. Bu açık kaynaklı modeller araştırma ve geliştirme süreçlerini hızlandırmayı amaçlıyor. Ancak, bu modeller yasa dışı faaliyetler için uyarlanarak kötü emelleri olan insanların hizmetine de sunulabiliyor.

ÜYZ modelleri kötü niyetle kullanıldığında ciddi toplumsal, ekonomik ve politik sonuçlar doğurabilir. Özellikle sahte içerik üretimi, bireyleri ve toplulukları hedef alarak kamuoyunu yanıltabilir ve demokratik süreçlere zarar verebilir. Derin sahte (deepfake) videolar, sahte haberler ve yanıltıcı ses kayıtları gibi araçlar, dezenformasyon yaymak, itibar zedelemek ve toplumsal kutuplaşmayı derinleştirmek için kullanılabilir. Seçim süreçlerinde sahte bilgiler yayarak seçmen davranışını manipüle etmek, sağlık politikaları veya çevre düzenlemeleri gibi kritik konularda yanlış algılar yaratmak, halk sağlığını ve sürdürülebilirlik çabalarını baltalayabilir.

Siber suçlar, yapay zekâ teknolojilerinin kötüye kullanılabileceği alanlardan biri. YZ, kimlik hırsızlığı ve dolandırıcılık gibi suçlar için sahte kimlikler, profiller ve belgeler oluşturabilir. Bu sahte profiller, sosyal mühendislik saldırıları ile birleştirilerek bireylerden veya kurumlardan hassas bilgiler elde etmek için kullanılabilir. Ayrıca, YZ tarafından oluşturulan kişiselleştirilmiş oltalama saldırıları, geleneksel yöntemlerden çok daha ikna edici olabilir, çünkü saldırılar hedefin çevrimiçi davranışlarına, ilgi alanlarına ve alışkanlıklarına göre uyarlanabilir. Bu da daha fazla sayıda kişinin çevrimiçi dolandırıcılık tuzağına düşmesine neden olabilir.

YZ’nin siber güvenlik açıklarından yararlanmak için otomatik zararlı yazılımlar üretme yeteneği, sistemlere daha hızlı ve sofistike saldırılar yapılmasını mümkün kılar. Örneğin, YZ destekli bir araç, bir sistemin güvenlik açıklarını analiz ederek etkili bir şekilde bu açıkları hedef alabilir ve daha karmaşık saldırılar düzenleyebilir. Ek olarak, CAPTCHA sistemlerini veya diğer güvenlik önlemlerini aşabilecek gelişmiş algoritmalar üreterek saldırıları otomatikleştirme kapasitesine sahiptir.

Tüm bunlar, yalnızca bireylerin mahremiyetini tehdit etmekle kalmaz, aynı zamanda şirketlerin, devlet kurumlarının ve altyapı sistemlerinin, genel olarak toplumun güvenliğini de riske atar. YZ’nin otomatik olarak sahte yorumlar, incelemeler ve sosyal medya içerikleri üretebilmesi, tüketicileri yanıltarak piyasa manipülasyonlarına ve güven kaybına neden olabilir. Tüm bu tehditler, yapay zekânın etik kullanımına yönelik sıkı düzenlemelerin geliştirilmesi, kamu farkındalığının artırılması ve siber güvenlik önlemlerinin güçlendirilmesi gerektiğini açıkça ortaya koyuyor.

WormGPT ve FraudGPT: Siber Suçun Yeni Silahları

WormGPT ve FraudGPT, modern açık kaynaklı ÜYZ modellerinin yeniden eğitilmesi ve sistem promptlarının düzenlenmesiyle oluşturulmuş ÜYZ modelleri. WormGPT, siber suçluların kimlik avı saldırıları ve kötü amaçlı yazılım oluşturma gibi yasa dışı faaliyetleri kolaylaştırmak amacıyla geliştirilmiş, GPT-J tabanlı bir yapay zekâ dil modeli. Bu model, içerik denetleme kısıtlamaları olmaksızın çalışarak, kullanıcıların etik olmayan veya yasa dışı içerikler üretmesine olanak tanıyor.

FraudGPT de benzer bir şekilde siber suçluların yasa dışı faaliyetlerini kolaylaştırmak amacıyla tasarlanmış, yapay zekâ destekli bir sohbet botu. Bu araç, kullanıcıların kimlik avı e-postaları oluşturma, kötü amaçlı yazılımlar geliştirme ve kredi kartı dolandırıcılığı gibi eylemleri gerçekleştirmelerine olanak tanıyor. Bu araçlar, Telegram kanallarında aylık 200 ABD dolar gibi abonelik ücretleriyle halen satılıyor.

Bu modellerin geliştirilme süreci, YZ teknolojilerinin neden etik bir çerçevede geliştirilmesi gerektiğini ve kontrol mekanizmalarındaki zafiyetleri ortaya koyuyor. Bu araçlar, kullanıcı dostu arayüzler ve kötü amaçlı yazılım üretme yetenekleriyle tasarlanmış. Erişim kolaylığı, teknik bilgisi sınırlı bireylerin bile bu araçları kullanmasına olanak tanıyor. Telegram gibi platformlar agresif bir şekilde tanıtılarak suç örgütleri arasında popülerlik kazanıyor.

Yapay Zeka Etiği ve Düzenlemeler

WormGPT ve FraudGPT gibi kötü niyetle kullanılan YZ araçları etik tartışmaların merkezinde yer alırken, YZ alanında uluslararası düzenleme ihtiyacı acil bir konu haline geldi.

Her ne kadar BM, UNESCO, OECD gibi uluslar arası kurumlar çeşitli etik ilkeler ve sorumlu yapay zeka rehberler geliştirse de bunların bir bağlayıcılığı yok, Çin-ABD rekabeti sebebiyle uluslararası bağlayıcı bir düzenleme ufukta da görünmüyor. Şu ana kadar yapılmış tek yapay zeka kanunu olan AB Yapay Zeka Yasası’nın, lokal bir düzenleme olarak, bu tür kötücül yapay zeka modelleri ile mücadele etme kapasitesi sınırlı.

WormGPT ve FraudGPT sadece iki örnek. Bunlar gibi hatta daha güçlü onlarca ÜYZ aracının derin internette pazarlandığını ve bu araçların kullanımının hızla arttığını düşünmek için yeterli sebebimiz var. Dolayısıyla, tehditler yakın ancak bireyleri, kurumları ve toplumları bu tehditlerden koruyabilecek bir bilişim altyapısı ve yasal çerçeve yok. Bireylerin ve kurumların bu tehditlerden haberdar olması ve kişisel kurumsal farkındalık ile bunlara yönelik önlemler alması şu an için tek mümkün mücadele yöntemi.

Bu tür zararlı yapay zeka araçlarından korunmak için bireyler ve kurumlar çeşitli stratejiler benimsemeli. Bireyler, kimlik avı saldırılarını fark etme konusunda farkındalık geliştirmeli, güçlü ve benzersiz parolalar kullanmalı, iki faktörlü kimlik doğrulama gibi ek güvenlik önlemlerini etkinleştirmeli ve antivirüs yazılımlarını güncel tutmalı. Özellikle şüpheli e-postalara karşı dikkatli olmak önemli.

Kurumlar ise çalışanlarına düzenli siber güvenlik eğitimleri vermeli, güçlü güvenlik protokolleri oluşturmalı ve yapay zeka destekli tehdit istihbaratı araçlarına yatırım yapmalı. Hassas verilerin korunması için şifreleme teknolojileri kullanılmalı ve e-posta filtreleme sistemleri kurulmalı. Ayrıca, açık kaynak yapay zeka araçlarının kötüye kullanımını önlemek için şirket içi politikalar oluşturulmalı ve şüpheli faaliyetler izlenmelidir. Uzun vadede, hem bireyler hem de kurumlar yapay zeka etiğiyle ilgili farkındalık kampanyalarına katılmalı, yerel ve uluslararası düzenlemelere uyum sağlamalı ve yapay zeka güvenliği konusunda sürekli olarak yeni çözümler geliştirmeli. Bu yaklaşımlar, zararlı yapay zeka araçlarının etkilerini azaltmak ve dijital güvenliği artırmak için hayati öneme sahip.

Güvenilir bir kaynağı olmayan ya da kaynağı belirlenemeyen, haber, görüntü ve diğer içeriklere karşı da dikkatli olmak önemli. Gördüğümüze inanmamamız gereken, tanımadığımız bir kişi ya da kurumdan gelen mesajları mutlaka teyit etmemiz gereken bir dönemdeyiz artık.

İlgili Yazılar

Yorum bırakın

This site uses Akismet to reduce spam. Learn how your comment data is processed.