Deep fake (derin sahte) teknolojilerin makine öğretnimi ( ya da yapay zeka) algoritmaları kullanarak görüntü ve sesin gerçekliğe en yakın şekilde manipüle edilmesidir.
- Deep Fake teknolojisi nedir? Yapay Zeka ile ilişkisi ne?
2016 yılı toplumda yapay zeka olarak bilinen makine öğrenimi ya da derin öğrenme teknolojilerinde önemli bir eşiğin geçildiği bir yıl oldu. İnsanın öğrenme biçimlerini taklit eden yazılımlar, yapay sinir ağları hayal gücümüzün sınırlarını zorlayacak derecede gelişti. Yapay sinir ağları tıpkı insan gibi deneyimleyerek öğreniyorlar ve hiç görmediği bir nesne ya da kavramla karşılaştığında öğrendiği bilgileri kullanarak, genellemeler yaparak, kendi başlarına karar verebiliyorlar.
Yıllardır bilim kurgu filmlerinde görmeye alıştığımız kendi kendilerine karar vererek uygulayabilen otonom bilgisayarların ve robotların yakın gelecekte gündelik hayatımıza gireceğini artık söyleyebiliyoruz. Türkiye’de TUBİTAK’ın destekleriyle üniversitelerde yapay zeka çalışmaları yürütülüyor. Yapay zeka alanında çalışan girişimler, startuplar da ortaya çıktı. Elbette gelinen noktada, bu teknolojilerde öncü olan ABD, Rusya ve Çin’de olduğu kadar gelişmiş düzeyde değiliz. Henüz yapılan çalışmaların çıktılarını, ürünlerini de göremiyoruz ancak internet sonrası dönemde bilginin akışkanlığının düşünürsek kısa zamanda önemli aşamalar kaydedileceğini, çeşitli ürünlerle karşılaşacağımızı ön görebiliriz.
Yapay zeka alanında, etik ve hukuk meseleleri en sıcak konular. Yapay zeka konusunu sadece yazılım geliştiricilerin değil, sosyologlar, psikologlar ve hukukçular da çalışıyorlar. Kendi kendilerine karar verebilen otonom makinelerin yaratabileceği sorunlar ve bu sorunları aşabilecek mekanizmaların nasıl kurulabileceği tartışılıyor. Örneğin yapay zeka ile kontrol edilen, sürücüsüz otonom bir aracı karışacağı bir kazada sorumluluk kimin olacak? O aracı üreten firmanın mı yoksa o araca sahip olan kişinin mi? Ya da örneğin yapay zeka teknolojilerini kullanan bir akıllı ev sisteminin yol açabileceği sorunlarda sorumluluklar nasıl paylaşılacak? Potansiyel olarak böyle bir akıllı ev sistemi örneğin sıcaklık ayarını değiştirerek evde yaşayanların zarar görmesine neden olabilir. Makine öğrenimi gündelik hayatımıza girdikçe şu an düşünemediğimiz birçok etik ve hukuki problemiyle karşılaşacağımız ortada.
Madalyonun öteki tarafında ise bu teknolojinin kötü niyetli kişilerce kullanımları var. Örneğin makine öğrenimi son yıllarda fotoğraf ve ses manipülasyonu için yoğun olarak kullanılıyor. Bir kişinin fotoğrafı veya videosu, yapay zeka yazılımları ile kullanıcılar tarafından fark edilemeyecek derecede detaylı bir şekilde manipüle edilebiliyor. Halk arasında foto-montaj olarak bilinen manipülasyon tekniklerinde çok büyük ilerleme kaydedildi. Makine öğrenimi ile bir kişinin sesi ve görüntüsü kusursuz olarak taklit edilebiliyor. Özellikle kamuoyu tarafından tanınan insanların sahte videoları üretiliyor. Bir kaç sene önce ABD’deki oyuncu ve şarkıcıların uygunsuz sahte videoları üretildi örneğin. Hollywood bu teknikleri oyuncuları gençleştirmek ya da yaşlandırmak için de kullanıyor. Yakın bir zamanda artık yaşamayan ya da çok yaşlı bir oyuncunun yeni bir filmini görebiliriz. Mesela yeni bir Terminatör filminde Arnold’un 30 yaşındaki halini seyredebiliriz. Üstelik bunun için kendisinin filmde oynamasına da gerek yok, bir başka oyuncu oynayabilir ve o oyuncunun sesi ve görüntüsü ayırd edilemeyecek bir şekilde Arnold’a benzetilebilir. Deep fake (derin sahte) olarak tanımlanan bu teknolojilerin kötü niyetli kişi ve kurumlarca çeşitli hedeflere ve kişilere yönelik olarak kullanıldığı ve giderek daha fazla kullanılacağını düşünmek için kâhin olmaya gerek yok. Bunlar elbette kullanıcıların algılarında ve medya-toplum ilişkisinde önemli değişikliklere sebep olacaktır.
2. Deep fake hangi alanlarda kullanılabilir?
Bu teknolojilerin en yoğun olarak manipülasyon ve algı yönetimi amacıyla kötüye kullanılacağını düşünüyorum. Bireysel bazda düşünürsek bu tür içerikler özellikle çocuklar ve gençler arasında siber-zorbalık amacıyla kullanılabilir ve psikolojik sıkıntılara hatta intiharlara sebep olabilir. Tehdit ve şantaj amaçlı birçok deep fake videosu üretileceğinden de şüphem yok. Toplumsal bazda düşündüğümüzde ise en önemli konu algı yönetimi amaçlı sahte haberler. İnsanlık belki de başlangıçtan bugüne ilk kez duyduklarına gördüklerine güvenemeyeceği bir döneme giriyor. “Gözümle görmeden inanmam” sözü tarihe karışıyor. Halihazırda üretilen sahte haberler çok daha inandırıcı biçimlere bürünecektir. İnsanları seyrettikleri videoların sahte ya da gerçek olduğuna inandırmak zorlaşacaktır. Gerçek videolar da sahte olarak nitelendirilebilir. Sahte haberler ülkenin siyasi iklimini, toplumsal dengeleri değiştirme amacıyla çoğalacak ve daha da yaygınlaşacaktır. Görsel manipülasyonun dışında yapay zeka teknolojilerinin ulaşım ve savunma sektörlerinde yoğun kullanımının da çok önemli sorunlara sebep olacağını düşünüyorum. Kendi kendine hareket edebilen silahlı bir drone’un neler yapabileceğini düşünürseniz bu karamsarlığımı anlayabilirsiniz.
Deep fake özellikle eğlence sektöründe ve görsel sanatlar alanında kullanılacaktır. Örneğin başrollerinde Ayhan Işık ve Zeki Müren’in oynadığı yeni bir film sevenlerini oldukça mutlu edecektir. İyi amaçlar için medyada, eğitimde, turizmde ve şimdi aklıma gelmeyen başka sektörlerde de kullanılabilir. Teknoloji geliştikçe yeni kullanım alanları da ortaya çıkacaktır. Şu an bu teknoloji emekleme düzeyinde ancak çok hızlı gelişecektir.
3. Deep fake teknolojisi nasıl sıkıntılara yol açabilir?
Görüntü ve ses manipülasyonu teknolojileri geliştikçe, bu manipülasyonları tespit edebilecek yazılımlar da gelişiyorlar. Dolayısıyla davalarda kullanılan bu tip deliller bugün olduğu gibi bilir kişiler tarafından teknik olarak değerlendirilip sahte mi gerçek mi olduğu tespit edilebilir. Bu anlamda yaşanabilecek sıkıntıların önüne geçmek görüntü ve sesleri analiz eden teknolojilere yapılacak yatırımların ve bu alanda yetişmiş insanların sayılarının artması ile aşılabilir. Ancak bu teknolojilerin etkisi adli süreçlerden çok sosyal, politik ve ekonomik olacaktır. Dijital sahtekarlıklarda, tehdit ve şantajlarda büyük bir artış olacağını düşünmemek için bir sebep yok. Sıradan insanlar işin doğrusunu çevresindekilere anlatamayacağını düşünerek bu tür derin sahte videolarla yapılacak şantajlara boyun eğebilir ya da sahte bir video ile yönlendirilen kullanıcılar dolandırılabilir. Bu iş adli süreçlere hiç yansımayabilir.
Ulusal ve uluslararası düzeyde siyasi manipülasyon için bu tür videolar mutlaka kullanılacaktır. Örneğin geçtiğimiz yıl yaşanan Cambridge Analitica — Facebook skandalı kamupyuna daha çok bir kişisel verilerin izinsiz kullanılarak, ABD seçmeninin manipüle edilmesi olarak yansıdı. Ancak skandalın bir başka boyutu siyasi ve sosyal özellikleri profillenen seçmenlere özel hazırlanan sahte haberlerin oy verme kararlarına etkisiydi. Bu aslında teknoloji yoluyla seçmen manipülasyonu ve demokrasinin hacklenmesiydi. Bir bakıma deep fake bir sahte haberleri daha inandırıcı hâle getirme teknolojisi aynı zamanda. Bu açıdan, siyasetçileri ve ülkeleri itibarsızlaştırmak için derin sahte videolarının yakın zamanda yoğun kullanılacağını düşünüyorum. Şu anda da kullanılıyor olabilirler. Adli makamların bu tür videoları üretenlere karşı yapabilecekleri de sınırlı çünkü çoğu zaman bu videolar sosyal ağlarda yayılırken kimin bu videoyu ürettiği ve dolaşıma soktuğu her zaman tespit edilemeyebilir.
4. Türkiye’de bir deep fake vakası yaşandı mı?
Türkiye’de henüz bir deep fake vakası yaşanmadı diye biliyorum. Yaşandıysa da medyaya yansımadı kişiler arasında kaldı ya da bir skandala sebep olmadı. Ancak Türkiye sahte haberler oldukça yaygın. Dünya’da sahte haberlerin en çok üretildiği ve yayıldığı toplumlardan biriyiz. Üstelik dijital okuryazarlık düzeyimiz de oldukça düşük oranda. Avrupa’da Makedonya’dan sonra en düşük düzeyde olan 2. ülkeyiz. Bu da sahte haberlerin yayılmasını kolaylaştırıyor. Çünkü sahte haberleri yayanlar çoğunlukla bunu bilinçli olarak yapmıyor, o habere inandıkları için yapıyor. Derin sahte ile birlikte sahte haberler nitelik olarak değişecek, nicelik olarak artacaktır. Henüz bu teknoloji yaygın değil ve görece pahalı. Ancak giderek ucuzlayacak ve yaygınlaşacaktır. Geçen ay ülkemizde de popülerleşen Face App uygulaması örneğin, henüz emekleme aşamasında bu teknolojinin ilk popüler örneklerindendi.
5. Deep fake teknolojisinin olumsuz etkilerine karşı ne yapılabilir?
Teknolojik gelişmenin, dijitalleşmenin önünde durmak mümkün değil. Teknoloji kendi başına iyi ya da kötü değildir. Toplumu teknolojiye uyum sağlamak için hazırlamak gerekir. Biz bu alanda yavaş davranıyoruz. Dijital okuryazarlık eğitimlerini değil ilkokul anaokulundan başlatmalıyız. Örneğin Güney Kore ve Finlandiya böyle yapıyor. Toplumu sahte haberler, sahte içerikler ve siber zorbalık konularında bilinçlendirmeliyiz. Elbette hukuki düzenlemeler gerekiyor ancak bu yeterli değil. Ahlâki kodlar üretmeliyiz. Dijital etik Türkiye’de gündem olmalı Bu tür sahte içerikleri bilinçli olarak yayan kullanıcıları dışlayacak, bilinçsiz olarak yayanları uyaracak toplumsal refleksleri geliştirmeliyiz. Devletin ve sivil toplumun müdahalesi çok önemli. Toplum bu tür teknolojilerle herhangi bir güçlendirme ve destekleme faaliyeti olmadan karşı karşıya bırakıldığında çeşitli skandallar ve toplumsal sorunlar mutlaka ortaya çıkacaktır. Kısa bir süre içinde birçok insan deep fake mağduru olacaktır. Ne kadar detaylı hukuki altyapı olursa olsun, yargı mekanizmaları bu vakalarla tek başına başa çıkamazlar. Bu tür vakalar arttıkça toplumda büyük güven bunalımlarına ve adaletsizlik duygusunun yaygınlaşmasına sebep olacaktır. Vakit kaybetmeden harekete geçmekte fayda var.