Geçenlerde yapılan bir deney insanların robotların rengine göre farklı tavırlar gösterdiklerini iddia ediyor. Çalışmada farklı insan derisi renklerinde hazırlanan, insansı robot NEO ile çoğunluğu beyaz erkeklerden oluşan bir denek grubu kullanılmış. Denek grubuna polis oldukları ve bir saniye içinde gördükleri silahlı ve silahsız robotlara karşı tabancalarını çekip çekmemeye karar vermeleri istenmiş. Deneye katılanların anlamlı bir çoğunluğu siyah silahlı robotları beyaz olanlara oranla daha hızlı bir şekilde tabanca çekmişler. Ancak asıl ilgi çekici olan insanların siyah silahsız robotları gördüklerinde de büyük bir oranda tabanca çekmeleri.
Deney insanların ırkçı eğilimlerini robotlar karşısında da gösterdiklerini kanıtlamaya çalışıyor ve bugün üretilen insansı robotları büyük oranda ‘beyaz’ yapılmasını eleştiriyor. Çalışmayı yapan ekibin lideri, Yeni Zelanda Canterbury Üniversite’sinden Christoph Bartneck, yakın zamanda gündelik hayatımızda her alanında yer alacak olan robotların ‘beyaz’ olmasının, toplumdaki ırkçı eğilimleri güçlendireceğinden endişe duyuyor. Bartneck, öğretmen, asistan, bakıcı, süper market görevlisi vb. rollerde toplumda yer alan insansı robotların farklı renklerde yapılması gerektiğini savunuyor. İnsanların robotlara karşı nasıl davranmaları gerektiğini öğrenmelerinin de önemini vurguluyor. Gerçekten de Güney Kore’de lise düzeyinde okullarda insansı robotlara karşı davranış şekilleriyle ilgili eğitimler veriliyor.
İnsanların robotlara karşı ırkçı eğilimler göstermesi şaşırtıcı ve düşündürücü. Ancak madalyonun güncel ve tehlikeli başka bir tarafı daha var. Peki ya robotlar insanlara karşı ırkçı tavırlar gösterirse?
Son yıllarda büyük bir gelişim gösteren makine öğrenimi (yapay zekâ) ve robotik teknolojileri alanlarındaki en önemli tartışma konularında biri makinelerin öğrenebilmek için önyargılara ihtiyaç duyması üzerinden şekilleniyor. Makine öğrenmesi; veri kullanımı, öğrenme ve karar verme aşamalarından oluşuyor. Araştırmacılar, makinelerin topladıkları verilerde ırk ya da cinsiyete ait toplumsal bilgilerin dengeli miktarda bulunmadığını, bunun da verilen kararlarda belli gruplara ayrıcalık tanıdığını gösteriyor. Ancak konu makinelerin kullandıkları verilerin niteliği meselesine indirgenecek kadar basit değil.
İnsanlar gibi makineler de öğrenirken bir takım önyargılara ihtiyaç duyuyorlar. Buradaki önyargı mutlaka olumsuz bir anlam içermiyor. Bununla beraber, makineler (yapay zekâ yazılımları ve bu yazılımların kullanıldığı araçlar ve robotlar) insanlar gibi önyargıları hakkında farkındalık sahibi olmadıkları için bu önyargılar ayrımcı, ırkçı kararlar vermelerine de sebep olabiliyor.
Örneğin insan dillerini öğrenen makineler, bu dillerin içerdiği ayrımcı önyargıları da öğreniyorlar. Çiçekleri olumlu kelimelerle, böcekleri ise olumsuz kelimelerle ilişkilendiriyoruz. İnsan dillerini öğrenen makineler kaçınılmaz bir şekilde de dilde yer alan bu önyargıları öğreniyorlar. Ancak, bu önyargılar ırkçı ya da cinsiyetçi şekillere de bürünebiliyor. Örneğin erkek isimlerini, yönetim maaş gibi kavramlarla, kadın isimlerini ev, aile gibi kelimelerle ilişkilendirmek gibi. Ya da Afrika kökenli isimleri suç ile Avrupa kökenli isimlerden daha fazla ilişkilendirmek gibi…
Princeton Üniversitesi’nde robotbilim ve yapay zekâ alanlarında çalışan Dr. Pınar Çalışkan’a göre, makineleri bu tarz önyargılardan arındırmak var olan dünya tasvirini bozduğu için kolay değil. Makineler önyargılar olmadan öğrenemiyorlar, ancak şu aşamada bu önyargıları değerlendirebilecek kapasiteye de sahip değiller. Bununla birlikte olumsuz önyargıların makinelerin karar verme aşamalarında önemli bir rol oynaması ise başlı başına bir sorun. Stephen Hawkins bu soruna dikkat çekmek için yapay zekâ tarafından yönetilen insansız otomobilleri örnek vermişti. Kaçınılmaz bir kaza söz konusu olduğunda yapay zekâ kazadan zarar görecek kişiyi nasıl belirleyecek? Örneğin genç bir kadına mı çarpacak, yaşlı bir kadına mı? Ya da beyaz bir erkeğin mi yoksa Afrika kökenli bir çocuğun zarar görmesini mi tercih edecek? İnsansız otomobiller, dünyayı ve trafiği tıpkı bir insan şoför gibi algılıyorlar. Ancak insan reflekslerinden çok daha hızlı bir şekilde otomobili yönlendirebiliyorlar. Bir tehlike anında risk analizi yaparak araca ve çevresine en düşük oranda hasar vermeye çalışıyorlar. İşte bu analiz esnasında yapay zekâ eğer bir tercih yapmak zorunda kalırsa, daha değerli görünen insana daha fazla önem verebilir ve diğer insana zarar vermeyi tercih edebilir. Daha değerli insan daha pahalı bir araca sahip (da zengin) bir insan da olabilir ya da insanların ırkları, yaşları ve cinsiyetleri bu tercihte rol oynayabilir.
Robotların ırkçılık sorunu, yapay zekâ ve robotik alanında çok farklı uzmanların birlikte çalışması zorunluluğunu doğuruyor. Yalnızca yazılımcılar değil, sosyologlar, psikologlar hatta felsefeciler bile yapay zekâ çalışmalarında yer alıyorlar. Ancak hepsinden önemlisi yapay zekâ ve robotik yazılımların şeffaflığının sağlanabilmesi. Bu da ortada önemli bir etik mesele olduğunu gösteriyor.
Yapay zekâ ve robotlar giderek artan bir şekilde, adalet, sağlık, güvenlik hizmetlerinde ve daha birçok alanda karar verme süreçlerinin merkezine yerleşiyorlar. Yakın gelecekte hayatlarımızda daha fazla yer aldıkça, makinelerin önyargılardan kaynaklanan çelişkiler daha fazla gündemimize gelecek. Bir itfaiyeci robotun önce hangi insanı kurtarmaya karar vereceği ya da bir polis robotun insanlara karşı farklı tavırlar gösterebileceği gibi sorunlarla uğraşacağız. Yapay zekâyı ve robotları denetleyecek kurallara ve kurumlara ihtiyaç duyacağız. Sadece robotlara karşı ırkçı tavırlar gösteren insanlarla değil robotların da ırkçı, cinsiyetçi, ayrımcı davranışlarıyla uğraşacağımız günler kapıda.