Son zamanlarda yapay zeka algortimalarında ortaya çıkan ırkçı ve ayrımcı tutmun insan faktörüyle ortaya çıktığı belirlendi. Yapay zeka uzmanı Prof. Dr. Murat Kirişci, ortaya çıkan bu tutumu değerlendirdi.
Yapay zeka algoritmalarında ortaya çıkan ırkçı veya ayrımcı tutuma insan faktörünün neden olduğu ortaya çıktı. Makinelerin bunu nasıl öğrendiğinin nasıl tespit edileceği her zaman mümkün olmadığı için hukuki mücadelenin belirsizlikler içerdiği belirtiliyor. Yapay zeka uzmanı, İstanbul Üniversitesi-Cerrahpaşa, Cerrahpaşa Tıp Fakültesi Temel Tıp Bilimleri Bölümü Öğretim Üyesi Prof. Dr. Murat Kirişci, yapay zeka algoritmalarında ortaya çıkan ırkçı ve ayrımcı tutumu değerlendirdi. Prof. Dr. Kirişci, farklı alanlarda kullanılan yapay zeka algoritmalarının ırkçı veya ayrımcı sonuçlar ortaya koyabildiğini kaydederek, “Bir ara maymun (ape) yazdığınızda eski ABD Başkanı Barrack Obama ve aile fertleri çıkıyordu. Hukuk alanında kullanılan yapay zekalar siyahileri suçla daha fazla eşleştiriyor. Hollanda’nın vize vermek için kullandığı yapay zekanın da belli ülkelere, kişilere ve hatta cinsiyete karşı ayrımcılık uyguladığı ortaya çıkmıştı.” diye konuştu. Yapay zeka algoritmalarındaki ırkçılığın, programcıların yaklaşımlarını ya da uygulamaların tasarlandığı toplumdaki anlayışları yansıttığını ifade eden Kirişci, tüm bu süreci örgütleyenin veya makinelerin bu şekilde davranmasını sağlayanın akıllı ve irade sahibi tek varlık olan insan olduğunu söyledi. Kirişci, yapay zekanın ırkçılığı veya ayrımcılığı tam olarak nereden öğrendiğinin tespit edilmesinin her zaman mümkün olmadığını bildirerek, şunları dile getirdi “Yapay zekaya ırkçılığı öğreten kim? Onu tasarlayan mı, kullanan mı veya bir şekilde yanından geçerken onunla temas eden mi? Bunun arkasında muğlak bir yapı var. Biz ise makineyi suçlamaya çalışıyoruz. Dünyada 90’lı yıllardan beri yapay zeka ve hukuk alanında çok ciddi tartışmaların olduğunu takip ediyoruz. Bu hukuki süreçler aslında yürütülmek istenilen büyük hegemonya savaşını elitler açısından masumlaştırmak için yapılıyor. Bizi de bir sorunla karşılaştığımızda hiçbir zaman karşılık alamayacağımız bir cihazla kavgaya iten hukuki bir süreç. Bir makine niye bir siyahla beyazı ayırt etsin? Aslında bunu yapan bir insan.”HER TEKNOLOJİ İMKAN VE RİSKLERİ BERABERİNDE TAŞIYOR Yapay zekayı, “biyolojik zeka ve öğrenmenin bilgisayarlara, robotlara veya dijital dünyaya tanıtılarak bunu taklit etmesini sağlamak” şeklinde tanımlayan Kirişci, ırkçılığın da bu taklidin bir sonucu olduğunu ve makinenin kendi başına herhangi bir insan grubuna ayrımcı tutum geliştirmesinin mantıklı olmadığını vurguladı. Kirişci, makineye insanın yaptığı işin simülasyonunu öğreterek karar vermesinin, süreçleri takip etmesinin ve gerektiğinde kendi işini yürütebilir hale gelmesinin sağlandığına dikkat çekerek, “Şimdiki yapay zeka sistemlerinde insandan bağımsız çalışabilme özelliği var hatta kendi enerjisini üretme ve bizim fişini çekebileceğimizi düşünerek kendini korumaya alabilme özellikleri mümkün ancak bu sonlu bir durum, sonsuza kadar devam etmez.” dedi. Makinelerin bazı alanlarda insandan çok daha iyi sonuçlar vermesine karşın her zaman biyolojik yapıların altında kalacağına işaret eden Kirişci, literatürde en ideal teknoloji tanımlarından birinin “en az teknoloji kullanılarak ortaya konulan teknoloji” olduğunu aktardı. Prof. Dr. Kirişci, makinelerin bu kadar gelişmesinin çok büyük imkanlar ve çok büyük riskler barındırdığının altını çizerek, sözlerini şöyle tamamladı: “Makinelerle doğru etkileşim yakalandığında harika sonuçlar elde edilebilir. Bu etkileşim doğru ayarlanmadığında da riskler ortaya çıkabilir. Bu risk insanın varlığına olan risk. Tabiatın varlığına olan risk. Yani sadece biz risk altında değiliz. Tabiat da risk altında. Dağ taş da risk altında. Her tür teknoloji kendi imkanlarıyla beraber aynı zamanda olumsuzluklarını da taşıyor. Mesela yeni sürecin en önemli özelliği elektriğe çok yoğun ihtiyaç duyulması. Bunun kontrolsüz bir şekilde üretilmesi herkes için risk teşkil eder.”