Yapay zeka (AI), hayatımızın birçok alanına girmiş durumda. Toplumun yapay zekaya olan bağımlılığı, anlaşılması zor bir hızda artmaktadır. Yapay zeka, fütüristik bilim kurgu filmleriyle sınırlı bir teknoloji değildir. Robotlar düşünmeyi, hissetmeyi, aşık olmayı ve daha sonra insanlığı devralmayı öğrenmektedirler.
Yapay zeka basitçe makine öğrenmesidir. Cihazlarımız bunu her zaman yapmaya devam ediyorlar. Telefonunuza her veri girişi yaptığınızda, telefonunuz sizin hakkınızda daha fazla şey öğrenir ve size nasıl tepki vereceğini ayarlar. Uygulamalar ve bilgisayar programları da aynı şekilde çalışır.
AI, polis memurlarının nereye konuşlandırılacağı, kimin kriminal faaliyetlere katılacağı ve yeniden önerileceği konusunda karar vermeye başladılar.
Gelecekte yapay zekanın hastane kabulleri, okul kayıtları ve İK işe alım süreçlerinde giderek daha fazla rol oynadığını göreceğiz. Bu alanlarda ırkçılığı sürdürmek, azınlıklara ciddi ve uzun süreli zarar verme potansiyeline sahiptir.
Yetenek havuzunu çeşitlendirmek ve sorunlu önyargıları ortadan kaldırmak için daha fazla siyah ve azınlık insanının bu sektöre girmesinin hayati önem taşıdığı unutulmamalıdır. ‘Bizi görebilen ve bize aynı fırsatları sunan bir sistemimiz yoksa olumsuz etki daha büyük olacaktır.
Altı yıl içinde, tüketici işlemlerinin neredeyse% 98’inin makineler tarafından yapılacağı öngörüsü bir sır değildir.
Yüz tanıma teknolojisinin suçla savaşmak için yapay zekayı kullanması, önyargı oluşturma riskini artırabileceği bilinmelidir. Algoritmaların dezavantajlı geçmişlerden gelen insanları ‘daha büyük bir risk’ olarak yargılayabileceği konusu dikkate alınmalıdır.
ABD’de siyahi Amerikalı George Floyd’un öldürülmesi ile bütün dünyada ırkçılık karşıtı protestolar artarken, yapay zeka temelli algoritmaların sahip olduğu ırkçı ön yargılar da tekrar dünyanın gündemine geldi.
Amerika Birleşik Devletleri’nde (ABD) Minneapolis’te polis şiddeti sonucu siyahi Amerikalı George Floyd’un hayatını kaybetmesinin ardından başlayan ve ülke geneline yayılan protestolar halen devam etmekte.
Uzun zamandır siyahi vatandaşlara karşı yapılan ırkçı saldırılar ülke gündemini meşgul ederken, yapay zeka algoritmalarının sahip olduğu ırkçı ön yargılar da yeniden gündeme gelmeye başladı.
Daha önce yaşanan pek çok olayda yapay zeka sistemleri, beklenmedik ırkçı davranışlarıyla şirketlere sorun oluşturmuştu. Bu olaylardan en bilinenlerinden bir tanesi de Microsoft’un uzun çabalar sonucu ürettiği ve Twitter’da kullanıcılarla İngilizce sohbet etmesini beklediği yapay zeka botu TAY olmuştu. TAY beklentilerin aksine insanlarla hoş sohbet etmemiş ve sadece 24 saat içerisinde küfürlü ve ırkçı paylaşımları nedeniyle durdurulmak zorunda kalınmıştı. Kullanıcılar üzerinde büyük bir şaşkınlığa sebebiyet veren bu cevaplardan bazılarında TAY, kadınlara ve Yahudilere hakaret etmiş, Meksika sınırına duvar örülmesi gerektiğini belirtmişti.
Algoritmaların gösterdiği ırkçı davranışların en öne çıkanlarından bir diğeri de bir bilgisayar firmasının geliştirdiği kameranın çekimleri sırasında yaşanmıştı. Aynı iş yerinde çalışan iki iş arkadaşı tarafından çekilen videoda kameradaki yüz tanıma sistemi beyaz tenli olan Wanda Zamen’in yüzünü tanıyıp, takip ederken, siyah tenli Desi Cryer’ın yüzünü tanımamış ve hareketlerini de takip etmemişti.
Güzellik yarışması için geliştirilen “Beauty AI” ırkçı ön yargılar göstermiş ve daha çok beyaz tenli kişileri öncelemişti. Avustralya ve Hong Kong merkezli bir şirket tarafından geliştirilen “Beauty AI” binlerce başvuru arasından sadece 6 siyahi başvuruyu kabul etmiş en çok tercihini ise beyaz tenli kişiler arasında kullanmıştı.
YAPAY ZEKÂ NASIL IRKÇI OLUR?
Günümüzde yapay zekanın en önemli unsuru derin öğrenmenin (deep learning) birincil ihtiyacı ise veri kullanımı oluyor. Derin öğrenme temelde, algoritmanın mevcut verilerle beslenmesi ve ardından insan müdahalesine ihtiyaç olmadan verileri tanıması anlamına geliyor.
Örneğin, bir algoritma binlerce fotoğraf içinde kedileri tanımak üzerine eğitilir. Algoritma “kedi” olarak etiketlenmiş fotoğraflardan kedinin şeklini, duruşunu tanıyarak bir kalıp oluşturur ve daha sonra gördüğü fotoğraflarda bir kedinin olup olmadığını kendisi tespit edebilir.
Yapay zekanın eğitiminde kullanılan veriler ırkçılık ve ayrımcılık konusunda önemli bir konumda bulunuyor. Verilerini daha çok Kuzey Amerika bölgesinden alan ve büyük oranda beyaz Amerikalıların çalıştıkları Silikon Vadisi’ndeki yapay zeka sistemleri Asyalı ve Afrikalı insanlar üzerinde denendiğinde büyük sorunlara yol açabiliyor.
Hukuk alanında da kullanılması planlanan yapay zeka aynı zamanda ön yargılı verilerle beslendiği takdirde siyahi insanları daha fazla suçlu bulması gibi durumlara da neden olabiliyor. Uzmanlar bu sebeple yapay zeka algoritmasının taraflılığı ve ayrımcılık gibi durumların önüne geçmek için eğitim verilerinin, azınlıkları dezavantajlı duruma düşürmeyecek şekilde hazırlanması ve düzenlenmesi gerektiği konusunda uyarıyor.
1999'dan beri www.yapayzeka3m.com Telif hakları saklıdır. Bu web sitesi Media 3M tarafından yapılmıştır