Vahşi Batı’da yapay zekâ etiği
KÖŞE YAZILARIVahşi Batı’da yapay zekâ etiği
KARA KUTU İKİLEMİ
Elinizde hayatınızı, kariyerinizi ve ilişkilerinizi etkileyebilecek kararlar veren sihirli bir kutu olduğunu düşünün. Kutunun içinde ne olduğunu görme izniniz yok. Vardığı sonuçlara nasıl vardığına dair hiçbir fikriniz de yok. Bu kutunun size zarar verebilme ihtimali olduğunu düşünür müsünüz? Muhtemelen evet. İşte yapay zekâ sorunu da tam olarak böyle bir kara kutu sorunu. Yapay zekânın karar verme süreçleri şeffaf değil. Yapay zekâ algoritmaları, özellikle de derin öğrenme durumunda o denli karmaşık modellere evriliyor ki, modelin yaratıcıları dahi bir kararın neden belirli bir şekilde alındığını açıklayamaz hâle geliyorlar. Hangi kararın neye dayanarak alındığına dair hiçbir fikrinizin olmadığı bir sistemin kararlarını uygularken doğal olarak hesap verebilirlik ve adalet gibi konularda endişeler uyanıyor. Rekabet avantajı arzusuyla hareket eden şirketler, yapay zekâ sistemlerinin iç işleyişini ticari sır olarak nitelendirerek açıklamama konusunda ısrarcılar. Ancak bu gizlilik, etik bir çerçeve oluşturulabilmesinin en temel parçası olan şeffaflıkla taban tabana çelişki içinde. Kullanıcılarınız ya da çalışanlarınız kendilerini etkileyen kararların nasıl alındığını bilmek istediklerinde onlara verebileceğiniz bir cevabınız olmuyor. Fikri mülkiyet hakları ile şeffaflık arasında bir dengenin kurulmasını sağlayabilecek yasalardan henüz yoksunuz ve büyük ihtimalle bu vaziyette kalmaya da devam edeceğiz. Önyargılı yapay zekâ sistemleri yasal sorunlara yol açabildiği gibi, marka itibarına da zarar verebiliyor ve en önemlisi, toplumsal eşitsizliklerin olduğu gibi sürüp gitmesine de neden oluyor. Bu mayın tarlasında ilerleyebilmenin tek yolu geliştirici şirketlerin veri toplama ve model geliştirme süreçlerinde çeşitlilik ve katılımcılığa öncelik vermesi.ETİK MAYIN TARLASI: ÖNYARGILAR
Yapay zekâ kullanan bir işe alma sisteminin, “istemeden” belirli bir demografik gruptan adayları (örneğin beyaz ırktan, erkek ve genç adayları) tercih ettiğini veya o toplumun normlarına göre geleneksel olmayan özelliklere sahip olan adayları tamamen değerlendirme dışı bıraktığını hayal edin. Tarif ettiğimiz, bire bir olarak yaşanmış bu olay sonrasında söz konusu yapay zekâ sistemi ürettiği önyargılar nedeniyle devre dışı bırakıldı. Bu yanlı kararları, bireyler ve genel olarak toplum üzerinde oldukça olumsuz sonuçlar doğurma gücüne sahip olan tam bir etik tuzak olarak nitelendirebiliriz. Yapay zekâ sistemleri çok geniş veri kümeleri üzerinde eğitilir ve eğer bu veri kümeleri önyargılar içeriyorsa yapay zekâ da bunları sürdürebilir ve hatta daha da kötüleştirebilir. Yapay zekâ modellerini eğitmek için kullanılan veriler mevcut toplumsal önyargıları içlerinde barındırıyorsa, algoritmanın ürettiği çıktılar her ne kadar kasıtsız da olsa, tümüyle saf bir ayrımcılık krizine neden olabilir. Günümüzde bu gibi ayrımcı uygulamaları önlemek sadece yasalar karşısındaki yükümlülükler nedeniyle değil, aynı zamanda muhtemel toplumsal tepkileri önlemek açısından da büyük önem taşıyor. Şirketler için bu gibi önyargıların kararlar üzerindeki etkisini ele almak yalnızca etik değil aynı zamanda pragmatik bir zorunluluk. Önyargılı yapay zekâ sistemleri yasal sorunlara yol açabildiği gibi, marka itibarına da zarar verebiliyor ve en önemlisi, toplumsal eşitsizliklerin olduğu gibi sürüp gitmesine de neden oluyor. Bu mayın tarlasında ilerleyebilmenin tek yolu geliştirici şirketlerin veri toplama ve model geliştirme süreçlerinde çeşitlilik ve katılımcılığa öncelik vermesi. Evet, bu durum da diğer etik ikilemlerde olduğu gibi kısa vadeli iş hedeflerinin önünde bir engel gibi görünebilir. Ancak uzun vadede güven ve sürdürülebilirliğe yapılan bir yatırım olduğu gerçeğini de unutmamak gerekiyor.VERİ GİZLİLİĞİ Mİ? O DA NEYDİ?
Sizin hakkınızda, sizin kendi hakkınızda bildiklerinizden daha fazlasını bilen bir yapay zekâ sistemi düşünün. Bu bir bilim kurgu - gerilim filminin senaryosu gibi görünse de, yapay zekânın veri odaklı endüstrilerdeki hızlı ilerlemesi nedeniyle potansiyel bir gerçeklik… Yapay zekâ modellerinin önemli bir kısmında, modelleri eğitmek ve daha doğru tahminler yapabilmek için büyük miktarda kişisel veri kullanılıyor. Bu durum verilerin nasıl toplandığı, saklandığı ve kullanıldığı konusundaki endişeleri artırıyor. Şirketler akıllı ev cihazlarından kişiselleştirilmiş reklamlara kadar pek çok araç vasıtasıyla kişisel verilerimizi topluyor ve kullanıyor. Bu durumu kanıksamış haldeyiz; az önce bahsi geçen kar ayakkabısının reklamını cep telefonumun kilidini açar açmaz karşımda bulmam beni her nedense eskisi kadar tedirgin etmiyor. Hangi saatte eve geldiğimden, seçim akşamı arkadaşlarımla yaptığım konuşmaya kadar her detayı kaydettiğini bildiğim akıllı cihazlara ve bu cihazların topladığı devasa veriyi “en iyi ihtimalle” bana bir şeyler satmak için kullanan sistemlere bu kadar çabuk teslim olmamamız gerekiyordu. Ancak “homo sapiens” olmanın temel kuralları listesinde en tepelerdeki yerini koruyan kural yine devredeydi: keyfim ve rahatım geri kalan her şeyin önündedir. Yukarıda bahsettiğimiz nedenlerle şirketlerin ya da hükümetlerin teknoloji geliştirme hızı pahasına gizliliğimizi koruyacağını düşünmek saçma olurdu. Her ne kadar başta AB olmak üzere bilinçli vatandaşların tepkilerini dikkate alan yasa yapıcılar bu konu dahilinde sert yaptırımlar uygulasalar da şirketlerin bu “sert” yaptırımların etrafında dolanabilmelerine olanak sağlayan pek çok yasal boşluk da söz konusu. Uzun vadeli çıkarlar açısından bu iki çatışan değişken arasında bir denge kurmak, en azından açık onay mekanizmaları ile etik veri uygulamalarına bağlı kalmaya gayret etmek önem arz ediyor. Sizin hakkınızda, sizin kendi hakkınızda bildiklerinizden daha fazlasını bilen bir yapay zekâ sistemi düşünün. Bu bir bilim kurgu - gerilim filminin senaryosu gibi görünse de, yapay zekânın veri odaklı endüstrilerdeki hızlı ilerlemesi nedeniyle potansiyel bir gerçeklik… TEKNOLOJİK VAHŞİ BATI Sürekli gelişen teknoloji dünyasında mevzuat ve düzenlemeler teknolojik gelişmelere ayak uydurmakta bir hayli zorlanıyor. Açık kuralların bulunmaması ya da henüz gelişmekte olan bu kural setlerinin içindeki boşluklar şirketlerin iyi tanımlanmış bir etik çerçeve olmadan faaliyet gösterdiği bir Vahşi Batı senaryosu yaratıyor. Sıkı düzenlemelerin olmayışı sınırsız inovasyon fırsatı olarak da görülebilir. Ancak bu durum ters etki de yaratabiliyor. Her ne kadar bu konuda biraz uyuşmuş olsak da ağır etik ihlaller hala sert bir kamuoyu tepkisiyle karşılaşabiliyor. Sorumlu yapay zekâ uygulamalarının savunulmasına öncülük eden sivil toplum kuruluşları bu alanda büyük rol oynuyor ve şirketlerin ve hükümetlerin duymak istemedikleri sesleri yükselterek duyulur hâle gelmelerini sağlıyor. Yetmez ama evet; bu seslerin daha güçlü hâle gelmesi tek çözüm yolu… Çok sevdiğim bir sözdür: Eskiler “Vaka ile savaşılmaz.” derler. Ben de olgusal ve gerçekçi bir yaklaşım izlemek gerektiği görüşündeyim. Ticari kaygıların etik kaygılardan çok daha öncelikli olduğu ve olmaya devam edeceği gerçekliğin bir yanı. Diğer yanı ise bu alanda yalnız oluşumuz… Her ne kadar nimetlerinden sonuna kadar faydalanıyor olsam da söz konusu olan mahremiyet ihlali, adaletsizlik ve ayrımcılık olduğunda bu uygulamaların gün gelip bana da zarar vereceği aşikâr. Böyle bir durumda yanımda, kârlılığı pahasına sorumlu olmayı seçen bir şirket ya da teknolojik liderliği pahasına vatandaşını korumayı seçen bir devlet göreceğimi düşünmüyorum. Mevcut durumumuz da bu düşüncemi doğrular nitelikte. Dolayısıyla iş yine başa düşüyor. Bireyin ve sivil toplumun ısrarlı çabası, bu makinenin savrularak yoldan çıkmasını engelleyebilecek tek güç.İlginizi Çekebilir