Vahşi Batı’da yapay zekâ etiği

Vahşi Batı’da yapay zekâ etiği

Sürekli gelişen teknoloji dünyasında mevzuat ve düzenlemeler teknolojik gelişmelere ayak uydurmakta bir hayli zorlanıyor. Açık kuralların bulunmaması ya da henüz gelişmekte olan bu kural setlerinin içindeki boşluklar şirketlerin iyi tanımlanmış bir etik çerçeve olmadan faaliyet gösterdiği bir Vahşi Batı senaryosu yaratıyor.

Yapay zekâ 2023 yılında bütün diğer yeni nesil teknolojileri geride bırakarak her alanda bir numaralı gündem olmayı başardı. GPT gibi dil modellerinin damga vurduğu yılı kapatırken Generative AI – Üretici Yapay Zekâ (daha önce üretilmiş bilgileri kullanarak yeni bir şeyler üretmesini beklediğimiz yapay zekâ algoritmaları üretici yapay zekâ olarak adlandırılıyor.) alanında da müthiş bir hareketlilik yaşandı. Yaratıcılık sınırlarını zorlayan üretici yapay zekâlardan sürücüsüz arabalara, chatbotlardan kişiselleştirilmiş sanal asistanlara kadar yaşama ve çalışma şeklimizi derinden etkileyen yapay zekâ hiç şüphe yok ki bu yılın da en çok konuşulanlarından olacak.

Ancak bu heyecan verici yolculukta içimiz her zaman bir parça tedirgin. Kendi yaratımımızın bize karşı işlemeye başlayacağı zamanları neredeyse mutlak bir kabul ve korkuyla bekliyoruz. Bir yanda zaman tasarrufu açısından hepimiz için inanılmaz bir nimet olan modeller, diğer yanda iş dünyasında bugüne kadar görülmemiş verimlilik artışlarına neden olan algoritmalar… Peki ama bu korku neden? Onunla başa çıkmanın bir yolu yok mu? Yapay zekânın etik ilkelerle uyumlu, “iyi” bir güç olmasını/olarak kalmasını nasıl sağlayacağız? Ya da daha sert bir ifade ile, buna imkân var mı?

Yapay zekâ geliştikçe, bu devasa ticari makineyi çevreleyen etik hususlarla; yani hesap verebilirlik, şeffaflık, önyargı ve karar alma süreçlerinin makinelere devredilmesinin olası sonuçları gibi reel ve potansiyel sorunlarla ilgili tartışmalar da derinleşiyor.

İş dünyasında etikle ilgili olarak ortaya çıkan her sorunda olduğu gibi, yapay zekâ etiği alanında da temel kaygı, etik uygulamalarla ticari çıkarların çatışması… Kârlılık ve pazar hakimiyeti peşinde koşan şirketler, işin kolayına kaçma veya yapay zekâ uygulamalarının etik sonuçlarını görmezden gelme eğilimindeler. Bu çatışma salt teorik bir tartışma değil; teknolojik ve ekonomik ilerlemenin yörüngesini şekillendiriyor, gerçek dünyada şimdiden derin etkiler yaratıyor. Konunun merkezinde şirketlerin yapay zekâ sistemlerini geliştirme ve yaygınlaştırma konusunda üstlendikleri (ya da üstlenmekten kaçındıkları) sorumluluklar yer alıyor.

Bir şirket olarak pazarınızda, bir ülke olarak ekonomik-politik satıhta önde gelen oyunculardan biri olmak istiyorsanız yapay zekâ teknolojisinin hızlı gelişimine ayak uydurmak zorundasınız. Bu esnada etik çerçevenin çizilmesi, kuralların oluşturulması, regülasyonların tamamlanması gibi süreçleri bekleyemezsiniz. Şu anda gördüğümüz kadarıyla bu çerçeveler çizilmeden atılan her adım kontrolsüz büyümeyle sonuçlanıyor. Bu büyüme hızına dur diyebilecek yegâne güç olan devletler ise yukarıda bahsettiğim alanlarda güç kaybetmemek ve lider teknoloji üreticisi olma konumunun tadını çıkarmak üzere köşesine çekiliyor. Rasyonel mi, elbette… Ancak yalnızca kısa vadede. Öte yandan insan da çoğunlukla kısa vade odaklı bir varlık. Dolayısıyla bu denklemde şaşırtıcı hiçbir şey yok. Ancak uzun vadede insanlığın başı epey ağrıyacak gibi görünüyor.

Bir şirket olarak pazarınızda, bir ülke olarak ekonomik-politik satıhta önde gelen oyunculardan biri olmak istiyorsanız yapay zekâ teknolojisinin hızlı gelişimine ayak uydurmak zorundasınız. Bu esnada etik çerçevenin çizilmesi, kuralların oluşturulması, regülasyonların tamamlanması gibi süreçleri bekleyemezsiniz.

KARA KUTU İKİLEMİ

Elinizde hayatınızı, kariyerinizi ve ilişkilerinizi etkileyebilecek kararlar veren sihirli bir kutu olduğunu düşünün. Kutunun içinde ne olduğunu görme izniniz yok. Vardığı sonuçlara nasıl vardığına dair hiçbir fikriniz de yok. Bu kutunun size zarar verebilme ihtimali olduğunu düşünür müsünüz? Muhtemelen evet. İşte yapay zekâ sorunu da tam olarak böyle bir kara kutu sorunu. Yapay zekânın karar verme süreçleri şeffaf değil. Yapay zekâ algoritmaları, özellikle de derin öğrenme durumunda o denli karmaşık modellere evriliyor ki, modelin yaratıcıları dahi bir kararın neden belirli bir şekilde alındığını açıklayamaz hâle geliyorlar. Hangi kararın neye dayanarak alındığına dair hiçbir fikrinizin olmadığı bir sistemin kararlarını uygularken doğal olarak hesap verebilirlik ve adalet gibi konularda endişeler uyanıyor. Rekabet avantajı arzusuyla hareket eden şirketler, yapay zekâ sistemlerinin iç işleyişini ticari sır olarak nitelendirerek açıklamama konusunda ısrarcılar. Ancak bu gizlilik, etik bir çerçeve oluşturulabilmesinin en temel parçası olan şeffaflıkla taban tabana çelişki içinde.  Kullanıcılarınız ya da çalışanlarınız kendilerini etkileyen kararların nasıl alındığını bilmek istediklerinde onlara verebileceğiniz bir cevabınız olmuyor. Fikri mülkiyet hakları ile şeffaflık arasında bir dengenin kurulmasını sağlayabilecek yasalardan henüz yoksunuz ve büyük ihtimalle bu vaziyette kalmaya da devam edeceğiz.

Önyargılı yapay zekâ sistemleri yasal sorunlara yol açabildiği gibi, marka itibarına da zarar verebiliyor ve en önemlisi, toplumsal eşitsizliklerin olduğu gibi sürüp gitmesine de neden oluyor. Bu mayın tarlasında ilerleyebilmenin tek yolu geliştirici şirketlerin veri toplama ve model geliştirme süreçlerinde çeşitlilik ve katılımcılığa öncelik vermesi.

ETİK MAYIN TARLASI: ÖNYARGILAR

Yapay zekâ kullanan bir işe alma sisteminin, “istemeden” belirli bir demografik gruptan adayları (örneğin beyaz ırktan, erkek ve genç adayları) tercih ettiğini veya o toplumun normlarına göre geleneksel olmayan özelliklere sahip olan adayları tamamen değerlendirme dışı bıraktığını hayal edin. Tarif ettiğimiz, bire bir olarak yaşanmış bu olay sonrasında söz konusu yapay zekâ sistemi ürettiği önyargılar nedeniyle devre dışı bırakıldı. Bu yanlı kararları, bireyler ve genel olarak toplum üzerinde oldukça olumsuz sonuçlar doğurma gücüne sahip olan tam bir etik tuzak olarak nitelendirebiliriz.

Yapay zekâ sistemleri çok geniş veri kümeleri üzerinde eğitilir ve eğer bu veri kümeleri önyargılar içeriyorsa yapay zekâ da bunları sürdürebilir ve hatta daha da kötüleştirebilir. Yapay zekâ modellerini eğitmek için kullanılan veriler mevcut toplumsal önyargıları içlerinde barındırıyorsa, algoritmanın ürettiği çıktılar her ne kadar kasıtsız da olsa, tümüyle saf bir ayrımcılık krizine neden olabilir. Günümüzde bu gibi ayrımcı uygulamaları önlemek sadece yasalar karşısındaki yükümlülükler nedeniyle değil, aynı zamanda muhtemel toplumsal tepkileri önlemek açısından da büyük önem taşıyor. Şirketler için bu gibi önyargıların kararlar üzerindeki etkisini ele almak yalnızca etik değil aynı zamanda pragmatik bir zorunluluk.

Önyargılı yapay zekâ sistemleri yasal sorunlara yol açabildiği gibi, marka itibarına da zarar verebiliyor ve en önemlisi, toplumsal eşitsizliklerin olduğu gibi sürüp gitmesine de neden oluyor. Bu mayın tarlasında ilerleyebilmenin tek yolu geliştirici şirketlerin veri toplama ve model geliştirme süreçlerinde çeşitlilik ve katılımcılığa öncelik vermesi. Evet, bu durum da diğer etik ikilemlerde olduğu gibi kısa vadeli iş hedeflerinin önünde bir engel gibi görünebilir. Ancak uzun vadede güven ve sürdürülebilirliğe yapılan bir yatırım olduğu gerçeğini de unutmamak gerekiyor.

VERİ GİZLİLİĞİ Mİ? O DA NEYDİ?

Sizin hakkınızda, sizin kendi hakkınızda bildiklerinizden daha fazlasını bilen bir yapay zekâ sistemi düşünün. Bu bir bilim kurgu – gerilim filminin senaryosu gibi görünse de, yapay zekânın veri odaklı endüstrilerdeki hızlı ilerlemesi nedeniyle potansiyel bir gerçeklik… Yapay zekâ modellerinin önemli bir kısmında, modelleri eğitmek ve daha doğru tahminler yapabilmek için büyük miktarda kişisel veri kullanılıyor. Bu durum verilerin nasıl toplandığı, saklandığı ve kullanıldığı konusundaki endişeleri artırıyor. Şirketler akıllı ev cihazlarından kişiselleştirilmiş reklamlara kadar pek çok araç vasıtasıyla kişisel verilerimizi topluyor ve kullanıyor. Bu durumu kanıksamış haldeyiz; az önce bahsi geçen kar ayakkabısının reklamını cep telefonumun kilidini açar açmaz karşımda bulmam beni her nedense eskisi kadar tedirgin etmiyor. Hangi saatte eve geldiğimden, seçim akşamı arkadaşlarımla yaptığım konuşmaya kadar her detayı kaydettiğini bildiğim akıllı cihazlara ve bu cihazların topladığı devasa veriyi “en iyi ihtimalle” bana bir şeyler satmak için kullanan sistemlere bu kadar çabuk teslim olmamamız gerekiyordu. Ancak “homo sapiens” olmanın temel kuralları listesinde en tepelerdeki yerini koruyan kural yine devredeydi: keyfim ve rahatım geri kalan her şeyin önündedir.

Yukarıda bahsettiğimiz nedenlerle şirketlerin ya da hükümetlerin teknoloji geliştirme hızı pahasına gizliliğimizi koruyacağını düşünmek saçma olurdu. Her ne kadar başta AB olmak üzere bilinçli vatandaşların tepkilerini dikkate alan yasa yapıcılar bu konu dahilinde sert yaptırımlar uygulasalar da şirketlerin bu “sert” yaptırımların etrafında dolanabilmelerine olanak sağlayan pek çok yasal boşluk da söz konusu. Uzun vadeli çıkarlar açısından bu iki çatışan değişken arasında bir denge kurmak, en azından açık onay mekanizmaları ile etik veri uygulamalarına bağlı kalmaya gayret etmek önem arz ediyor.

Sizin hakkınızda, sizin kendi hakkınızda bildiklerinizden daha fazlasını bilen bir yapay zekâ sistemi düşünün. Bu bir bilim kurgu – gerilim filminin senaryosu gibi görünse de, yapay zekânın veri odaklı endüstrilerdeki hızlı ilerlemesi nedeniyle potansiyel bir gerçeklik…

TEKNOLOJİK VAHŞİ BATI

Sürekli gelişen teknoloji dünyasında mevzuat ve düzenlemeler teknolojik gelişmelere ayak uydurmakta bir hayli zorlanıyor. Açık kuralların bulunmaması ya da henüz gelişmekte olan bu kural setlerinin içindeki boşluklar şirketlerin iyi tanımlanmış bir etik çerçeve olmadan faaliyet gösterdiği bir Vahşi Batı senaryosu yaratıyor.

Sıkı düzenlemelerin olmayışı sınırsız inovasyon fırsatı olarak da görülebilir. Ancak bu durum ters etki de yaratabiliyor. Her ne kadar bu konuda biraz uyuşmuş olsak da ağır etik ihlaller hala sert bir kamuoyu tepkisiyle karşılaşabiliyor. Sorumlu yapay zekâ uygulamalarının savunulmasına öncülük eden sivil toplum kuruluşları bu alanda büyük rol oynuyor ve şirketlerin ve hükümetlerin duymak istemedikleri sesleri yükselterek duyulur hâle gelmelerini sağlıyor. Yetmez ama evet; bu seslerin daha güçlü hâle gelmesi tek çözüm yolu…

Çok sevdiğim bir sözdür: Eskiler “Vaka ile savaşılmaz.” derler. Ben de olgusal ve gerçekçi bir yaklaşım izlemek gerektiği görüşündeyim. Ticari kaygıların etik kaygılardan çok daha öncelikli olduğu ve olmaya devam edeceği gerçekliğin bir yanı. Diğer yanı ise bu alanda yalnız oluşumuz… Her ne kadar nimetlerinden sonuna kadar faydalanıyor olsam da söz konusu olan mahremiyet ihlali, adaletsizlik ve ayrımcılık olduğunda bu uygulamaların gün gelip bana da zarar vereceği aşikâr. Böyle bir durumda yanımda, kârlılığı pahasına sorumlu olmayı seçen bir şirket ya da teknolojik liderliği pahasına vatandaşını korumayı seçen bir devlet göreceğimi düşünmüyorum. Mevcut durumumuz da bu düşüncemi doğrular nitelikte. Dolayısıyla iş yine başa düşüyor. Bireyin ve sivil toplumun ısrarlı çabası, bu makinenin savrularak yoldan çıkmasını engelleyebilecek tek güç.

Dicle Yurdakul

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir