aposto-logo
TR
TREN

Yapay Zeka Etiği Üzerine Çalışanların Psikolojik Sınavı

Yapay zeka çalışmaları konusunda şu an henüz evrensel ahlak anlayışımızı oturttuğumuzu söylemek zor. Bunu o büyük teknoloji şirketlerinin çalışanları, özellikle etik departmanındaki kişiler belirliyor.

Yapay zekayı diğer tüm kırılım teknolojilerinden ayıran şey aslında çok basit, kendi kendini geliştirebilme özelliği. Makina öğrenmesi tekniği sayesinde yapay zeka sistemleri dışarıdan bir müdahale olmadan büyük veri setlerinde bir takım örüntüler teşhis ederek anlam çıkartabiliyor. Makina öğrenmesi, insan öğrenmesinden oldukça farklı bir yol izliyor. İnsanlar arasında öğrenme çoğu zaman son derece spiritüel bir aktivite. Öğrenme sürecinde, neyi öğrenmeye daha yatkın olduğunuz, veya neyi öğrenmeyi tercih ettiğiniz, neyi öğrenmemeyi tercih ettiğimiz, sürecin gidişatını temelden etkiliyor.

Makina öğrenmesine bağlı yapay zeka sistemlerinde ise böyle bir sağduyu elementi yok. Sadece büyük veri setlerinde görülen örüntüler ve bunlara bağlı çıkarılan anlamlar var. Zaten tam olarak bu nedenle yapay zeka sistemleri toplumların en derin yaralarını ekranlarda önümüzde sunmaya devam ediyor. 2016’da Microsoft’un ırkçı yapay zeka sohbet robotu “Tay” hakkında çıkan haberleri hatırlarsınız. Tay kısa bir sürede, çektiği veri setlerindeki tüm ırkçı, ayrımcı, kadın düşmanı ve agresif doneleri işleyerek korkunç bir dille iletişim kurmaya başlayıp Microsoft tarafından piyasadan çekildi. Son günlerde en fazla konuşulan yapay zeka botu da ChatGPT. Elon Musk’ın kurduğu OpenAI vakfının bir ürünü olan ChatGPT, bazı sorulara verdiği kısıtlı ve tek taraflı cevaplarla eleştirileri üzerine çekti. Bu iki örnek de gösteriyor ki yapay zeka tabanlı chatbotların insan hamlesiyle düzenlenmesi ve geliştirilmesi gerekiyor. Sadece sonsuz veri ile beslenen ve geliştirilen yapay zekalar başarılı olmuyor. 

Tay’dan sonra neredeyse tüm “Big Five” teknoloji şirketleri yapay zekanın etik bir şekilde geliştirilmesi için “Sorumluluk Sahibi Yapay Zeka” departmanları açtılar. Bu departmanların hedefi büyük veri setlerindeki yanlış eğilimleri önceden keşfedip mümkün olduğunca gidermek, modellerin daha kapsayıcı bir şekilde kurulmasını sağlamak ve yapay zekanın toplumsal yaraları derinleştirmesini önlemekti. Son altı yılda yüzlerce sosyal bilimler mezunu, teknoloji şirketlerinde yapay zeka etiği uzmanı, yapay zeka araştırmacısı ve sorumlu yapay zeka uzmanı gibi pozisyonlarda işe girdi. 

Eş zamanlı olarak, yapay zeka etiği üzerine çalışan uluslararası düşünce kuruluşları da artmaya başladı. Boston merkezli Center for AI and Digital Policy, Kanada’daki Montreal AI Ethics Institute, Kaliforniya’daki Center for Humane Technology gibi kuruluşlar, kamuoyunun dikkatini yapay zekanın etik kullanımıyla ilgili sorulara ve çözümlere çekmeye başladı. Bu düşünce kuruluşlarının sürekli çabaları teknoloji etiği konusunda kamuoyunu bilinçlendirmeye ve tartışmanın yönünü “insan boyutuna” çevirmeye yaradı. Avrupa zaten GDPR ile açtığı yola Dijital Piyasalar Yasası ve Dijital Hizmetler Yasası ile devam ediyor ve kendi vatandaşlarını büyük teknoloji şirketlerinin fütursuz güçlerinden ve etkilerinden korumaya çalışıyor.

Avrupa Komisyonu ve teknoloji etiğine yoğunlaşan düşünce kuruluşlarının çalışmaları yapay zeka etiğini yeni bir iş kolu olarak güçlendiriyor. Fakat bu, zorlukların olmadığı anlamına gelmiyor. Şu anda yapay zeka etiği alanında prensiplerden pratiğe geçiş yapılan bir dönemdeyiz. Bu, hâlâ teknoloji şirketlerinin tam önceliği değil çünkü ekstra gelir getirmediği gibi fütursuz büyümeye ket vuruyor. Ama Avrupa Komisyonu gibi regülatif kurumların bu konuya ilgi göstermesi ve yaptırımları arttıkça şirketlerin bu alana daha fazla önem vermesi beklenebilir.

Aslında tüm bu atılımların temelinde tek bir varsayım var. O da, yapay zekanın zaman ilerledikçe bir araçtan canlı bir organizmaya dönüşeceğine dair inanç. Ray Kurzweil’i duymuşsunuzdur, Singularity teorisinin yaratıcısı. 2005 yılında yayımlandığından beri dünyada yok satan “The Singularity is Near” kitabı, insan ve yapay zekanın nasıl birleşeceğini gerçek örneklerle anlatıyor. 2016 yılında Türkçeye çevrilen kitap, yapay zekanın fütüristik değerlendirmesi denildiğinde çoğu kişinin aklına gelen en popüler örnek. Kurzweil gibi, ama daha az popüler olan James Lovelock’un Gaia teorisine de değinmeden bu kısmı kapayamayacağız. Lovelock, insanlığın şu anda “Antropocene” döneminde olduğunu savunuyor. İnsan anlamına gelen antik yunanca kelime “anthropos”dan türetilen anthropocene, insan deneyimini, insan vücuduna ait olduğu modern zamanları anlatmak için kullanılıyor. Lovelock’a göre biz artık Novacene dönemine geçiyoruz. Novacene döneminde insan deneyimi, birbiriyle bağlantıda ilerleyen canlı organizmalar, bilgisayarlar ve doğal sistemlerin tamamını kapsayacak. Gaia teorisi denen bu görüşe göre, gelecekte teknolojik araçlar ve işletim sistemlerini evrilecek ve her şey insan makina iş birliği ile yürüyen canlı sistemlere dönüşecek.

Ne düşündüğünüzü duyar gibiyiz. İnsanların tarihinin en önemli olayı belki de bu. Yapay zeka ve insanın beraber yaşamsal fonksiyonlarını sürdürdüğü bir gelecek artık çok da uzak da değil. İlk yapay zeka mekanizmalarından biri olan Enigma’nın yaratıcısı Alan Turing, makinaların zekasının 2000’e gelindiğinde insan zekasının geçeceğini öngörmüştü. Turning tam olarak haklı çıkmadı ama bu vizyonun geçerli olduğunu artık hepimiz biliyoruz.

Durum böyle olunca, tabii yapay zeka etiği üzerine çalışan kişilerin de iş yaşantıları herkesten bir tık farklı oluyor. Çünkü onlar aslında büyük teknoloji şirketlerinin bu sonsuz gücü nasıl kullanmaları gerektiğine dair bir ahlaki çerçeve belirlemeye çalışıyorlar. Burada “ahlak” kelimesini özellikle seçtiğimizi belirtmek isteriz. Çünkü etik, “iyi bir yaşamın” parametreleriyle ilgilenirken, “ahlak” neyin doğru neyin yanlış olduğuna odaklanır. Yani etikten birkaç adım önce gelir. Yapay zeka çalışmaları konusunda şu an henüz evrensel ahlak anlayışımızı oturttuğumuzu söylemek zor. Bunu o büyük teknoloji şirketlerinin çalışanları, özellikle etik departmanındaki kişiler belirliyor. Big Five şirketlerinde çalışan kişilerin büyük bir sosyal etki gücü olduğunu anlıyoruz. Peki diğer güçleri? Meta’nın gelirlerinin yalnız %1’i çalışanlarının maaşlarına ayrılıyor. Ama Meta hepimizin çevrimiçi aktivitelerinden her gün para kazanıyor. Burada da bir dengesizlik yok mu?

Geçen haftalarda MIT Technology Review’da yayımlanan bir haber, Twittter’ın “Makina Öğrenmesi Etiği, Transparanlık ve Hesap Verilebilirlik” departmanı başı Dr. Rumman Chowdhury örneği üzerinden, yapay zeka etiği üzerine çalışan kişilerin nasıl psikolojik zorluklar ve çıkmazlar yaşadıklarını ortaya koyuyor. 

Bu çok normal değil mi? Küresel erişim, kontrol ve güce erişmeye çalışan büyük teknoloji şirketlerinin yerel sorumluluklarını düşünmek bu kişilere kalıyor. MIT Technology Review’un mülakat yaptığı yapay zeka etiği çalışanları işlerinden tutkuyla, aciliyet duygusuyla ve çözümler üretmenin tatminiyle bahsederken, aynı zamanda misyonu yerine getirmenin ağırlığını da taşıdıklarını söylüyor. 

Yaptıkları işe büyük bir ihtiyaç olduğunu inandıkları için ara vermekten ve eksik iş ortaya koymaktan çok korktuklarını belirten çalışanlar, “bizim teknoloji şirketlerindeki sorumluluğumuz, bu ağlardaki insanları korumak” diyerek misyonlarını ortaya koyuyor.

Yapay zeka etiğinin yeni yükselen bir alan olması, yapay zekanın ve sosyal medyanın verebileceği zararların daha görünür olmasına bağlanabilir. 2016-17 döneminde veri setlerindeki önyargıları gözler önüne seren Cambridge Analytica, ABD Başkanlık Seçimleri ve Brexit gibi krizlerden sonra teknoloji şirketleri iç kontrol mekanizmaları kurmak zorunda kaldı. Yapay zeka etiği hassasiyeti de bu krizlerden sonra kanun koyucular ve aktivistler tarafından kontrol edilmeye başlandı. 2017’den sonra teknoloji şirketleri Avrupa Komisyonu’nun kapsamlı antitröst kanunlarına tabi tutulmaya başlandı. Yapay zeka etiği çalışanlarının işe alımı da teknoloji şirketlerinin bu konudaki çalışmalarını ve hassasiyetlerini göstermek adına kurulan bir teşebbüs olarak algılanabilir.

Yapay zeka etiği çalışanlarına gündelik işleri sorulduğunda büyük veri setlerini incelemek, son derece toksik içeriklerin üstünden geçmek ve ırkçılık, kadın düşmanlığı ve ayrımcılık gibi toplumsal olarak en derinleşmiş sorunları yapay zeka sistemlerinde düzeltmek olduğunu paylaşıyorlar. “Etik kararlar” verebilmeleri için de çoğu zaman istismar anlarını izlemeleri ve ırkçı saldırıları incelemeleri gerekiyor. Yukarıda Tay örneğinde bahsettiğimiz gibi yapay zeka sistemlerinin toplumdaki en kötü problemleri görünür kılan bir yapısı var. 

Yapay zeka etiği departmanlarının objektif karar vermeleri için “saldırgan” buldukları içeriklerin birden fazla kişinin onayından geçmesi gerekiyor. Bu nedenle artık mühendislerin değil sosyal bilimler çalışanlarının ağırlıklı olarak çalıştığı bir departman hâline geldiler. Eğer bir içerik veri setini kontrol eden kişilerin çoğu tarafından “saldırgan” veya “zararlı” olarak nitelendirilirse aksiyon alınıyor ve dijital sosyal ağlarda yayılması engelleniyor. Çocuk istismarı, Myanmar'daki iç savaştan görseller ve 6 Ocak saldırılarının içeriklerinin yayılımının engellenmesi bu aksiyonlara örnek olarak gösterilebilir.

Joy Buolamwini’nin MIT Media Lab’daki çalışmalarına odaklanan Coded Bias belgeselinde de gördüğümüz gibi yüz tanıma sistemleri halen Afrika kökenli Amerikalıları gorillerle karıştırıyor. Buna ek olarak deepfake yazılımların rızası alınmayan kadınların pornolarını yarattığını da biliyoruz. Yani yapay zeka etiği üzerine çalışan kişilerin aynı zamanda toplumda şiddet gören gruplara yönelik de büyük bir sorumlulukları var. Çünkü şu anda yapay zeka sistemlerindeki taraflılıktan en fazla etkilenen gruplar kadınlar, marjinalize edilmiş gruplar, azınlıklar ve genel olarak beyaz erkek olmayan insanlar. 

Şirketler tabii ki de hızlı çözümlere gitmek ve sorunların dört madde ile açıklandığı sunumlarla ilerlemek istiyor. Fakat burada yapay zeka etiği çalışanları, sorunun derinine inmenin öneminden bahsediyor. Şu anda çoğu yapay zeka etiği çalışanının mühendis olduğunu ama aslında sosyal bilimler mezunlarının da bu alandaki katkılarının kıymetli olduğunu savunuyorlar.

Geçen sene Google, yapay zeka etiği alanında çalışan araştırmacıların sayısını iki katına çıkarmayı hedeflediğini açıkladı. Aynı zamanda psikolojik destek mekanizmaları ve akıl sağlığı izinlerini de arttıracaklarını ekledi. Aynı şekilde Meta, çalışanlarına her yıl 25 terapi hediye ediyor. 

Yani tüm şirketlerde aslında yapay zeka etiği konularının önemine ve zorluğuna dair bir kabul var. Yapay zeka sistemleri insan vücuduyla birleşmeye başlayıp, sosyal ağlardaki sorunları daha da görünür kıldıkça, yapay zeka etiği üzerine çalışan daha fazla insana da ihtiyaç olacağını söylemek mümkün. O zaman belki de düşünmek lazım: sosyoloji, felsefe ve psikoloji okumaya karar vermiş üniversite öğrencilerine, bu yeni iş kolunu tanıtmakta ve onların bu alanlara da yönelmelerini sağlamakta bir fayda yok mu? Fakat yapay zeka etiği alanında çalışan kişilerin emeklerini daha hakkaniyetli bir şekilde ödüllendirmek iyi bir gelecek için önemli değil mi? Teknoloji şirketlerinin rock starları halen kodlamayı yapan mühendisler. Bunu değiştirmenin zamanı gelmedi mi?

Hikâyeyi paylaşmak için:

Kaydet

Okuma listesine ekle

Paylaş

İLGİLİ BAŞLIKLAR

yapay zeka

Yapay Zeka

zeka

Yapay zeka

Makina öğrenmesi

Microsoft

Elon Musk

OpenAI

NEREDE YAYIMLANDI?

Kırılım ÇağıKırılım Çağı

BÜLTEN SAYISI

ÜYELERE ÖZEL

Yapay Zeka Etiği Üzerine Çalışanların Psikolojik Sınavı

Yapay zeka çalışmaları konusunda şu an henüz evrensel ahlak anlayışımızı oturttuğumuzu söylemek zor. Bunu o büyük teknoloji şirketlerinin çalışanları, özellikle etik departmanındaki kişiler belirliyor.

22 Ara 2022

YAZARLAR

Hale Ceren Zeytinoglu

Başlangıç Noktası Lideri

Kırılım Çağı

Teknolojinin sosyal ve çevresel sorunları nasıl çözebileceğine dair tartışmalara aşinalığın olsun. Her ayın 2’inci ve 4’üncü Perşembe günü, yeni bir disiplin olan teknoloji sosyolojisine dair her konuyu burada yakalayabilirsin.

İLGİLİ OKUMALAR

;