Yapay zeka (YZ) sistemleri, ticaretten kamu hizmetlerine kadar birçok alanda karar alma süreçlerini destekleyen önemli araçlar haline gelmiştir. İşe alım, kredi değerlendirmesi, sigorta risk analizi gibi kritik süreçlerde kullanılan bu sistemler, belirli bireyleri ya da grupları dezavantajlı duruma sokabilecek ön yargılar (“bias”) içerebilir. Bu makalede, YZ'deki ön yargının ne olduğu, hangi alanlarda yaygın görüldüğü, beraberinde getirdiği riskler ve çözüm yolları ele alınacaktır.

Yapay Zekada Ön Yargı/Algoritmik Ayrımcılık Nedir?

Yapay zekada ön yargı (“bias in AI”) veya algoritmik ayrımcılık (“algorithmic discrimination”) olarak da ifade edilebilen bu durum, YZ sistemlerinin belirli bireylere veya gruplara diğerlerine kıyasla adil olmayan bir şekilde farklı davranmasına neden olan sistematik hatalar olarak tanımlanabilir. 

Amazon’un 2014 yılında işe alım süreçlerini hızlandırmak ve verimliliği artırmak amacıyla geliştirdiği otomatik değerlendirme algoritması bunun en bilindik örneklerinden biridir. Bu algoritma, iş başvurularını analiz ederek en uygun adayları belirlemek için oluşturulmuştur. Ancak, 2018 yılında yapılan incelemeler sonucunda, sistemin kadın adaylara karşı ayrımcılık yaptığı ortaya çıkmıştır. Amazon, bu sorunu gidermeye çalışmasına rağmen algoritmadaki ön yargıyı tamamen engelleyemediği için projeyi iptal etmiştir.

Ön Yargının Sıklıkla Görüldüğü Alanlar

YZ sistemlerinde ön yargı, en çok şu örneklerde görülmektedir: 

- İş başvurularını seçen algoritmaların cinsiyet veya sağlık gibi konularda ön yargı içermesi, 

- Otonom araçların açık tenli yayaları koyu tenlilere göre daha doğru tespit edecek şekilde geliştirilmesi, 

- Kredi veya mortgage değerlendirme süreçlerinde kullanılan YZ sistemlerinin, müşterilerin ikametgahı veya etnik kökeni gibi faktörlere dayalı olarak ayrımcı sonuçlara ulaşması.

Yapay Zekada Ön Yargının Nedenleri

YZ sistemlerindeki ön yargının çeşitli nedenleri bulunmaktadır. Bu sistemlerin öğrenme süreçlerinde kullanılan eğitim verileri, ön yargının en önemli kaynaklarından biridir. Eğer bu veriler, toplumdaki eşitsizlikleri ve ön yargıları yansıtıyorsa, YZ modelleri de bu ön yargıları öğrenerek benzer hatalı sonuçlar üretebilirler. 

Bir diğer önemli neden ise modelin tasarımındaki tercihler ve kullanılan algoritmalardır. Algoritmaların nasıl yapılandırıldığı ve hangi ağırlıkların verildiği, sistemin belirli sonuçlara daha fazla eğilim göstermesine neden olabilir. Bu durum, farkında olunmadan veya kasıtsız bir şekilde ön yargıların sisteme dahil olmasına yol açabilir.

Unutmamak gerekir ki, üretken YZ modellerinde gerçekleşebilen hallüsinasyonlar, yani gerçek olmayan veya eğitim verileriyle tam olarak örtüşmeyen çıktıların üretilmesi de bir ön yargı biçimi olarak ortaya çıkabilir. Bu tür yanıltıcı içerikler, belirli gruplar hakkında yanlış veya olumsuz stereotipleri yaygınlaştırabilir.

Sonuç olarak, yapay zekadaki ön yargının nedenleri karmaşık olmakla birlikte, veri kalitesinden üretken YZ modeline kadar pek çok faktörü içerir. Bu nedenle, YZ sistemlerinin adil ve güvenilir olmasını sağlamak için bu nedenlerin dikkatle incelenmesi ve uygun çözüm yollarının geliştirilmesi gerekmektedir.

Ön Yargıyı Giderme ve Çözüm Yolları

YZ sistemlerindeki ön yargıyı gidermek ve ayrımcılığı önlemek için çeşitli yaklaşımlar ve çözümler önerilmektedir:

Özel Nitelikli Kişisel Verilerin İşlenmesi: Yüksek riskli YZ sistemlerinde ön yargı tespiti ve düzeltilmesi amacıyla özel nitelikli kişisel verilerin işlenmesine, uygun güvencelerle birlikte, AB YZ Yasası Madde 10(5) ile izin verilmektedir. 

Veri Kaynağı İncelemesi: YZ sistemlerini eğitmek için kullanılan veri kaynaklarının analiz edilerek potansiyel ön yargıların (posta kodu, cinsiyet, yaş gibi faktörlere dayalı) belirlenmesi ve azaltılması önemlidir.

Test (“Fairness Testing”) ve Denetim: YZ çıktılarının potansiyel ön yargı bakımından düzenli olarak test edilmesi ve denetlenmesi gerekmektedir. 

Şeffaflık: Algoritmaların nasıl çalıştığı konusunda kullanıcılar bilgilendirilmelidir.

İnsan Gözetimi: Yüksek riskli YZ sistemlerinin geliştirilmesi, uygulanması ve kullanımının her aşamasında bilinçli insan gözetimi sağlanmalıdır. 

AB YZ Yasası'nın Rolü

AB YZ Yasası, YZ sistemlerindeki ön yargı sorununu çeşitli açılardan ele almakta ve bu konuda önemli düzenlemeler getirmektedir. Özellikle yüksek riskli YZ sistemleri bakımından ön yargı riskini azaltmaya ve ayrımcılığı önlemeye yönelik çeşitli hükümler bulunmaktadır. Bunlardan öne çıkan başlıkları aktarmak gerekirse;

- Yüksek riskli YZ sistemlerinin geliştirilmesinde kullanılan eğitim, doğrulama ve test veri kümelerinin ilgili, hatasız ve eksiksiz olması gerekir. Özellikle, sistemin amaçlanan kullanım bağlamına özgü coğrafi, bağlamsal, davranışsal veya işlevsel ayarları yansıtması gerekir.

- Yüksek riskli YZ sistemleri, kullanıcıların sistemin çıktılarını yorumlayabilmesi için yeterince şeffaf olacak şekilde tasarlanmalıdır.

- Ön yargılı veya ayrımcılık gösteren sonuçlara yol açma potansiyeli yüksek belirli YZ uygulamaları yasaklanmıştır. Örneğin; (i) yaş, engellilik veya sosyoekonomik durum nedeniyle kişilerin zafiyetlerini istismar ederek davranışlarını önemli ölçüde bozan ve zarar verme olasılığı olan YZ sistemleri, (ii) belirli bir süre boyunca sosyal davranışlarına veya kişisel özelliklerine göre kişileri değerlendiren veya sınıflandıran ve ayrımcı muameleye yol açan sosyal skorlama sistemleri, (iii) sadece profillemeye veya kişilik özelliklerine dayanarak kişilerin suç işleme riskini değerlendiren YZ sistemleri.

- Yüksek riskli YZ sistemlerinde ön yargıların tespiti amacıyla, temel hak ve özgürlükler için uygun güvenceler sağlanması ve belirli koşulların yerine getirilmesi kaydıyla, özel nitelikli kişisel verilerin işlenmesine istisnai olarak izin verilmiştir.

Türkiye Perspektifinden Değerlendirme

Türkiye’de, yapay zekâ konusunda bir yasal düzenleme olmadığı gibi ön yargı konusunu doğrudan ele alan spesifik bir yasal çerçeve de henüz bulunmamaktadır. Bununla birlikte, Anayasa’nın eşitlik ilkesi (m.10) ve Kişisel Verileri Koruma Kanunu (KVKK) gibi yasal düzenlemeler, algoritmik ayrımcılığı içeren uygulamaların hukuki çerçevede ele alınmasına olanak sağlayabilir. Özellikle, KVKK’nın “kişisel verilerin hukuka ve dürüstlük kurallarına uygun işlenmesi” yükümlülüğü (m. 4/2-a), yapay zekâ sistemlerinde ayrımcılığa yol açabilecek veri işleme süreçlerine karşı hukuki dayanak olarak ileri sürülebilir. Ancak, GDPR ile kıyaslandığında, Türkiye’de algoritmik karar alma ve otomatik işleme süreçlerine ilişkin detaylı bir düzenleme henüz yürürlüğe girmemiştir.

Yapay zeka sistemlerindeki ön yargılar, teknolojinin faydalarından yararlanılmasını engelleyen ve ciddi sosyal adaletsizliklere yol açabilecek önemli bir sorundur. Nihayetinde, adil, şeffaf ve ön yargısız YZ sistemlerinin geliştirilmesi hem bireysel hakların korunması hem de toplumun yapay zekâ teknolojilerine duyduğu güvenin artırılması için büyük önem taşımaktadır. Türkiye'de bu konudaki yasal düzenlemelerin hayata geçirilmesi, etik ve sorumlu YZ kullanımını desteklemek adına kritik bir adım olacaktır.