Yapay Zekaya Ön yargılı Mıyız?

Yapay Zekaya Ön yargılı Mıyız?

ProPublica'nın son zamanlarda ceza adalet sistemindeki algoritmaların kullanımıyla ilgili bir makalesi yayınlandı . “Makine Yanlılığı” başlıklı makalede, adli hüküm verme sürecindeki tahmin algoritmalarının kullanımı ve bu algoritmaların ortaya çıkardığı sorunlu ırk yanlılıkları belgelenmiştir. Muhabirler, bu algoritmaların, beyaz suçluların suç işleyişini sistematik bir şekilde öngörmediğini ve siyah suçluların suç işleyişini aşırı tahmin ettiklerini gösteriyor. Bu durumun önemli sonuçları vardır; çünkü suçlunun suç işlemeye devam etme suçluluğu - ceza mahkemelerinin ve rehabilitasyon şartlarının belirlenmesinde büyük bir faktördür.

 

Tahmin edilebileceği gibi (herhangi bir algoritma olmadan), bu parçaya tepki, veri adaletinin ceza adaletinde kullanılmasını ezici bir şekilde eleştirmektedir. Bu araştırma, gazeteciliğin önemli bir parçası olsa da, algoritmaların kullanımı üzerindeki ürpertici etkisinin, ırksal önyargıyı hafifletmenin tam tersi bir etkiye sahip olabileceğinden endişe duyuyorum . Ne yazık ki, ProPublica'nın makalesinin kendisi bilişsel önyargılarımızın birçoğunda, sonuçta düzeltmeyi umdukları problemi daha da kötüleştirebilecek bir çok şey üzerinde çalışmaktadır.

 

(ProPublica'nın ana bulguları: Tahmin algoritmaları siyah sanıklar için farklı şekilde başarısız)

 

Quantification and Salience Bias:

 

Tahmin algoritmalarının ırkları farklı şekilde nasıl etkilediğini anlamak hiç şüphesiz önemlidir. Bununla birlikte, özellikle kamu politikası bağlamında - daha önemli olan soru , algoritmaların performansının diğer alternatifler ile karşılaştırılmasıdır (şu andaki temel durumun özlü insan yargısı olması).

 

 “Algoritmalar Önyargılı” başlığı, “Algoritmalar çok daha az önyargılı ve İnsanlardan Daha Doğru Bir Şekilde” (her ikisi de aynı anda doğru olsa da) daha farklı bir anlama sahiptir.

 

Algoritmalar gerçekte tahminlerini nicelleştirdikleri gerçeğinden muzdariptirler, bu da bizim önyargılarının ilk değerlendirmelerinin post hoc değerlendirmelerini yapabilmemizi sağlayan şeydir. İnsanlar pek çok alanda tahminlerde bulunurlar, ancak nadiren kâğıda kaleme döküp, kimsenin analiz etmesini herkes için tahminlerini resmileştirirler. Bilim adamları gerçekte insan tahminlerinin doğruluğu hakkında veri analiz ettiğinde, oldukça korkunç ve birçok tür yanlılığa maruz kaldıkları ortaya çıkıyor. ( Philip Tetlock'un sözde “uzmanlar” ın tahminlerde bulunduğuna dair çalışmalarına bakın .)

 

“Geleceği Tahmin Etmede Daha Az Kötü Olmak”

 

 

Ön zamanlı algoritmik tahmin verilerinin kullanılabilirliği, algoritmik önyargının diğer (belki de daha fazla zararlı) önyargı türlerinden daha fazla farkında olduğumuz anlamına gelir. Bu nedenle algoritma kararlarımız, objektif kararlar verme yeteneğimizi bozan bir önemlilik yanlılığına tabidir.

 

Rekidivizm algoritmasının ırksal yanlılığı ile insan hakimlerin ırksal önyargısı arasında bir karşılaştırmaya daha çok ilgi duyacağım. (Neyse ki, ceza adaleti, verilerin ve sonuçların gerçekten kaydedildiği bir alandır, bu yüzden böyle bir karşılaştırma yapılabilir - ben size kriminoloji lisansüstü öğrencilerine bakıyorum.) Mevcut tüm seçenekler arasında bir karşılaştırma, daha fazla bilgi sahibi olmamızı sağlayacaktır. Algoritmalar iddia eden bir makaleden daha yeni kararlar yeni boogeyman.

 

Algoritma Kaçırma:

 

Wharton Okulu'ndan Berkeley Dietvorst tarafından yapılan son araştırmalar, algoritmaların hatalarını, insanlar tarafından yapılan aynı hatalardan daha sert bir şekilde yargıladığımızı gösteriyor. “ Algoritma Kaçırma: Erredenleri Err Gördükten Sonra Algoritmalardan Kaçınan Algoritmaları Önlemek ” adlı makalesinde, algoritmaların algoritmaların insanlara göre ne zaman objektif olarak daha iyi olduğu bile, başarısız olduklarını gördükten sonra bunları kullanmaktan kaçınıyoruz. Ancak, insanların aynı şekilde başarısız olduğunu gördüğümüzde, onların eksikliklerini rasyonalize etme ve hatalarını affetme olasılıkları daha yüksektir.

 

 

İnsanların Algoritmalar Üzerindeki İnsan Yargısına Güven Neden

 

Algoritma isteksizliği ProPublica'nın makalesinin tepkisinin kalbinde yer alır. Algoritmalar hata yaptıkları zaman insanlar çok zordur (bu durumda, algoritmalar siyahlar ve beyazlar arasındaki rekabelizm oranlarını yanlış aldığında). Yukarıda önerdiğim karşılaştırma çalışmasını yürütmüş olsa bile, algoritmaların insan hakimlerinden daha doğru ve daha az önyargılı olduğu ortaya çıkıyor, yine de bunları kullanmaktan ve hatalarını daha sert bir şekilde yargılamaktan kaçınmamız mümkün.

 

 

Algoritmaların eksikliklerinden kesinlikle haberdar olmalıyız, aynı zamanda algoritmalara karşı olan önyargılarımızın da farkında olmalıyız. Algoritmaların alternatif tahmin metotlarından daha az önyargılı olduğu ortaya çıkarsa, bunlardan kaçınmak, cezai adalet sistemindeki ırkçılığı fiilen artırma potansiyeline sahiptir. Bu yüzden (kaçınılmaz olarak) hata yaptıklarında irrasyonel ve gereksiz suçlamaların algoritmalara yerleştirilmesinin önemli sonuçları vardır.

 

Trade Off'ları Anlamak:

 

Algoritmalar yüceltilmiş optimizasyon problemlerinden başka bir şey değildir. Bu durumda, istatistikçiler “rekadivizmi ne kadar doğru tahmin edebildiğimizi en üst düzeye çıkarmayı” hedeflemiş ve tam olarak bunu yapan bir program geliştirmişlerdir. Irksal önyargıyı en aza indirmenin, tahmine dayalı doğruluğu en üst düzeye çıkarmanın hedefinden farklı bir amaç olduğunu kabul etmek önemlidir. Önyargıyı azaltmak kesinlikle zevkli bir hedeftir, ancak istatistik ve belirsizlik dünyasında uğraşırken, farklı hedefler arasında her zaman ticaret vardır .

 

 

İstatistikçiler ırksal önyargıları hesaba katıyorsa, modellerinin tahmini geçerliliği neredeyse tamamen azalacaktır. Bu, ırksal önyargıyı azaltmamamız mı, yoksa kamu politikasının farklı amaçları arasında nasıl ticaret yapmak istediğimizle ilgili bir soru değil. Irksal önyargıları azaltmak ya da bireyleri hapiste gereksiz yere kilitli tuttuğumuz yılların sayısını azaltmak daha mı iyidir? Cevabı bilmiyorum, ama yapılması gereken bir ticaret olduğunu anlıyoruz.

 

Cehalet Bliss Değildir!

 

Makinelerin önyargılı olduğu ortaya çıkıyor ve biz de makinelere karşı önyargılıyız. ProPublica, bu önyargıların ilki hakkında büyük bir raporlama yaptı, ancak hepsi ikinciyi açıkça görmezden geliyordu. Algoritmaların bu alandaki insanlarla nasıl karşılaştırıldığı sorusunu yanıtlamadan, algoritmaların cezai adalet sistemine nasıl uyduğunun eksik bir resmiyle kalıyoruz. Bu, algoritmaları az çok kullanmamız gerekip gerekmediğini bilmek imkansız hale getirir.

 

 

ProPublica ayrıca, önyargı azaltma ve öngörü doğruluğu arasında yapılması gereken temel ticaretleri de ele almamıştır. Ceza adalet sistemindeki geleneksel uygulamalardan farklı olarak, algoritmaların ve veri biliminin uygulanması, bu hedefleri politika hedeflerimiz arasında çok belirgin kılıyor - bize gösterdikleri şeyi sevmesek de. Ama veri bilimi şeytanlaştırmak, banyo aynasında sinirlenmek gibi, çünkü alnındaki zitini gösterdi.

 

 

 

ProPublica'nın çalışmalarını geliştirmenin tek yolu , kamu biliminde veri biliminin rolünü arttırmaktır , azaltmak değil. Ceza adaletinde algoritmaların yararı hakkında sonuçlar çıkarmadan önce yapılması gereken çok iş var. Bu yüzden sistemi geliştirmek isteyenlerin, elektronik tablolarda perdeliklerimizde işlem yapmaları daha iyi olur.

 

Yazı için alex p.miller teşekkür ederiz.