
Amazon uzmanı, ACLU'nun önyargı bulgularının ardından yapay zekâya ilişkin düzenlemeler öneriyor.
Özet
Amazon yetkilisi Dr. Matt Wood, kolluk kuvvetlerinin yüz tanıma teknolojisini kullanırken yanlış tanımlamaları önlemek adına en az yüzde 99'luk bir güven eşiği belirlemesi gerektiğini savunmuştur. ACLU'nun Amazon’un Rekognition algoritmasındaki ırksal önyargı iddialarına yanıt veren Wood, yüzde 80'lik varsayılan ayarın kamu güvenliği için yetersiz olduğunu ve hatalı sonuçlara yol açtığını belirtmiştir. Amazon, yüksek güven eşikleri kullanıldığında yanlış tanımlama oranının sıfıra indirilebileceğini vurgulayarak, teknolojinin doğru yapılandırmayla güvenli bir şekilde kullanılabileceğini savunmaktadır.
Amazon'dan bir uzman, hükümetin kolluk kuvvetlerinde yüz tanıma kullanımı için asgari bir güven düzeyi uygulaması gerektiğini öne sürdü.
Amazon Web Services'de Derin Öğrenme ve Yapay Zeka Genel Müdürü olan Dr. Matt Wood, bu öneriyi, ACLU'nun (Amerikan Sivil Özgürlükler Birliği) Amazon'un 'Rekognition' yüz tanıma algoritmasındaki ırksal önyargıya ilişkin bulgularına yanıt verdiği bir blog yazısında dile getirdi.
ACLU, bulgularında Rekognition'ın, Kongre üyeleri 25.000 tutuklama fotoğrafından oluşan bir veri tabanıyla karşılaştırıldığında, daha koyu ten rengine sahip olanları hatalı bir şekilde suçlu olarak etiketleme eğiliminde olduğunu tespit etti.
Amazon, kolluk kuvvetleri için yüzde 95 veya daha yüksek bir oran önerilmesine rağmen, ACLU'nun Rekognition'ın varsayılan yüzde 80 güven ayarını değiştirmeden bıraktığını savundu.
ACLU'nun bulguları üzerine yorum yapan Wood şunları yazdı:
"Rekognition'daki yüz tanıma API'leri için varsayılan güven eşiği %80'dir; bu, çok çeşitli genel kullanım durumları (sosyal medyadaki ünlüleri veya fotoğraf uygulamalarında birbirine benzeyen aile üyelerini tanımlamak gibi) için iyidir, ancak kamu güvenliği kullanım durumları için doğru ayar değildir.
ACLU tarafından kullanılan %80'lik güven eşiği, bireylerin doğru şekilde tanımlanmasını sağlamak için çok düşüktür; bu güven düzeyinde hatalı sonuçlar (yanlış pozitifler) görmeyi bekleriz."
Wood, şirketin kendi testinden bir örnek vererek, akademide yaygın olarak kullanılan 850.000'den fazla yüzden oluşan bir veri kümesini kullanarak, tüm ABD Kongresi üyelerinin herkese açık fotoğrafları üzerinde ACLU'nunkine 'benzer bir şekilde' arama yaptıklarını belirtti.
Yüzde 99 güven eşiği kullanıldığında, (ACLU testinden 30 kat daha büyük) çok daha fazla sayıda yüzle karşılaştırma yapılmasına rağmen yanlış tanımlama oranı sıfıra düştü.
Amazon, teknolojisinin kullanıldığı olumlu alanları vurgulamaya doğal olarak hevesli. Şirket, teknolojinin insan kaçakçılığıyla mücadele ve kayıp çocukların aileleriyle yeniden bir araya getirilmesi gibi amaçlarla kullanıldığını belirtiyor.
Ancak ACLU'nun testi, teknolojinin feci sonuçlar doğuracak şekilde kötüye kullanılma potansiyelini gösteriyor. Denetim olmazsa, sivil özgürlükler etkilenebilir ve azınlıklara yönelik zulmün artmasına yol açabilir.
Bunun yaşanmasını önlemeye yardımcı olmak için Wood, "hükümetin devreye girip kolluk kuvvetlerinin kamu güvenliği çalışmalarına yardımcı olması için hangi eşik (veya güven düzeylerinin) karşılanmasını istediğini belirtmesinin" "çok makul bir fikir" olduğunu ifade ediyor.
NIST ve Dallas'taki Teksas Üniversitesi'nden araştırmacılar tarafından 2010 yılında yapılan bir çalışma, Doğu Asya'da tasarlanan ve test edilen algoritmaların Doğu Asyalıları tanımada daha iyi olduğunu, Batılı ülkelerde tasarlananların ise beyazları tespit etmede daha doğru sonuç verdiğini ortaya koydu.
Yapay zeka algoritmalarında belirgin bir önyargı sorunu devam ederken, polis vücut kameraları gibi alanlarda hatalı yüz tanıma teknolojisinin kullanımına ilişkin endişelerin olması şaşırtıcı değil.
Kolluk kuvvetleri için asgari bir güven düzeyi belirlenmeli mi? Yorumlarda bize bildirin.