Twitter algoritmining irqiy tarafkashligi kattaroq texnologik muammoga ishora qiladi

Mundarija:

Twitter algoritmining irqiy tarafkashligi kattaroq texnologik muammoga ishora qiladi
Twitter algoritmining irqiy tarafkashligi kattaroq texnologik muammoga ishora qiladi
Anonim

Asosiy takliflar

  • Twitter foydalanuvchilar rasmlarni oldindan koʻrish dasturida irqiy tarafkashlik deb ataydigan narsalarni tuzatishga umid qilmoqda.
  • Texnologiya gigantining chaqiruvi sanoat xilma-xillik muammolarini hal qilish uchun zarur boʻlgan madaniy hisob boʻlishi mumkin.
  • Texnologiyaning xilma-xilligi yoʻqligi uning texnologik yutuqlari samaradorligiga putur etkazmoqda.
Image
Image

Twitter texnologiya sanoatidagi xilma-xillik masalalari boʻyicha koʻproq suhbatga sabab boʻlgan trend mavzusiga aylanganidan soʻng, rasmni kesish algoritmi boʻyicha tekshiruv boshlamoqchi.

Ijtimoiy tarmoqlardagi juggernaut foydalanuvchilar tasvirni oldindan ko'rish algoritmida irqiy qarama-qarshilikni aniqlaganidan keyin sarlavhalarga aylandi. Bu kashfiyot Twitter foydalanuvchisi Kolin Madlend platformadan foydalanib, Zoom kompaniyasining yashil ekran texnologiyasidan foydalangan qora tanli hamkasblarini tan olmagani haqida gapirganidan so‘ng sodir bo‘ldi, biroq u istehzoli ko‘rinishda Twitterning tasvirni kesish algoritmi o‘zini xuddi shunday tutganini va qora yuzlarni afzal ko‘rganini aniqladi.

Albatta, bu har qanday ozchilik uchun katta muammo, lekin menimcha, bundan ham kengroq muammo bor.

Boshqa foydalanuvchilar algoritmga doimiy ravishda odamlardan tortib multfilm qahramonlari va hatto itlargacha boʻlgan oq va och teriga ega yuzlarni birinchi oʻringa qoʻyishni koʻrsatuvchi bir qator virusli tvitlar paydo boʻlishi tendentsiyasiga kirishdi. Bu muvaffaqiyatsizlik texnologiya sanoatidagi yirik madaniy harakatdan dalolat beradi, u doimiy ravishda ozchilik guruhlarini hisobga olmagan va bu texnik tomonga o'tib ketgan.

"Bu ozchiliklarni dahshatli his qiladi, go'yo ular muhim emas va undan jiddiyroq zarar keltirishi mumkin bo'lgan boshqa narsalar uchun foydalanish mumkin", - Erik Learned-Miller, universitetning informatika professori Massachusets shtati, telefon orqali bergan intervyusida."Dasturiy ta'minotdan nima maqsadda foydalanish mumkinligi va yuzaga kelishi mumkin bo'lgan barcha zararlar haqida qaror qabul qilganingizdan so'ng, biz ularning sodir bo'lish ehtimolini minimallashtirish yo'llari haqida gapira boshlaymiz."

Xronologiyada kanareyka

Twitter tvitlarga kiritilgan rasmlarni avtomatik ravishda kesish uchun neyron tarmoqlardan foydalanadi. Algoritm oldindan ko'rish uchun yuzlarni aniqlashi kerak, ammo u sezilarli oq rangga ega. Kompaniya matbuot kotibi Liz Kelli barcha xavotirlarga javob yozdi.

Kelli tvitterda shunday deb yozdi: "Buni ko'targan barchaga rahmat. Biz modelni jo'natishdan oldin noto'g'rilikni sinab ko'rdik va sinovimizda irqiy yoki gender tarafkashligiga dalil topmadik, ammo bizda ko'proq tahlillar borligi aniq. bajaring. Boshqalar ko‘rib chiqishi va takrorlashi uchun biz ishimizni manbani ochamiz."

“Yovvoyida yuzni tanish texnologiyalari: Federal idoraga qoʻngʻiroq” oq qogʻozining hammuallifi, Learned-Miller yuzga asoslangan sunʼiy intellektni oʻrganish dasturining haddan tashqari koʻpligi boʻyicha yetakchi tadqiqotchi hisoblanadi. U ko‘p yillar davomida tasvirni o‘rganish dasturining mumkin bo‘lgan salbiy ta’sirini muhokama qilib keladi va bu noto‘g‘ri fikrlarni imkoni boricha yumshatish mumkin bo‘lgan voqelikni yaratish muhimligi haqida gapirdi.

Yuzni aniqlash texnologiyasining koʻplab algoritmlarida maʼlumotlar uchun mos yozuvlar toʻplamlari qoʻllaniladi, ular koʻpincha oʻquv toʻplamlari deb nomlanadi, ular tasvirlarni oʻrganish dasturining xatti-harakatlarini nozik sozlash uchun foydalaniladigan tasvirlar toʻplamidir. Oxir oqibat, bu sun'iy intellektga yuzlarning keng doirasini osongina tanib olish imkonini beradi. Biroq, bu ma'lumot to'plamlarida turli xil pullar bo'lmasligi mumkin, bu esa Twitter jamoasi tomonidan duch kelgan muammolarga olib keladi.

"Albatta, bu har qanday ozchilik uchun juda katta muammo, lekin menimcha, bundan ham kengroq muammo bor", dedi Learned-Miller. "Bu texnologiya sohasida xilma-xillikning etishmasligi va noto'g'ri foydalanish va suiiste'mol qilishga moyil bo'lgan bunday kuchli dasturiy ta'minotdan to'g'ri foydalanishni ko'rsatish uchun markazlashtirilgan, tartibga soluvchi kuchga ehtiyoj bilan bog'liq."

Texnologiyada xilma-xillik yo'q

Twitter eng soʻnggi texnologik kompaniya boʻlishi mumkin, ammo bu yangi muammo emas. Texnologiya sohasi asosan oq rangda, doimiy ravishda erkaklar hukmronlik qiladigan soha bo‘lib qolmoqda va tadqiqotchilar xilma-xillikning yo‘qligi ishlab chiqilgan dasturiy ta’minotdagi tizimli, tarixiy nomutanosibliklarning takrorlanishiga olib kelishini aniqladilar.

Nyu-York universitetining AI Now instituti 2019 yilgi hisobotida tadqiqotchilar qora tanlilar mamlakatdagi eng yaxshi texnologiya firmalaridagi ishchi kuchining 6 foizdan kamini tashkil qilishini aniqladilar. Xuddi shunday, ayollar bu sohadagi ishchilarning atigi 26 foizini tashkil qiladi, bu ularning 1960 yildagi ulushidan pastroq.

Bu ozchiliklarni muhim emasdek dahshatli his qiladi va undan jiddiyroq zarar keltirishi mumkin boʻlgan boshqa narsalar uchun foydalanish mumkin.

Yuzadan qaraganda, bu vakillik masalalari oddiydek tuyulishi mumkin, lekin amalda etkazilgan zarar juda katta boʻlishi mumkin. AI Now instituti hisobotidagi tadqiqotchilarning ta'kidlashicha, bu ko'pincha oq bo'lmagan va erkak bo'lmagan populyatsiyalarni hisobga olmaydigan dasturiy ta'minot bilan bog'liq muammolar bilan bog'liq. Infraqizil sovun dispenserlari qoraygan terini aniqlay olmayaptimi yoki Amazonning sunʼiy intellekt dasturi ayol yuzlarini erkaklarnikidan farqlay olmayaptimi, texnologiya sanoatidagi xilma-xillikka eʼtibor bermaslik texnologiyaning turli dunyo bilan shugʻullana olmasligiga olib keladi.

"Ko'p odamlar bu masalani o'ylab ko'rmagan va bu narsalar qanday zarar etkazishi mumkinligini va bu zararlar qanchalik muhimligini tushunmaydilar", - dedi Miller AI tasvirini o'rganish haqida. "Umid qilamanki, bu odamlar soni kamaymoqda!"

Tavsiya: