Paragjykimi racor i algoritmit të Twitter tregon një problem më të madh teknik

Përmbajtje:

Paragjykimi racor i algoritmit të Twitter tregon një problem më të madh teknik
Paragjykimi racor i algoritmit të Twitter tregon një problem më të madh teknik
Anonim

Folje kryesore

  • Twitter shpreson të korrigjojë atë që përdoruesit e quajnë paragjykim racor në softuerin e tyre të shikimit të imazhit.
  • Thirrja e gjigantit të teknologjisë mund të jetë llogaritja kulturore që i duhet industrisë për të trajtuar çështjet e diversitetit.
  • Mungesa e diversitetit të teknologjisë po dëmton efikasitetin e përparimeve të saj teknologjike.
Image
Image

Twitter është vendosur të nisë një hetim mbi algoritmin e tij të prerjes së fotografive pasi u bë një temë në trend që nxiti një bisedë më të madhe mbi çështjet e diversitetit në industrinë e teknologjisë.

Njerëzuesi i mediave sociale bëri tituj pasi përdoruesit zbuluan paragjykime të dukshme racore në algoritmin e tij të pamjes paraprake të imazhit. Zbulimi ndodhi pasi përdoruesi i Twitter Colin Madland përdori platformën për të thirrur dështimin e Zoom për të njohur kolegët e tij zezakë që përdorën teknologjinë e ekranit të gjelbër, por në një shfaqje madhështore ironie, ai zbuloi se algoritmi i prerjes së imazhit të Twitter sillej në mënyrë të ngjashme dhe u hoqi përparësi fytyrave të zeza.

Sigurisht, është një çështje e madhe për çdo pakicë, por mendoj se ka edhe një çështje shumë më të gjerë.

Përdorues të tjerë u futën në trend duke ndezur një sërë postimesh virale në Twitter që tregojnë se algoritmi i ka prioritet vazhdimisht fytyrat me lëkurë të bardhë dhe më të çelur, duke filluar nga njerëzit te personazhet e filmave vizatimorë dhe madje edhe qentë. Ky dështim është tregues i një lëvizjeje më të madhe kulturore në industrinë e teknologjisë që ka dështuar vazhdimisht të llogarisë grupet e pakicave, gjë që është përhapur në anën teknike.

"I bën pakicat të ndihen të tmerrshme, sikur nuk janë të rëndësishme, dhe mund të përdoret për gjëra të tjera që mund të shkaktojnë dëme më serioze", Erik Learned-Miller, profesor i shkencave kompjuterike në Universitet. nga Massachusetts, tha në një intervistë telefonike."Pasi të keni vendosur se për çfarë mund të përdoret një softuer dhe të gjitha dëmet që mund të ndodhin, atëherë ne fillojmë të flasim për mënyrat për të minimizuar mundësinë që ato të ndodhin."

Kanari në afatin kohor

Twitter përdor rrjetet nervore për të prerë automatikisht imazhet e ngulitura në tweet. Algoritmi supozohet të zbulojë fytyrat për të parë paraprakisht, por duket se ka një paragjykim të dukshëm të bardhë. Zëdhënësja e kompanisë Liz Kelley postoi një përgjigje për të gjitha shqetësimet.

Kelley shkroi në Twitter, "faleminderit të gjithëve që e ngritën këtë. Ne testuam për paragjykim përpara se të dërgonim modelin dhe nuk gjetëm prova të paragjykimeve racore ose gjinore në testimin tonë, por është e qartë se kemi më shumë analiza për të do të hapim punën tonë me burim në mënyrë që të tjerët të mund ta rishikojnë dhe ta përsërisin."

Bashkëautor i letrës së bardhë "Facial Recognition Technologies in The Wild: A Call for a Federal Office", Learned-Miller është një studiues kryesor në teprimet e softuerit të të mësuarit të AI bazuar në fytyrë. Ai ka diskutuar për ndikimin e mundshëm negativ të softuerit për të mësuar imazhe për vite me rradhë dhe ka folur për rëndësinë e krijimit të një realiteti ku këto paragjykime zbuten në mënyrën më të mirë të mundshme.

Shumë algoritme për teknologjinë e njohjes së fytyrës përdorin grupe referencash për të dhënat, shpesh të njohura si grupe trajnimi, të cilat janë një koleksion imazhesh të përdorura për të rregulluar mirë sjelljen e softuerit për të mësuar imazhe. Ai përfundimisht lejon që AI të njohë me lehtësi një gamë të gjerë fytyrash. Megjithatë, këtyre grupeve të referencës mund t'u mungojnë një grup i larmishëm, gjë që çon në probleme si ato të përjetuara nga ekipi i Twitter.

"Sigurisht, është një çështje e madhe për çdo pakicë, por mendoj se ka edhe një çështje shumë më të gjerë," tha Learned-Miller. "Kjo lidhet me mungesën e diversitetit në sektorin e teknologjisë dhe nevojën për një forcë të centralizuar, rregullatore për të treguar përdorimet e duhura të këtij lloji të softuerit të fuqishëm të prirur për keqpërdorim dhe abuzim."

Teknologjia i mungon diversiteti

Twitter mund të jetë kompania më e fundit e teknologjisë në bllokun e prerjes, por ky është larg nga një problem i ri. Fusha e teknologjisë mbetet një fushë kryesisht e bardhë, e dominuar vazhdimisht nga meshkujt dhe studiuesit kanë zbuluar se mungesa e diversitetit shkakton një përsëritje të çekuilibrave sistematikë, historikë në softuerin e zhvilluar.

Në një raport të vitit 2019 nga Instituti AI Now i Universitetit të Nju Jorkut, studiuesit zbuluan se zezakët përbëjnë më pak se 6 për qind të fuqisë punëtore në firmat më të mira të teknologjisë në vend. Në mënyrë të ngjashme, gratë përbëjnë vetëm 26 për qind të punëtorëve në terren - një statistikë më e ulët se pjesa e tyre në vitin 1960.

I bën pakicat të ndihen të tmerrshme, sikur nuk janë të rëndësishme dhe mund të përdoret për gjëra të tjera që mund të shkaktojnë dëme më serioze në fund.

Në sipërfaqe, këto çështje përfaqësuese mund të duken të zakonshme, por në praktikë, dëmi i shkaktuar mund të jetë i thellë. Studiuesit në raportin e Institutit AI Now sugjerojnë se kjo lidhet në mënyrë shkakësore me çështjet me softuerët që shpesh dështojnë të llogarisin popullsinë jo të bardhë dhe jo meshkuj. Pavarësisht nëse janë shpërndarësit e sapunit infra të kuqe që dështojnë të zbulojnë lëkurën më të errët ose softueri i AI i Amazon që nuk arrin të dallojë fytyrat e femrave nga ato të homologëve të tyre meshkuj, një dështim për të trajtuar diversitetin në industrinë e teknologjisë çon në një dështim të teknologjisë për t'u përballur me një botë të larmishme.

"Ka shumë njerëz që nuk i kanë menduar problemet dhe nuk e kuptojnë vërtet se si këto gjëra mund të shkaktojnë dëm dhe sa të rëndësishme janë këto dëme," sugjeroi Learned-Miller për të mësuarin e imazhit të AI. "Shpresojmë, ky numër njerëzish po zvogëlohet!"

Recommended: