Folje kryesore
- Paragjykimi algoritmik është i dëmshëm për adoleshentët që kalojnë shumë kohë në internet, thonë ekspertët.
- Përdoruesit e Twitter kohët e fundit hasën një problem në të cilin fytyrat e zeza u hoqën në favor të atyre të bardhëve.
- Truri në zhvillim i adoleshentëve mund të jetë veçanërisht i ndjeshëm ndaj efekteve dëmtuese të paragjykimit algoritmik, thonë studiuesit.
Paragjykimi i krijuar në disa teknologji, i njohur si paragjykim algoritmik, mund të jetë i dëmshëm për shumë grupe, por ekspertët thonë se është veçanërisht i dëmshëm për adoleshentët.
Paragjykimi algoritmik, kur sistemet kompjuterike tregojnë rezultate paragjykuese, është një problem në rritje. Kohët e fundit, përdoruesit e Twitter gjetën një shembull të paragjykimit në platformë kur një algoritëm i zbulimit të imazheve që prente fotot po prente fytyrat e zeza në favor të atyre të bardhëve. Kompania kërkoi falje për problemin, por ende nuk ka lëshuar një rregullim. Është një shembull i paragjykimeve me të cilat përballen adoleshentët kur hyjnë në internet, gjë që ata e bëjnë më shumë se çdo grupmoshë tjetër, thonë ekspertët.
"Shumica e adoleshentëve nuk janë të vetëdijshëm që kompanitë e mediave sociale i kanë ato në vend për të promovuar përmbajtje specifike që ata mendojnë se do t'u pëlqejnë përdoruesve [në mënyrë] që t'i bëjnë ata të qëndrojnë sa më gjatë në platformë," Dr. Mai- Ly Nguyen Steers, asistent profesor në Shkollën e Infermierisë në Universitetin Duquesne, i cili studion përdorimin e mediave sociale midis adoleshentëve/studentëve të kolegjit, tha në një intervistë me email.
"Edhe nëse ka një nivel të vetëdijes rreth algoritmit, efekti i mosmarrjes së pëlqimeve dhe komenteve të mjaftueshme është ende i fuqishëm dhe mund të ndikojë në vetëvlerësimin e adoleshentëve," shtoi Steers.
Truri në zhvillim
Paragjykimi algoritmik mund të ndikojë tek adoleshentët në mënyra të paparashikuara pasi korteksi i tyre paraballor është ende në zhvillim, shpjegoi Mikaela Pisani, Shef i të Dhënave Scientist në Rootstrap, në një intervistë me email.
Efekti i mosmarrjes së pëlqimeve dhe komenteve të mjaftueshme është ende i fuqishëm dhe mund të ndikojë në vetëvlerësimin e adoleshentëve.
"Adoleshentët janë veçanërisht të prekshëm ndaj fenomenit të 'Fabrikës Sociale', ku algoritmet krijojnë grupime shoqërore në platformat online, duke çuar në ankth dhe depresion nëse nuk plotësohen nevojat e adoleshentit për miratim social," tha Pisani. "Algoritmet thjeshtohen bazuar në të dhënat e mëparshme të papërsosura - duke çuar në një mbipërfaqësim të stereotipeve në kurriz të qasjeve më të nuancuara për formimin e identitetit.
"Duke marrë një këndvështrim më të gjerë, ne gjithashtu na lihet të pyesim, si shoqëri, nëse duam algoritme që formësojnë udhëtimet e adoleshentëve tanë drejt moshës madhore dhe a e mbështet ky sistem në vend që të mbyt rritjen personale individuale?"
Për shkak të këtyre problemeve, ekziston një nevojë në rritje për të mbajtur parasysh adoleshentët kur hartojnë algoritme, thonë ekspertët.
"Bazuar në të dhënat nga specialistët e zhvillimit, shkencëtarët e të dhënave dhe avokatët e të rinjve, politikat e shekullit të 21-të rreth privatësisë së të dhënave dhe dizajnit algoritmik mund të ndërtohen gjithashtu duke pasur parasysh nevojat e veçanta të adoleshentëve, " Avriel Epps-Darling, një doktoraturë student në Harvard, ka shkruar së fundmi. "Nëse ne në vend të kësaj ne vazhdojmë të minimizojmë ose injorojmë mënyrat se si adoleshentët janë të prekshëm ndaj racizmit algoritmik, dëmet ka të ngjarë të jehojnë në brezat që vijnë."
Luftimi i paragjykimeve
Derisa të ketë një zgjidhje, disa studiues po përpiqen të gjejnë mënyra për të pakësuar dëmin që u bëhet të rinjve nga algoritmet e njëanshme.
"Ndërhyrjet janë fokusuar për t'i bërë adoleshentët të kuptojnë se modelet e tyre të mediave sociale po ndikojnë negativisht në shëndetin e tyre mendor dhe po përpiqen të gjejnë strategji për ta zbutur atë (p.sh. reduktimi i përdorimit të mediave sociale), " tha Steers.
"Disa nga studentët e kolegjit që kemi intervistuar kanë treguar se ndihen të detyruar të gjenerojnë përmbajtje për të mbetur "relevant", edhe nëse nuk duan të dalin ose të postojnë," vazhdoi ajo. "Megjithatë, ata mendojnë se duhet të gjenerojnë përmbajtje për të ruajtur lidhjet e tyre me ndjekësit ose miqtë e tyre."
Përgjigja përfundimtare mund të jetë heqja e paragjykimeve njerëzore nga kompjuterët. Por duke qenë se programuesit janë vetëm njerëz, kjo është një sfidë e vështirë, thonë ekspertët.
Një zgjidhje e mundshme është zhvillimi i kompjuterëve që janë të decentralizuar dhe të programuar për të harruar gjërat që kanë mësuar, thotë John Suit, Shefi i Teknologjisë në firmën robotike KODA.
"Nëpërmjet një rrjeti të decentralizuar, të dhënat dhe analitika e atyre të dhënave, po përpilohen dhe analizohen nga shumë pika," tha Suit në një intervistë me email. “Të dhënat po mblidhen dhe përpunohen jo nga një përpunim i vetëm i inteligjencës artificiale brenda kufijve të algoritmit të tij, por qindra apo edhe mijëra.
"Ndërsa ato të dhëna mblidhen dhe analizohen, harrohen "përfundimet" e vjetra ose të dhënat e tepërta. Nëpërmjet këtij sistemi, një algoritëm që mund të ketë filluar me paragjykim përfundimisht do ta korrigjojë dhe do ta zëvendësojë atë paragjykim nëse provohet se është i gabuar."
Ndërsa paragjykimi mund të jetë një problem i vjetër, mund të ketë mënyra për ta luftuar atë, të paktën në internet. Dizajnimi i kompjuterëve që largojnë paragjykimet tona është hapi i parë.