Pse softueri i leximit të emocioneve mund të cenojë privatësinë tuaj

Përmbajtje:

Pse softueri i leximit të emocioneve mund të cenojë privatësinë tuaj
Pse softueri i leximit të emocioneve mund të cenojë privatësinë tuaj
Anonim

Folje kryesore

  • Zoom thuhet se do të përdorte AI për të vlerësuar ndjenjën ose nivelin e angazhimit të një përdoruesi.
  • Grupet e të drejtave të njeriut po i kërkojnë Zoom të rimendojë planin e tij për shkak të shqetësimeve të privatësisë dhe sigurisë së të dhënave.
  • Disa kompani përdorin gjithashtu softuer për zbulimin e emocioneve gjatë intervistave për të vlerësuar nëse përdoruesi po i kushton vëmendje.
Image
Image

Përdorimi në rritje i inteligjencës artificiale (AI) për të monitoruar emocionet njerëzore po shkakton shqetësime për privatësinë.

Organizatat e të drejtave të njeriut po i kërkojnë Zoom të ngadalësojë planin e tij për të futur AI që analizon emocionet në softuerin e tij të konferencave video. Kompania thuhet se ka thënë se do të përdorë AI për të vlerësuar ndjenjën ose nivelin e angazhimit të një përdoruesi.

"Ekspertët pranojnë se analiza e emocioneve nuk funksionon," shkroi konsorciumi i grupeve të të drejtave të njeriut, duke përfshirë ACLU, në një letër drejtuar Zoom. "Shprehjet e fytyrës shpesh shkëputen nga emocionet poshtë, dhe hulumtimi ka zbuluar se as njerëzit nuk mund të lexojnë ose masin me saktësi emocionet e të tjerëve disa herë. Zhvillimi i këtij mjeti i shton besimin pseudoshkencës dhe vë në rrezik reputacionin tuaj."

Zoom nuk iu përgjigj menjëherë një kërkese nga Lifewire për koment.

Mbajtja e emocioneve tuaja

Sipas artikullit të Protokollit, sistemi i monitorimit të Zoom i quajtur Q for Sales do të kontrollonte raportin e kohës së bisedës së përdoruesve, vonesën në kohën e përgjigjes dhe ndryshimet e shpeshta të altoparlantëve për të gjurmuar se sa i angazhuar është personi. Zoom do t'i përdorte këto të dhëna për të caktuar rezultate midis zeros dhe 100, me rezultate më të larta që tregojnë angazhim ose ndjenjë më të lartë.

Grupet e të drejtave të njeriut pretendojnë se softueri mund të diskriminojë njerëzit me aftësi të kufizuara ose etni të caktuara duke supozuar se të gjithë përdorin të njëjtat shprehje të fytyrës, modele zëri dhe gjuhë trupi për të komunikuar. Grupet sugjerojnë gjithashtu se softueri mund të jetë një rrezik për sigurinë e të dhënave.

Image
Image

"Marrja e të dhënave thellësisht personale mund ta bëjë çdo ent që përdor këtë teknologji një objektiv për përgjimin e autoriteteve qeveritare dhe hakerëve keqdashës, " sipas letrës.

Julia Stoyanovich, një profesoreshë e shkencave kompjuterike dhe inxhinierisë në Universitetin e Nju Jorkut, i tha Lifewire në një intervistë me email se ajo është skeptike në lidhje me pretendimet pas zbulimit të emocioneve.

"Unë nuk e kuptoj se si një teknologji e tillë mund të funksionojë - shprehja emocionale e njerëzve është shumë individuale, shumë e varur nga kultura dhe shumë specifike për kontekstin," tha Stoyanovich."Por, ndoshta edhe më e rëndësishmja, nuk e kuptoj pse do të donim që këto mjete të funksiononin. Me fjalë të tjera, do të ishim edhe më në telashe nëse ato do të funksiononin mirë. Por ndoshta edhe para se të mendonim për rreziqet, ne duhet pyesni-cilat janë përfitimet e mundshme të një teknologjie të tillë?"

Zoom nuk është kompania e vetme që përdor softuer për zbulimin e emocioneve. Theo Wills, drejtori i lartë i privatësisë në Kuma LLC, një kompani konsulente për privatësinë dhe sigurinë, i tha Lifewire përmes emailit se softueri për të zbuluar emocionet përdoret gjatë intervistave për të vlerësuar nëse përdoruesi po i kushton vëmendje. Gjithashtu është duke u pilotuar në industrinë e transportit për të monitoruar nëse shoferët duken të përgjumur, në platforma video për të matur interesin dhe për të përshtatur rekomandimet dhe në mësime edukative për të përcaktuar nëse një metodë e caktuar mësimdhënieje është tërheqëse.

Wills pretendoi se polemika rreth softuerit të monitorimit të emocioneve është më shumë një çështje e etikës së të dhënave sesa privatësisë. Ajo tha se ka të bëjë me sistemin që merr vendime të botës reale bazuar në paragjykime.

"Me këtë teknologji, ju tani po supozoni arsyen që unë kam një shprehje të veçantë në fytyrën time, por shtysa pas një shprehjeje ndryshon shumë për shkak të gjërave të tilla si edukimi social ose kulturor, sjelljet familjare, përvojat e kaluara ose nervozizmi për momentin”, shtoi Wills. "Baza e algoritmit në një supozim është në thelb me të meta dhe potencialisht diskriminuese. Shumë popullata nuk janë të përfaqësuara në popullatën ku bazohen algoritmet dhe përfaqësimi i duhur duhet t'i jepet përparësi përpara se kjo të përdoret."

Konsiderata praktike

Problemet e ngritura nga softueri i gjurmimit të emocioneve mund të jenë praktike dhe teorike. Matt Heisie, bashkëthemeluesi i Ferret.ai, një aplikacion i drejtuar nga AI që ofron inteligjencë marrëdhëniesh, i tha Lifewire në një email se përdoruesit duhet të pyesin se ku po bëhet analiza e fytyrave dhe çfarë të dhënash ruhen. A po bëhet studimi në regjistrimet e thirrjeve, të përpunuara në renë kompjuterike ose në pajisjen lokale?

Gjithashtu, Heisie pyeti, ndërsa algoritmi mëson, çfarë të dhënash mbledh për fytyrën ose lëvizjet e një personi që mund të shkëputen nga algoritmi dhe të përdoren për të rikrijuar biometrinë e dikujt? A po ruan kompania fotografi për të verifikuar ose vërtetuar mësimet e algoritmit dhe a është përdoruesi i njoftuar për këto të dhëna të reja derivative ose imazhe të ruajtura që mund të mblidhen nga telefonatat e tyre?

"Këto janë të gjitha probleme që shumë kompani i kanë zgjidhur, por ka edhe kompani që janë tronditur nga skandali kur rezulton se nuk e kanë bërë këtë siç duhet," tha Heisie. "Facebook është rasti më domethënës i një kompanie që e ktheu prapa platformën e saj të njohjes së fytyrës për shqetësimet në lidhje me privatësinë e përdoruesit. Kompania mëmë Meta tani po tërheq veçoritë AR nga Instagram në disa juridiksione si Illinois dhe Teksas mbi ligjet e privatësisë që rrethojnë të dhënat biometrike."

Recommended: