Pse softueri i ri i profilizimit ngre shqetësime për privatësinë

Përmbajtje:

Pse softueri i ri i profilizimit ngre shqetësime për privatësinë
Pse softueri i ri i profilizimit ngre shqetësime për privatësinë
Anonim

Folje kryesore

  • Softueri që përdor inteligjencën artificiale për të profilizuar njerëzit po ngre shqetësime për privatësinë.
  • Cryfe kombinon teknikat e analizës së sjelljes me inteligjencën artificiale.
  • Kompania kineze Alibaba u përball kohët e fundit me kritika pasi thuhet se tha se softueri i saj mund të zbulonte ujgurët dhe pakicat e tjera etnike.
Image
Image

Softueri i ri i mundësuar nga inteligjenca artificiale që synon punëdhënësit të profilizojnë punonjësit e tyre po ngre shqetësime për privatësinë.

Një platformë e re softuerike, e quajtur Cryfe, kombinon teknikat e analizës së sjelljes me inteligjencën artificiale. Zhvilluesi pretendon se duke analizuar të dhëna të vogla, softueri mund të zbulojë qëllimet e njerëzve gjatë intervistave. Por disa vëzhgues thonë se Cryfe dhe lloje të tjera softuerësh që analizojnë sjelljen mund të pushtojnë privatësinë.

"Kompanitë mbështeten gjithnjë e më shumë në AI për profilizimin," tha eksperti i AI Vaclav Vincale në një intervistë me email. "Por edhe njerëzit që kodojnë këto algoritme, aq më pak një person i mbështetjes së klientit me të cilin kontaktoni në telefon, nuk mund t'ju thonë pse ata bëjnë ndonjë rekomandim të dhënë."

Më shumë se fjalë

Cryfe u zhvillua nga një kompani zvicerane punonjësit e së cilës u trajnuan nga FBI në teknikat e profilizimit. "Cryfe, në të gjithë komunikimin ndërpersonal, nuk dëgjon vetëm fjalët, por identifikon sinjale të tjera të emetuara nga njeriu, si emocionet, mikro-shprehjet dhe të gjitha gjestet," tha Caroline Matteucci, themeluesja e Cryfe, në një intervistë me email.

"Gjatë rekrutimit, për shembull, kjo na lejon të shkojmë dhe të kërkojmë personalitetin e vërtetë të bashkëbiseduesit tonë."

Matteucci tha se privatësia e përdoruesve mbrohet sepse kompania është transparente për mënyrën se si funksionon softueri i saj. "Përdoruesi, përpara se të jetë në gjendje të përdorë platformën, duhet të pranojë kushtet e përgjithshme," tha ajo.

"Aty specifikohet se përdoruesi në asnjë rast nuk mund të paraqesë një intervistë për analizë pa marrë pëlqimin me shkrim të bashkëbiseduesit."

Cryfe nuk është softueri i vetëm i fuqizuar nga AI që synon të analizojë sjelljen njerëzore. Ekziston edhe Humantic, i cili pretendon të analizojë sjelljen e konsumatorit. "Teknologjia hapësinore e Humantic parashikon sjelljen e të gjithëve pa pasur nevojë që ata të bëjnë një test personaliteti," sipas faqes së internetit të kompanisë.

Image
Image

Kompania pretendon se përdor AI për të krijuar profile psikologjike të aplikantëve bazuar në fjalët që përdorin në CV, letrat e motivimit, profilet e LinkedIn dhe çdo pjesë tjetër të tekstit që ata dërgojnë.

Softueri i sjelljes ka hasur në sfida ligjore në të kaluarën. Në vitin 2019, Ligji i Bloomberg raportoi se Komisioni i Mundësive të Barabarta të Punësimit (EEOC) shqyrtoi rastet e diskriminimit të supozuar të paligjshëm për shkak të vendimeve të lidhura me HR të ndihmuar nga algoritmi.

"E gjithë kjo do të duhet të zgjidhet sepse e ardhmja e rekrutimit është AI," tha avokati Bradford Newman për Bloomberg.

Disa vëzhgues kundërshtojnë kompanitë që përdorin softuerin e gjurmimit të sjelljes sepse nuk është mjaft i saktë. Në një intervistë, Nigel Duffy, udhëheqës global i inteligjencës artificiale në firmën e shërbimeve profesionale EY, tha për InformationWeek se ai është i shqetësuar nga softueri që përdor kuizet e mediave sociale dhe ndikon në zbulimin.

"Mendoj se ka një literaturë vërtet bindëse mbi potencialin për zbulimin e ndikimit, por kuptimi im është se mënyra se si zbatohet shpesh është mjaft naive," tha ai.

"Njerëzit po nxjerrin përfundime se shkenca nuk e mbështet vërtet [siç] vendosja që dikush është një punonjës potencialisht i mirë sepse ata po buzëqeshin shumë ose vendosin që dikujt i pëlqejnë produktet tuaja sepse po buzëqesh shumë"

Njoftohet se kompanitë kineze i profilizojnë pakicat

Gjurmimi i sjelljes mund të ketë edhe qëllime më të liga, thonë disa grupe të të drejtave të njeriut. Në Kinë, gjiganti i tregut online, Alibaba, së fundmi bëri bujë pasi thuhet se pretendoi se softueri i tij mund të zbulonte ujgurët dhe pakicat e tjera etnike.

The New York Times raportoi se biznesi i kompjuterit cloud i kompanisë kishte softuer që skanonte imazhe dhe video.

Por edhe njerëzit që kodojnë këto algoritme…nuk mund t'ju thonë pse bëjnë ndonjë rekomandim të dhënë.

Washington Post gjithashtu raportoi kohët e fundit se Huawei, një kompani tjetër teknologjike kineze, kishte testuar softuer që mund të paralajmëronte zbatimin e ligjit kur kamerat e saj të vëzhgimit zbulonin fytyra ujgure.

Një aplikim për patentë i vitit 2018 nga Huawei thuhet se pretendoi se "identifikimi i atributeve të këmbësorëve është shumë i rëndësishëm" në teknologjinë e njohjes së fytyrës."Atributet e objektit të synuar mund të jenë gjinia (mashkull, femër), mosha (si adoleshentë, të mesëm, të moshuar) [ose] raca (han, ujgur), " tha aplikacioni.

Një zëdhënës i Huawei tha për CNN Business se veçoria e identifikimit të përkatësisë etnike "nuk duhet të ishte bërë kurrë pjesë e aplikacionit".

Përdorimi në rritje i inteligjencës artificiale për të renditur sasi të mëdha të dhënash është i detyruar të ngrejë shqetësime për privatësinë. Mund të mos e dini kurrë se kush ose çfarë po ju analizon herën tjetër që do të shkoni për një intervistë pune.

Recommended: