Parashikimi i krimit të AI mund të akuzojë njerëzit e gabuar

Përmbajtje:

Parashikimi i krimit të AI mund të akuzojë njerëzit e gabuar
Parashikimi i krimit të AI mund të akuzojë njerëzit e gabuar
Anonim

Folje kryesore

  • Një kompani softuerësh thuhet se po mbledh informacione të mediave sociale për të krijuar profile që mund të përdoren për të identifikuar njerëzit që paraqesin rreziqe sigurie.
  • Voyager Labs ka nënshkruar një marrëveshje të rëndësishme me një agjenci qeveritare japoneze.
  • Por ekspertët paralajmërojnë se softueri i parashikimit të AI mund të mashtrohet.
Image
Image

Informacionet tuaja në internet mund të përdoren për të parashikuar nëse mund të kryeni një krim.

Voyager Labs thuhet se po mbledh informacione të mediave sociale për të krijuar profile që mund të përdoren për të identifikuar njerëzit që paraqesin rreziqe sigurie. Është pjesë e një përpjekjeje në rritje për të përdorur inteligjencën artificiale (AI) për të hetuar kriminelët e mundshëm. Por disa ekspertë thonë se lëvizja është e mbushur me probleme të mundshme.

"Është shumë e vështirë të parashikosh sjelljen njerëzore," tha Matthew Carr, një studiues sigurie në Atumcell Group, për Lifewire në një intervistë me email. "Ne nuk jemi në gjendje as të parashikojmë sjelljen tonë, e lëre më të dikujt tjetër. Mendoj se është e mundur që AI mund të përdoret në të ardhmen për këtë qëllim, por ne jemi shumë larg nga të qenit në gjendje ta bëjmë këtë aktualisht."

Krijimi i profileve

Siç raportoi kohët e fundit The Guardian, departamenti i policisë së Los Anxhelosit shqyrtoi përdorimin e softuerit të parashikimit të krimit të Voyager Lab. Kompania gjithashtu njoftoi se kishte nënshkruar një marrëveshje të rëndësishme me një agjenci qeveritare japoneze.

Marrëveshja japoneze i siguron agjencisë qeveritare një platformë hetimi të bazuar në AI që analizon sasi masive informacioni nga çdo burim, duke përfshirë të dhëna të hapura dhe të thella.

"Më vjen mirë që po bashkëpunojmë në luftën kundër terrorit dhe krimit," tha Divya Khangarot, Drejtore Menaxhuese e APAC në Voyager Labs, në njoftimin për shtyp. "Duke përdorur zgjidhjet më të avancuara të inteligjencës të Voyager Lab, klientët tanë fitojnë aftësi unike për të identifikuar në mënyrë proaktive dhe për të prishur kërcënimet e mundshme. Ne sjellim shtresa shtesë të njohurive të thella hetimore duke përdorur një kombinim të AI, Learning Machine dhe OSINT për të zbuluar shtigje të fshehura, informacione të cenuara. dhe aktorë të këqij."

Jo aq i zgjuar?

Por në një intervistë me email, Matt Heisie, bashkëthemeluesi i Ferret.ai, i cili gjithashtu përdor AI për të parashikuar shkelësit, hodhi dyshime mbi disa nga pretendimet e Voyager Labs.

"A ka një lidhje të qartë midis, të themi, një dosje arrestimi dhe sjelljes së ardhshme kriminale, sa ka një pikë të zezë në një test dhe zhvillimin e një tumori?" tha ai. "Mendoni të gjitha ngatërrimet e mundshme që ndodhën në atë arrestim - në cilën lagje jetonte personi, sasinë dhe cilësinë, madje edhe paragjykimet, të policisë në atë zonë. Mosha e personit, gjinia e tyre, pamja e tyre fizike, të gjitha këto kanë ndikime të ndërthurura në gjasat që ai person të ketë një histori arresti, krejtësisht të ndara nga prirja e tyre aktuale për të kryer krimin që ne po përpiqemi të parashikojmë."

Të pandehurit me avokatë më të mirë kanë më shumë gjasa të jenë në gjendje të fshijnë të dhënat nga bërja e publikut, tha Heisie. Disa juridiksione kufizojnë lëshimin e të shtënave ose të dhënat e arrestimit për të mbrojtur të akuzuarin.

"Kompjuteri do të mësojë bazuar në të dhënat që ju i jepni dhe do të përfshijë të gjitha paragjykimet që hynë në atë mbledhje të të dhënave…"

"E gjithë kjo shton paragjykime të mëtejshme në algoritme," shtoi ai. "Kompjuteri do të mësojë bazuar në të dhënat që ju i jepni dhe do të përfshijë të gjitha paragjykimet që hynë në atë mbledhje të të dhënave në mësim dhe interpretim."

Ka pasur disa përpjekje për të krijuar krime që parashikojnë inteligjencë artificiale, dhe me rezultate shpesh skandaloze, tha Heisie.

COMPAS, një algoritëm i zbatimit të ligjit që përdor për të parashikuar rishkeljen, përdoret shpesh në përcaktimin e dënimit dhe lirimit me kusht. Ajo është përballur me skandalin që nga viti 2016 për paragjykimet racore, duke parashikuar se të pandehurit zezakë përbënin një rrezik më të lartë të recidivizmit sesa në fakt, dhe e kundërta për të pandehurit e bardhë.

Mbi 1,000 teknologë dhe studiues, duke përfshirë akademikë dhe ekspertë të AI nga Harvard, MIT, Google dhe Microsoft, folën në vitin 2020 kundër një punimi që pretendonte se studiuesit kishin zhvilluar një algoritëm që mund të parashikonte kriminalitetin bazuar vetëm në fytyra e personit, duke thënë se publikimi i studimeve të tilla përforcon paragjykimet racore para-ekzistuese në sistemin e drejtësisë penale, vuri në dukje Heisie.

Image
Image

Kina është tregu më i madh dhe me rritjen më të shpejtë për këtë lloj teknologjie, kryesisht për shkak të aksesit të gjerë në të dhënat private, me më shumë se 200 milionë kamera vëzhgimi dhe kërkime të avancuara të AI të fokusuara në këtë çështje për shumë vite, tha Heisie.. Sisteme të tilla si CloudWalk's Police Cloud përdoren tani për të parashikuar dhe gjurmuar kriminelët dhe për të identifikuar zbatimin e ligjit.

"Megjithatë, paragjykimet thelbësore raportohen edhe atje," tha Heisie.

Heisie shtoi se kompania e tij kuron me kujdes të dhënat që hyjnë dhe nuk përdor fotografi apo regjistrime arrestimi, "duke u fokusuar në kritere më objektive."

"Inteligjenca artificiale jonë mësoi nga të dhënat e kuruara, por më e rëndësishmja, mëson gjithashtu nga njerëzit, të cilët vetë analizojnë, kurojnë dhe vlerësojnë të dhënat dhe na tregojnë për ndërveprimet e tyre me të tjerët," shtoi ai. "Ne gjithashtu ruajmë transparencë të plotë dhe qasje të lirë dhe publike në aplikacionin tonë (sa më shpejt që t'i lejojmë ato në beta) dhe mirëpresim njohuritë mbi proceset dhe procedurat tona."

Recommended: