Folje kryesore
- Një dokument i ri pretendon se inteligjenca artificiale mund të përcaktojë se cilat projekte kërkimore mund të kenë nevojë për më shumë rregullim se të tjerët.
- Është pjesë e një përpjekjeje në rritje për të zbuluar se çfarë lloj inteligjence artificiale mund të jetë e rrezikshme.
-
Një ekspert thotë se rreziku i vërtetë i AI është se mund t'i bëjë njerëzit memec.
Inteligjenca artificiale (AI) ofron shumë përfitime, por edhe disa rreziqe të mundshme. Dhe tani, studiuesit kanë propozuar një metodë për të mbajtur një sy në krijimet e tyre të kompjuterizuara.
Një ekip ndërkombëtar thotë në një dokument të ri se AI mund të përcaktojë se cilat lloje të projekteve kërkimore mund të kenë nevojë për më shumë rregullim se të tjerët. Shkencëtarët përdorën një model që ndërthur koncepte nga biologjia dhe matematika dhe është pjesë e një përpjekjeje në rritje për të zbuluar se çfarë lloj inteligjence artificiale mund të jetë e rrezikshme.
"Sigurisht, ndërsa përdorimi i rrezikshëm 'fantastiko-shkencor' i AI mund të lindë nëse vendosim kështu […], ajo që e bën AI të rrezikshme nuk është vetë AI, por [si e përdorim atë], " Thierry Rayna, kryetari i Teknologjisë për Ndryshim, në Ecole Polytechnique në Francë, tha për Lifewire në një intervistë me email. "Zbatimi i AI mund të jetë ose rritje e kompetencës (për shembull, përforcon rëndësinë e aftësive dhe njohurive të njeriut/punëtorit) ose shkatërron kompetencën, d.m.th., AI i bën aftësitë dhe njohuritë ekzistuese më pak të dobishme ose të vjetruara."
Mbajtja e skedave
Autorët e punimit të fundit shkruajnë në një postim se ata ndërtuan një model për të simuluar garat hipotetike të AI. Ata e kryen simulimin qindra herë për t'u përpjekur të parashikojnë se si mund të funksionojnë garat e botës reale të AI.
"Ndryshorja që ne e gjetëm të ishte veçanërisht e rëndësishme ishte "gjatësia" e garës - koha që u deshën garave tona të simuluara për të arritur objektivin e tyre (një produkt funksional i AI", shkruajnë shkencëtarët. "Kur garat e AI arritën objektivin e tyre shpejt, ne zbuluam se konkurrentët të cilët i kishim koduar që gjithmonë të anashkalonin masat paraprake të sigurisë gjithmonë fitonin."
Në të kundërt, studiuesit zbuluan se projektet afatgjata të AI nuk ishin aq të rrezikshme sepse fituesit nuk ishin gjithmonë ata që shpërfillnin sigurinë. “Duke pasur parasysh këto gjetje, do të jetë e rëndësishme që rregullatorët të përcaktojnë se sa kohë mund të zgjasin gara të ndryshme të AI, duke aplikuar rregullore të ndryshme bazuar në afatet e tyre kohore të pritura,” shkruajnë ata. "Gjetjet tona sugjerojnë se një rregull për të gjitha garat e AI - nga sprintet në maratonë - do të çojë në disa rezultate që janë larg idealit."
David Zhao, drejtori menaxhues i Coda Strategy, një kompani që konsultohet për AI, tha në një intervistë me email me Lifewire se identifikimi i AI të rrezikshme mund të jetë i vështirë. Sfidat qëndrojnë në faktin se qasjet moderne ndaj AI marrin një qasje të të mësuarit të thellë.
"Ne e dimë se të mësuarit e thellë prodhon rezultate më të mira në raste të shumta përdorimi, të tilla si zbulimi i imazhit ose njohja e të folurit," tha Zhao. "Megjithatë, është e pamundur për njerëzit të kuptojnë se si funksionon një algoritëm i të mësuarit të thellë dhe si prodhon rezultatin e tij. Prandaj, është e vështirë të thuhet nëse një AI që po prodhon rezultate të mira është e rrezikshme sepse është e pamundur për njerëzit të kuptojnë se çfarë po ndodh."
Softueri mund të jetë "i rrezikshëm" kur përdoret në sisteme kritike, të cilat kanë dobësi që mund të shfrytëzohen nga aktorë të këqij ose të prodhojnë rezultate të pasakta, tha përmes emailit Matt Shea, drejtor i strategjisë në firmën e AI MixMode. Ai shtoi se AI i pasigurt mund të rezultojë gjithashtu në klasifikimin e gabuar të rezultateve, humbje të të dhënave, ndikim ekonomik ose dëmtim fizik.
"Me softuerin tradicional, zhvilluesit kodojnë algoritme që mund të ekzaminohen nga një person për të kuptuar se si të lidhni një dobësi ose të rregulloni një gabim duke parë kodin burimor," tha Shea."Me AI, megjithatë, një pjesë e madhe e logjikës krijohet nga vetë të dhënat, të koduara në strukturat e të dhënave si rrjetet nervore dhe të ngjashme. Kjo rezulton në sisteme që janë "kuti të zeza" të cilat nuk mund të ekzaminohen për të gjetur dhe rregulluar dobësitë si softueri normal."
Rreziqet përpara?
Ndërsa AI është paraqitur në filma si Terminatori si një forcë e keqe që synon të shkatërrojë njerëzimin, rreziqet reale mund të jenë më prozaike, thonë ekspertët. Rayna, për shembull, sugjeron që AI mund të na bëjë më të trashë.
"Mund t'i privojë njerëzit nga trajnimi i trurit të tyre dhe zhvillimi i ekspertizës," tha ai. “Si mund të bëheni ekspert në kapitalin e sipërmarrjes nëse nuk e kaloni pjesën më të madhe të kohës duke lexuar aplikacionet e startup-eve? Më keq, AI është jashtëzakonisht "kuti e zezë" dhe pak e shpjegueshme. Duke mos ditur pse u mor një vendim i veçantë i AI do të thotë se do të ketë shumë pak për të mësuar prej tij, ashtu si nuk mund të bëheni një vrapues ekspert duke vozitur nëpër stadium në një Segway."
Është e vështirë të thuash nëse një AI që po prodhon rezultate të mira është e rrezikshme, sepse është e pamundur për njerëzit të kuptojnë se çfarë po ndodh.
Ndoshta kërcënimi më i menjëhershëm nga AI është mundësia që mund të japë rezultate të njëanshme, tha në një intervistë me email, Lyle Solomon, një avokat që shkruan mbi implikimet ligjore të AI.
"Inteligjenca artificiale mund të ndihmojë në thellimin e ndarjeve shoqërore. AI është ndërtuar në thelb nga të dhënat e mbledhura nga qeniet njerëzore," shtoi Solomon. "[Por] pavarësisht nga të dhënat e shumta, ai përmban nëngrupe minimale dhe nuk do të përfshijë atë që mendojnë të gjithë. Kështu, të dhënat e mbledhura nga komentet, mesazhet publike, rishikimet, etj., me paragjykime të qenësishme do të bëjnë që AI të përforcojë diskriminimin dhe urrejtjen."