Folje kryesore
- Një mjet i ri softuerësh lejon AI të monitorojë komentet në internet për gjuhën e urrejtjes.
- AI nevojitet për të moderuar përmbajtjen e internetit për shkak të vëllimit të madh të materialit që tejkalon aftësitë njerëzore.
- Por disa ekspertë thonë se monitorimi i të folurit nga AI ngre shqetësime për privatësinë.
Ndërsa gjuha e urrejtjes në internet rritet, një kompani thotë se mund të ketë një zgjidhje që nuk mbështetet në moderatorë njerëzorë.
Një startup i quajtur Spectrum Labs ofron teknologji të inteligjencës artificiale për ofruesit e platformave për të zbuluar dhe mbyllur shkëmbimet toksike në kohë reale. Por ekspertët thonë se monitorimi i AI ngre gjithashtu çështje të privatësisë.
"Monitorimi i AI shpesh kërkon shikimin e modeleve me kalimin e kohës, gjë që kërkon mbajtjen e të dhënave," tha David Moody, një bashkëpunëtor i lartë në Schellman, një kompani e vlerësimit të pajtueshmërisë me sigurinë dhe privatësinë, i tha Lifewire në një intervistë me email. "Këto të dhëna mund të përfshijnë të dhëna që ligjet i kanë shënuar si të dhëna privatësie (informacione të identifikueshme personale ose PII)."
Më shumë gjuhë urrejtje
Spectrum Labs premton një zgjidhje të teknologjisë së lartë për problemin e vjetër të gjuhës së urrejtjes.
"Mesatarisht, ne ndihmojmë platformat të reduktojnë përpjekjet për moderimin e përmbajtjes me 50% dhe të rrisin zbulimin e sjelljeve toksike me 10 herë," pretendon kompania në faqen e saj të internetit.
Spectrum thotë se ka punuar me institute kërkimore me ekspertizë në sjellje specifike të dëmshme për të ndërtuar mbi 40 modele identifikimi të sjelljes. Platforma e moderimit të përmbajtjes Guardian të kompanisë u ndërtua nga një ekip shkencëtarësh dhe moderatorësh të të dhënave për të "mbështetur mbrojtjen e komuniteteve nga toksiciteti."
Ka një nevojë në rritje për mënyra për të luftuar gjuhën e urrejtjes pasi është e pamundur që njeriu të monitorojë çdo pjesë të trafikut në internet, Dylan Fox, CEO i AssemblyAI, një startup që ofron njohje të fjalës dhe ka klientë të përfshirë në monitorimin e urrejtjes fjalimin, i tha Lifewire në një intervistë me email.
"Ka rreth 500 milionë cicërima në ditë vetëm në Twitter," shtoi ai. "Edhe nëse një person mund të kontrollojë një tweet çdo 10 sekonda, Twitter do të duhet të punësojë 60 mijë njerëz për ta bërë këtë. Në vend të kësaj, ne përdorim mjete inteligjente si AI për të automatizuar procesin."
Ndryshe nga njeriu, AI mund të funksionojë 24/7 dhe potencialisht të jetë më i drejtë, sepse është krijuar për të zbatuar në mënyrë uniforme rregullat e saj për të gjithë përdoruesit pa ndërhyrë bindjet personale, tha Fox. Ka gjithashtu një kosto për ata njerëz që duhet të monitorojnë dhe të moderojnë përmbajtjen.
"Ata mund të ekspozohen ndaj dhunës, urrejtjes dhe akteve të ndyra, të cilat mund të dëmtojnë shëndetin mendor të një personi," tha ai.
Spectrum nuk është e vetmja kompani që kërkon të zbulojë automatikisht gjuhën e urrejtjes në internet. Për shembull, Qendra e Malajzisë lançoi kohët e fundit një gjurmues në internet të krijuar për të gjetur gjuhën e urrejtjes midis përdoruesve malajzianë. Softueri që ata zhvilluan, i quajtur Tracker Benci, përdor mësimin e makinerisë për të zbuluar gjuhën e urrejtjes në internet, veçanërisht në Twitter.
Sfida është se si të krijohen hapësira në të cilat njerëzit mund të angazhohen vërtet me njëri-tjetrin në mënyrë konstruktive.
Shqetësimet e privatësisë
Ndërsa zgjidhjet teknologjike si Spectrum mund të luftojnë gjuhën e urrejtjes në internet, ato gjithashtu ngrenë pyetje rreth asaj se sa duhet të bëjnë kompjuterët e policisë.
Ka implikime të fjalës së lirë, por jo vetëm për folësit, postimet e të cilëve do të hiqen si gjuhë urrejtjeje, i tha Lifewire në një email Irina Raicu, drejtore e etikës së internetit në Qendrën Markkula për Etikën e Aplikuar në Universitetin Santa Clara. intervistë.
"Lejimi i ngacmimeve në emër të 'lirisë së fjalës' i ka shtyrë objektivat e një fjalimi të tillë (veçanërisht kur synojnë individë të caktuar) të ndalojnë së foluri - të braktisin plotësisht bisedat dhe platformat e ndryshme," tha Raicu."Sfida është se si të krijohen hapësira në të cilat njerëzit mund të angazhohen vërtet me njëri-tjetrin në mënyrë konstruktive."
Monitorimi i të folurit të AI nuk duhet të ngrejë çështje të privatësisë nëse kompanitë përdorin informacione të disponueshme publikisht gjatë monitorimit, tha Fox. Megjithatë, nëse kompania blen detaje se si përdoruesit ndërveprojnë në platforma të tjera për të identifikuar paraprakisht përdoruesit problematikë, kjo mund të ngrejë shqetësime për privatësinë.
"Mund të jetë patjetër një zonë gri, në varësi të aplikacionit," shtoi ai.
Justin Davis, CEO i Spectrum Labs i tha Lifewire në një email se teknologjia e kompanisë mund të rishikojë 2 deri në 5 mijë rreshta të dhënash brenda fraksioneve të sekondës. “Më e rëndësishmja, teknologjia mund të zvogëlojë sasinë e përmbajtjes toksike ndaj të cilës janë të ekspozuar moderatorët njerëzorë,” tha ai.
Mund të jemi në majë të një revolucioni në monitorimin e inteligjencës artificiale të fjalës dhe tekstit njerëzor në internet. Përparimet e ardhshme përfshijnë aftësi më të mira monitoruese të pavarura dhe autonome për të identifikuar forma të panjohura më parë të gjuhës së urrejtjes ose çdo model tjetër të censuruar që do të evoluojë, tha Moody.
AI gjithashtu së shpejti do të jetë në gjendje të njohë modelet në modelet specifike të të folurit dhe të lidh burimet dhe aktivitetet e tjera të tyre përmes analizës së lajmeve, dosjeve publike, analizës së modelit të trafikut, monitorimit fizik dhe shumë opsioneve të tjera, shtoi ai.
Por disa ekspertë thonë se njerëzit gjithmonë do të duhet të punojnë me kompjuterë për të monitoruar gjuhën e urrejtjes.
"Vetëm AI nuk do të funksionojë," tha Raicu. "Duhet të njihet si një mjet i papërsosur që duhet përdorur në lidhje me përgjigjet e tjera."
Korrigjim 1/25/2022: U shtua citat nga Justin Davis në paragrafin e 5-të nga fundi për të pasqyruar një email pas publikimit.