Aftësia e Alexa për të imituar të afërmit e vdekur mund të jetë gjëja më e frikshme ndonjëherë

Përmbajtje:

Aftësia e Alexa për të imituar të afërmit e vdekur mund të jetë gjëja më e frikshme ndonjëherë
Aftësia e Alexa për të imituar të afërmit e vdekur mund të jetë gjëja më e frikshme ndonjëherë
Anonim

Folje kryesore

  • Asistenti zanor Alexa i Amazon mund të kopjojë një zë me aq pak sa një minutë audio.
  • Mund t'i kërkoni Alexa-s të lexojë një histori me zërin e një prindi të vdekur.
  • Është e njëjta ide si falsifikimet e thella, të përdorura vetëm për fuqitë e së mirës.
Image
Image

Struktura më e fundit e Amazon Alexa është të mësosh të imitosh zërin e një njeriu të dashur të vdekur, në mënyrë që ata të mund të flasin me ty nga përtej varrit.

Alexa ka nevojë për vetëm një minutë audio të folur për të imituar bindshëm një zë. Amazon e konsideron atë si një veçori ngushëlluese që mund t'ju vërë në kontakt me të dashurit, por mund të jetë gjithashtu një përvojë mjaft rrëqethëse. Dhe tregon se sa e lehtë është të bësh audio të rreme të thellë që është mjaft e mirë për të na mashtruar, edhe kur zëri është ai që ne e njohim shumë mirë.

"Amazon ka hyrë përfundimisht në një territor mjaft unik dhe të çuditshëm me njoftimin e saj se Alexa së shpejti do të jetë në gjendje të mësojë dhe më pas të përdorë zërin e të afërmve të vdekur së shpejti," tha Bill Mann, ekspert i privatësisë në Restore Privacy. Lifewire me email. "Për disa njerëz, nuk është aspak rrëqethëse. Në fakt, mund të jetë mjaft prekëse."

Fantazma në makinë

Si pjesë e konferencës së saj vjetore re:MARS, Amazon tregon funksionin në një video të shkurtër. Në të, një fëmijë pyet Alexa-n nëse gjyshja mund të vazhdojë t'i lexojë "Magjistari i Ozit", vepra e preferuar e çdo fëmije në domenin publik, miqësore me fjalimin kryesor. Dhe është një moment mjaft prekës. Është e vështirë të mos ndjesh emocione njerëzore kur gjyshja fillon të lexojë.

"Njerëzit luftojnë me vdekshmërinë, veçanërisht në kulturën perëndimore. Për shekuj jemi përpjekur të gjejmë mënyra për t'i përkujtuar të vdekurit, nga maskat e vdekjes, te tufat e flokëve, te fotot e vjetra, te shikimi i filmave të vjetër, " Andrew Selepak, një profesor i mediave sociale në Universitetin e Floridës, i tha Lifewire përmes emailit. "Deepfakes përdorin teknologjinë më të fundit për të krijuar një maskë të re vdekjeje të një personi të dashur të vdekur. Por, në varësi të këndvështrimit të dikujt, a është rrëqethëse apo një mënyrë për të përkujtuar dhe për t'u mbajtur pas dikujt që dashuron pasi të ketë vdekur?"

Por një memento mori mund të jetë ngushëllues dhe rrëqethës. Shoku i një anëtari të familjes ka vdekur, por ju ende mund t'i dëgjoni duke folur. Nuk ndihmon që Alexa të ketë një histori sjelljesh të çuditshme dhe ndonjëherë të frikshme. Në vitin 2018, ndërsa kolumnisti i opinionit në NYT, Farhad Manjoo po binte në shtrat, Amazon Echo e tij "filloi të qante, si një fëmijë që bërtiste në një ëndërr filmash horror."

Menjëherë pas kësaj, Amazon pranoi se Alexa ndonjëherë qeshte me zë të lartë, gjë që, së bashku me adoleshentët dhe bodrumet, është filmi horror 101.

Dikush mund të pyesë veten se si mund të ndihesh nëse Alexa do të bënte të njëjtat mashtrime në zërin e gjyshes.

Fake e thellë

Lehtësia e dukshme me të cilën Alexa mëson të imitojë një zë na çon në përdorime më të liga të klonimit të zërit: falsifikime të thella.

Image
Image

"Audio Deepfake nuk është e re, edhe nëse është pak e kuptuar dhe pak e njohur. Teknologjia ka qenë e disponueshme prej vitesh për të rikrijuar zërin e një individi me inteligjencë artificiale dhe mësim të thellë duke përdorur relativisht pak audio aktuale nga personi, " thotë Selepak. "Një teknologji e tillë mund të jetë gjithashtu e rrezikshme dhe shkatërruese. Një individ i shqetësuar mund të rikrijojë zërin e një ish të dashurit ose të dashurës së vdekur dhe të përdorë audion e re për të thënë gjëra të urrejtura dhe lënduese."

Kjo është vetëm në kontekstin e Alexa. Audioja e rreme e thellë mund të shkojë përtej kësaj, duke i bindur njerëzit se politikanët e shquar besojnë gjëra që nuk i besojnë, për shembull. Por nga ana tjetër, sa më shumë të mësohemi me këto falsifikime të thella - ndoshta në formën e këtyre zërave Alexa - aq më shumë do të jemi skeptikë ndaj falsifikimeve më të liga. Pastaj përsëri, duke pasur parasysh sa e lehtë është të përhapësh gënjeshtra në Facebook, ndoshta jo.

Amazon nuk ka thënë nëse kjo veçori do të vijë në Alexa apo nëse është thjesht një demonstrim teknologjik. Unë disi shpresoj se do të ndodhë. Teknologjia është në më të mirën e saj kur përdoret në një mënyrë humaniste si kjo, dhe megjithëse reagimi i lehtë është ta quash atë rrëqethëse, siç thotë Selepak, në të vërtetë nuk është shumë ndryshe nga shikimi i videove të vjetra ose dëgjimi i postave zanore të ruajtura. si një personazh në një shfaqje televizive të shkruar me përtaci.

Dhe nëse teknologjia për falsifikimet e thella është e disponueshme, pse të mos e përdorim atë për të ngushëlluar veten?

Recommended: