Suprasti akimirksniu
  • Dirbtinio intelekto technologijos keičiasi ir vis labiau artėja prie privatumo ribų
  • Tai procesas, kai kompiuterine programa sukuriamas dirbtinis balso atvaizdas
  • Sukčiai naudojasi balso klonavimo technologija savo reikmėms
Šaltiniai
Išmanieji telefonai
Išmaniosios technologijos ir dirbtinis intelektas žengia tolyn. Pixabay/ Pexels nuotrauka

Dirbtinio intelekto technologijos keičiasi ir vis labiau artėja prie privatumo ribų

Ar esate pasiruošę dirbtinio intelekto balso klonavimui telefone? Žmonės, kurie naudoja išmaniuosius „Samsung“ telefonus, turėtų to saugotis. Šiuo metu technologijų kompanijos specialistai dirba, kad programinis asistentas klonuotų naudotojo balsą atsiliepdamas į skambučius.

Dirbtinis intelektas kelia dideles bangas technologijų pasaulyje, o tai tik dar vienas didelis žingsnis šia kryptimi. Tačiau balso klonavimas[1] neabejotinai kelia tam tikrą susirūpinimą, kai kalbama apie privatumą ir sutikimą.

Balso klonavimas yra dirbtinės asmens balso imitacijos sukūrimas naudojant dirbtinio intelekto technologiją. Kai ši sąvoka atsirado pirmą kartą, asmuo turėjo sukurti didelį kiekį įrašytos kalbos, kad būtų galima klonuoti jo balsą. Tačiau tokia programinė įranga vystosi labai sparčiai, dabar balso kloną galima sukurti turint vos kelias minutes įrašytos kalbos.

Balso klonavimas gali būti plačiai taikomas, pavyzdžiui, kuriant teksto keitimo į kalbą sistemas, kurios skambėtų natūraliau ir panašiau į žmogaus, kuriant virtualiuosius asistentus, kurie gali bendrauti su vartotojais naudodami konkretaus asmens balsą, arba kuriant filmų ar televizijos laidų įgarsinimą naudojant aktoriaus, kurio nebėra, balsą.

„Samsung“ sukurtas asistentas „Bixby“ ir jo atnaujinimas[2] leidžia angliškai kalbantiems žmonėms atsiliepti į skambučius rašant žinutę. Įrašius šią žinutę, asistentas gali ją konvertuoti į garsą ir skambinančiojo vardu tiesiogiai perduoti skambinančiajam. Taip pat yra funkcija, vadinama „Bixby Custom Voice Creator“, kuri leidžia įrašyti įvairius sakinius, kuriuos dirbtinio intelekto asistentas gali analizuoti ir sukurti dirbtinio intelekto sukurtą jūsų balso ir tono kopiją. Tai kelia riziką ir abejones šia technologija.

Telefonų gamintojai naudojasi dirbtinio intelekto modeliais. Tofroscom/ Pexels nuotrauka
Telefonų gamintojai naudojasi dirbtinio intelekto modeliais. Tofroscom/ Pexels nuotrauka

Tai procesas, kai kompiuterine programa sukuriamas dirbtinis balso atvaizdas

Apmokius mašininio mokymosi modelį pagal didelį asmens, kurio balsą norima klonuoti, garso įrašų duomenų rinkinį, įmanoma atkartoti norimą balso įrašą. Mokymo procese iš garso įrašų išgaunamos tokios savybės kaip kalbėtojo balso aukštis, tonas ir tembras, o tada šios savybės naudojamos kalbėtojo balso matematiniam modeliui sukurti. Kai modelis apmokytas, juo galima sintetinti naują garsą, kuris skamba kaip asmens balsas.

Tačiau balso klonavimas taip pat kelia susirūpinimą dėl galimo piktnaudžiavimo šia dirbtinio intelekto technologija, pavyzdžiui, suklastotų garso įrašų, kuriuose žmogus sako tai, ko iš tikrųjų niekada nesakė. Todėl svarbu šią technologiją naudoti atsakingai ir atsargiai.

Yra daug asmens balso klonavimo privalumų. Pirma, tai prieinamumas, kai balso klonavimas gali padėti žmonėms, praradusiems gebėjimą kalbėti dėl ligos ar traumos. Balso klonavimas taip pat gali būti naudojamas kuriant asmeninius skaitmeninius asistentus, pokalbių robotus ir kitus virtualius subjektus. Be to, jis gali būti naudojamas klientų patirčiai personalizuoti, sukuriant unikalų ir atpažįstamą prekės ženklo atstovų balsą[3].

Taip pat yra ir balso klonavimo išlaidų taupymo aspektas. Jis gali gerokai sumažinti vaizdo įrašų ir kitos žiniasklaidos priemonių įgarsinimo kūrimo išlaidas. Užuot samdžiusios profesionalų balso aktorių, įmonės gali naudoti balso klonavimo technologiją, kad sukurtų sintetinį balsą, kuris skamba taip pat kaip žmogaus balsas.

Galiausiai balso klonavimas kaip technologija pasitarnauja, nes gali padėti sutaupyti laiko automatizuojant tam tikras užduotis, kurioms paprastai reikia žmogaus įsikišimo, pavyzdžiui, klientų aptarnavimo pokalbių robotus, kuriuos galima suprogramuoti taip, kad jie klonuotu balsu atsakinėtų į dažniausiai pasitaikančias užklausas.

Balso klonavimas taip pat naudojamas kaip būdas propaguoti neapykantos retoriką. Vasario mėnesį vienas asmuo nusprendė perimti prezidento J. Bideno balsą ir panaudoti jį vaizdo įraše, kad atrodytų, jog jis puola transseksualus. Greitai buvo nustatyta, kad vaizdo įrašas buvo suklastotas, tačiau jis vis tiek sulaukė tūkstančių peržiūrų socialinėje žiniasklaidoje.

Sukčiai naudojasi balso klonavimo technologija savo reikmėms

Yra ne vienas trūkumas, kuris trukto priimti šią technologiją teigiamai. Pirma, tai gali būti laikoma rimtu privatumo pažeidimu. Žmonės gali naudoti balso klonavimą kaip būdą pavogti kieno nors tapatybę.

Kadangi tam reikia tik kelių minučių įrašytos kalbos, sukčiai gali lengvai pavogti kieno nors balsą ir panaudoti jį bet kokiomis priemonėmis[4]. Ši dirbtinio intelekto ir balso klonavimo sąvoka labai nauja, tad nėra daug priemonių, kurios galėtų juos sustabdyti.

Sukčiai taip pat naudoja balso klonavimą, kad skambindami pažeidžiamesniems žmonėms skambintų legaliau. Jie įtikina šiuos žmones pervesti dideles pinigų sumas į jų sąskaitas, o vėliau jų neįmanoma susekti, nes jų naudojamas balsas buvo net ne jų pačių. Tai jau yra dalykas, kuris kiša pagalius į ratus norint šią technologiją perkelti į kitą lygį.

Sukčiai gali naudotis DI ir balso klonavimu. Mikhail Nilov/ Pexels nuotrauka
Sukčiai gali naudotis DI ir balso klonavimu. Mikhail Nilov/ Pexels nuotrauka

Sukčiai gali įvairiais būdais naudoti balso klonavimą, kad apgautų žmones ir gautų prieigą prie slaptos informacijos. Vienas iš įprastų būdų yra apsimetinėjimas artimaisiais. Sukčiai, klonuodami kieno nors balsą, gali apsimesti artimuoju ir įtikinti žmones atskleisti savo asmeninius duomenis arba pervesti pinigus. Jie gali naudoti garsenybės balsą, kad įtikintų žmones investuoti į netikrą verslą arba paaukoti fiktyviai labdaros organizacijai.

Kitas būdas, kuriuo sukčiai naudoja balso klonavimą, yra socialinė inžinerija. Jie klonuoja aukos balsą ir skambina jos draugams bei šeimos nariams, prašydami pinigų ar konfidencialios informacijos. Šis metodas taip pat gali padėti jiems gauti prieigą prie aukos socialinės medijos paskyrų ar el. pašto paskyrų.

Galiausiai sukčiai gali naudoti balso klonavimą, kad telefonu patvirtintų apgaulingas operacijas. Jie gali klonuoti aukos balsą, kad patvirtintų pinigų pervedimą arba pirkimą kredito kortele. Tai yra geras būdas sukčiams ir pavojus vartotojams.

Labai svarbu išlikti budriems ir tikrinti tapatybę visų, kurie kreipiasi į jus prašydami konfidencialios informacijos ar pinigų. Jei įtariate, kad tapote auka sukčių, naudojančių balso klonavimą, tai būtina nedelsiant pranešti apie tai valdžios institucijoms. Žinodami su balso klonavimu susijusią riziką, galite geriau apsisaugoti nuo sukčių ir sukčiavimo.