Į teismą – dėl melagienų, kurias paskleidė „Chat GPT“
Australijoje bręsta precedento neturintis įvykis. Netrukus teisme gali būti iškelta pirmoji byla dėl šmeižto. Tačiau čia viskas nėra taip paprasta kaip atrodo: kaltinamasis nėra buvęs sutuoktinis ar bendradarbis, tai – dirbtinis intelektas (DI).
Vieno Australijos miesto meras pradeda bylinėjimosi procesus prieš DI, tiksliau, jo kūrėjus, po to, kai garsusis pokalbių robotas „Chat GPT“ melagingai nurodė, kad jis buvo nuteistas dėl kyšininkavimo skandalo.
Brianas Hoodas, einantis Hepburno grafystės mero pareigas, iš pažįstamų ir draugų netikėtai sužinojo, kad „Chat GPT“ neteisingai pateikia informaciją apie jį.
Iš tiesų robotas skelbia, kad mero biografija anaiptol nėra nepriekaištinga: neva jis buvo kaltas dėl daugiau nei prieš dešimtmetį kilusio skandalo, susijusio su Australijos rezervų banku[1].
Tačiau realybėje kyšininkavimo skandalas buvo susijęs su įmone „Note Printing Australia“, kuri iš tiesų mokėjo kyšius užsienio pareigūnams.
B. Hudas tuo metu iš tiesų dirbo „Note Printing Australia“, tačiau jis buvo asmuo, informavęs policiją apie vykdomą kyšininkavimo schemą, o ne vienas iš kaltininkų. Nors manoma, kad robotas informaciją tiesiog neteisingai apdorojo bei neatskyrė kaltųjų nuo kaltininkų, B. Hudas vis tiek nusprendė apginti savo gerą vardą ir kreipėsi į teismą.
Hepburno grafystės merą atstovaujantys advokatai praėjusį mėnesį kreipėsi į „OpenAI“, bendrovę, kuri ir sukūrė „Chat GPT“, bei įspėjo kompaniją, kad ji turi per mėnesį ištaisyti pokalbių roboto pateikiamus klaidinančius teiginius. Priešingu atveju byla bus atverčiama jau viename iš Australijos teismų. O DI technologijoms sparčiai tobulėjant, analogiškų nesusipratimų neišvengiamai gali būti ir daugiau.
Teisiniai ginčai dėl DI klaidų ir kontrolės stokos yra neišvengiami
Spartus ir neprognozuojamas DI pritaikymas bei teisinės reguliacijos stoka kelia ne vieną klausimą. Dalis teisės ekspertų pastebi, kad DI technologijos pavojingos net ne tuo, kad gali pateikti klaidinančią informaciją, būti šališkos ar net mums grasinti bei apšmeižti.
Tikroji grėsmė slypi tame, kaip tobulai DI jau gali mus pamėgdžioti. O tuomet, ironiška, bet įrodyti, kad kažką padarėme ar pasakėme ne mes, gali būti ypač sudėtinga. Šiame DI plėtros etape, beveik tobulai veikia ne tik pokalbių robotai, tačiau ir įvairūs balso imitatoriai[2].
Jų pagalba bet kokį tekstą galima priversti pasakyti bet kokios įžymybės balsu: nuo Beyonce ar Taylor Swift, iki Vladimiro Putino ar Joe Bideno. Žinoma, „deepfakes“ technologijos ekspertus neramina jau ne vienerius metus, tačiau su dabartiniais DI pajėgumais, tinklalaidžių populiarumu ir tuo, kaip sparčiai plinta naujiena, situacija gali eskaluotis labai greitai.
Nors kai kurios valstybės ar net atskiros JAV valstijos jau svarsto priimti tam tikrus apribojimus dėl balsinio apsimetinėjimo, daugelis esamų teisinių sąvokų, taikomų tradiciniams reikalavimams dėl įžymybių apsimetinėjimo, turės būti atnaujintos. Negana to, kyla klausimas, ar, pavyzdžiui, mirusios įžymybės dirbtinio intelekto sukurtam balsui taip pat gali būti taikoma teisinė apsauga.
Su nevaržoma DI plėtra neišvengsime paties juodžiausio scenarijaus žmonijai
Vienos iš paskutinių DI saugumo ataskaitų tyrėjai pareiškė, kad galiausiai dirbtinis intelektas iš tiesų gali įgyti pranašumą prieš žmoniją ir sukelti jai katastrofą, paneigdamas visas Darvino evoliucijos taisykles[3]. Kaip teigia DI tyrėjas Danas Hendrycksas, evoliucija natūralios atrankos būdu gali lemti savanaudišką dirbtinio intelekto elgesį.
„Mes teigiame, kad natūralioji atranka sukuria paskatas dirbtinio intelekto pajėgoms veikti prieš žmogaus interesus. Mūsų argumentas grindžiamas dviem pastebėjimais. Pirma, natūralioji atranka gali būti dominuojanti jėga kuriant dirbtinį intelektą. Antra, evoliucija natūraliosios atrankos būdu paprastai lemia savanaudišką elgesį“, – pažymi ekspertas.
D. Hendryckso teigimu, dirbtinio intelekto technologijos tampa vis pigesnės ir vis labiau pajėgios, todėl įmonės vis dažniau jomis remsis administravimo ar komunikacijos tikslais, ilgainiui, taip visiškai išstumiant žmones iš visuomenės.
Pagal tradicinę natūralios atrankos apibrėžtį, gyvūnai, žmonės ir kiti organizmai, kurie greičiausiai prisitaiko prie aplinkos, turi daugiau galimybių išgyventi. Tačiau DI atveju, situacija gali apvirsti aukštyn kojomis.
Ši neraminanti ataskaita paskelbta tuo metu, kai technologijų ekspertai, inovatoriai ir lyderiai vis dažniau ragina atsargiai žvelgti į DI plėtrą ir net skatina ją laikinai stabdyti.
Ne visi bijo: Indija DI plėtros neribos ir ją net sveikina
Kol vieni baiminasi dėl DI, kiti juo džiaugiasi. Pavyzdžiui, Indija neplanuoja reguliuoti dirbtinio intelekto naudojimo ir vystymo bei vadiną šią technologiją „strategiškai svarbia visai šaliai“[4].
Indijos elektronikos ir IT ministerija paskelbė pareiškimą, kuriame išsamiai išdėstė šalies poziciją dėl dirbtinio intelekto kūrimo, potencialo ir pavojų.
Ministerija taip pat paskelbė, kad toliau tiki, jog dirbtinis intelektas turės „kinetinį poveikį verslumo ir verslo augimui“, o vyriausybė imsis visų būtinų politikos ir infrastruktūros priemonių, kad šalyje būtų sukurtas stiprus dirbtinio intelekto sektorius.
Remiantis dabartine šalies pozicija galima numanyti, kad Indija siekia tapti pasauline dirbtinio intelekto lydere. Šalyje sukurta ir Nacionalinė dirbtinio intelekto programa, su kuria bus siekiama sukurti tinklą, skirtą DI technologijų panaudojimui.
Tiesa, Indijos pareigūnai pripažįsta, kad dėl DI išlieka daug neatsakytų etinių klausimų ir problemų nestokojama ir rizikos veiksnių dėl tokių klausimų kaip šališkumas ir diskriminacija. Vis dėlto, šalies valdžia yra įsitikinusi, kad su šiomis problemomis bus susidorota, o DI ženkliai prisidės prie naujo Indijos technologijų bumo.