Technologijos baugina visus: medikai kalba apie egzistencinę krizę ir rizikas žmonijai
Dirbtinio intelekto (DI) moksliniai tyrimai ir kūrimas nuolat atidžiai nagrinėjami, o tarptautinė gydytojų ir visuomenės sveikatos ekspertų grupė neseniai paragino sustabdyti jo pažangą, kol bus nustatytos tinkamos taisyklės. Įvairių sričių specialistai kalba apie tai, kaip technologijų kaita ir DI pritaikymas įvairiose šakose gali kelti riziką ar net kenkti žmonėms.
Šie medicinos ekspertai, kilę iš įvairių šalių, pavyzdžiui, Jungtinės Karalystės, Jungtinių Amerikos Valstijų, Australijos, Kosta Rikos ir Malaizijos, išreiškė susirūpinimą dėl tam tikrų dirbtinio intelekto formų, kurios, jų nuomone, kelia egzistencinę grėsmę žmonijai[1].
Pripažindami transformacinį dirbtinio intelekto potencialą tokiose srityse kaip medicina ir visuomenės sveikata, ekspertai taip pat įspėjo dėl galimo piktnaudžiavimo juo ir neigiamų pasekmių. Ypač didelį susirūpinimą kelia dirbtinio intelekto gebėjimas greitai analizuoti ir tvarkyti didelius duomenų kiekius, tarp kurių gali būti asmeninė informacija ir vaizdai.
Dėl to atsiranda galimybė naudoti dirbtinį intelektą siekiant manipuliuoti elgesiu ir pakenkti demokratiniams procesams. Ekspertai pažymėjo, kad jau pastebėta tokio netinkamo naudojimo atvejų. DI atliko tam tikrą vaidmenį darant įtaką 2016 m. JAV prezidento rinkimams, 2017 m. Prancūzijos prezidento rinkimams ir 2013 m. bei 2017 m. rinkimams Kenijoje.
Ekspertai įspėjo, kad kartu su didėjančiomis galimybėmis iškraipyti tikrovę naudojant gilias klastotes, dirbtinio intelekto valdomos informacinės sistemos gali griauti pasitikėjimą, kurstyti socialinį susiskaldymą ir sukelti konfliktus, turinčius didelį poveikį visuomenės sveikatai. Be to, ekspertai pabrėžė, kad dirbtiniu intelektu grindžiamas stebėjimas gali būti naudojamas kaip priemonė kontroliuoti ir engti asmenis[2].
Kaip pavyzdį jie nurodė Kinijos socialinio kredito sistemą, kurioje, siekiant stebėti ir vertinti piliečius, derinama veido atpažinimo technologija ir didžiulių asmeninių duomenų, įskaitant finansinius sandorius, judėjimą, policijos įrašus ir socialinius ryšius, saugyklų analizė. Nerimą kelia tai, kad bent 75 šalys, įskaitant liberalios demokratijos šalis, plečia tokias stebėjimo sistemas.
Grėsmės, susijusios su DI: nuo privatumo iki fizinio saugumo
Kita ekspertų iškelta susirūpinimą kelianti sritis – mirtinų autonominių ginklų sistemų (angl. Lethal Autonomous Weapon Systems, LAWS) kūrimas. Šios sistemos, prijungtos prie mobiliųjų įrenginių, pavyzdžiui, dronų, gali be žmogaus priežiūros nustatyti, pasirinkti ir užpulti žmogaus taikinius. Autoriai įspėjo, kad tai potencialiai gali lemti didelio masto žmonių žūtis[3].
Be šių tiesioginių grėsmių, ekspertai taip pat atkreipė dėmesį į ilgalaikes plataus masto dirbtinio intelekto diegimo pasekmes, prognozuodami, kad dėl šios technologijos per ateinantį dešimtmetį gali būti prarasta nuo dešimčių iki šimtų milijonų darbo vietų. Nors pasikartojančio, pavojingo ir nemalonaus darbo panaikinimas būtų naudingas, nedarbas yra susijęs su neigiamais padariniais sveikatai ir elgesiui.
Taip pat, pasak ekspertų, pavojus kyla ir dėl to, kad didėjantis užduočių automatizavimas prisideda prie turto ir pajamų koncentracijos tarp savininkų, didindamas pasaulinę turtinę nelygybę. Ekspertai pabrėžė, kad didelę grėsmę kelia savaime tobulėjantis bendrosios paskirties dirbtinis intelektas (DI).
Dirbtinis intelektas, galintis tobulėti (self-iproving general purpose AI – AGI), turi potencialą išmokti ir atlikti daugybę žmogaus užduočių, pranokdamas žmogaus galimybes. Ekspertai išreiškė susirūpinimą dėl galimybės, kad AGI gali panaudoti savo intelektą ir galią taip, kad sąmoningai ar netyčia pakenktų žmonėms arba juos pavergtų.
Analizės autorių teigimu, jei AGI būtų prijungta prie interneto ir realaus pasaulio per transporto priemones, robotus, ginklus ir skaitmenines sistemas, tai potencialiai galėtų tapti didžiausiu įvykiu žmonijos istorijoje. Jie pabrėžė, kad galimybė išvengti rimtos ir potencialiai egzistencinės žalos sparčiai užsidaro.
Reikalaujama aiškių taisyklių ir tvirto politikos reguliavimo
Siekdami sumažinti šią riziką, autoriai pabrėžė, kad reikia tvirtos politikos, veiksmingų reguliavimo institucijų ir tarptautinio bendradarbiavimo. Jie perspėjo dėl dirbtinio intelekto ginklavimosi varžybų ir paragino imtis priemonių, kad būtų apsaugota demokratija, sustiprintos viešojo intereso institucijos ir užtikrintas skaidrumas bei atskaitomybė kariniame-korporaciniame pramoniniame komplekse, skatinančiame dirbtinio intelekto pažangą.
Be to, ekspertai pabrėžė, kad svarbu apsaugoti demokratines institucijas ir teises į privatumą nuo socialinės žiniasklaidos bendrovių skleidžiamos tikslinės dezinformacijos, kurią lemia dirbtinis intelektas[4]. Tikima, kad norint, jog dirbtinis intelektas išnaudotų savo potencialą ir būtų naudingas žmonijai ir visuomenei, būtina pirmenybę teikti demokratijos apsaugai ir veiksmingo reguliavimo sistemoms.
Jie pabrėžė, kad reikia nustatyti kontrolės ir atsvaros priemones, kurios priverstų dirbtinio intelekto kūrėjus, karinės pramonės kompleksą ir socialinės žiniasklaidos bendroves atsakyti už savo veiksmus. Ekspertai pripažino, kad siekiant formuoti būsimus dirbtinio intelekto ir savaiminių intelektinių technologijų kūrimo rezultatus reikia imtis neatidėliotinų veiksmų ir priimti politinius sprendimus.
Jie pabrėžė tarptautinio susitarimo ir bendradarbiavimo svarbą, kad būtų užkirstas kelias DI ginklavimosi varžybų eskalavimui. Skatinant valstybių bendradarbiavimą ir dalijimąsi žiniomis, įmanoma įveikti sudėtingus dirbtinio intelekto technologijų aspektus, kartu sumažinant riziką ir gaunant kuo didesnę naudą.
Ekspertai pateikė konkrečius siūlymus, ką reikėtų padaryti, kad DI nekeltų pavojaus
Pirma, jie pabrėžė, kad kuriant ir diegiant dirbtinio intelekto sistemas svarbu užtikrinti skaidrumą ir atskaitomybę. Tai reiškia, kad reikia skatinti atvirą dialogą, atskleisti DI projektų ketinimus ir metodikas bei užtikrinti, kad sprendimų priėmimo procesai būtų tikrinami.
Antra, ekspertai pabrėžė, kad reikia saugoti demokratiją ir stiprinti viešojo intereso institucijas. Jie pasisakė už griežtas apsaugos priemones, kad būtų užkirstas kelias pasinaudoti dirbtiniu intelektu grindžiamomis dezinformacijos kampanijomis ir manipuliuoti demokratiniais procesais. Labai svarbu suteikti asmenims galimybę gauti tikslią informaciją ir kovoti su dezinformacijos pastangomis, kurios kenkia demokratinei visuomenės struktūrai.
Be to, ekspertai pabrėžė privatumo teisių ir etiško asmens duomenų naudojimo dirbtinio intelekto programose svarbą. Labai svarbu rasti tinkamą pusiausvyrą tarp inovacijų ir asmenų privatumo apsaugos. Turėtų būti įgyvendinti išsamūs duomenų apsaugos įstatymai ir sistemos, kad būtų apsaugota neskelbtina informacija ir užtikrinta, jog dirbtinio intelekto algoritmai būtų sąžiningi, nešališki ir gerbtų pagrindines žmogaus teises.
Ekspertai baigė savo pranešimą pabrėždami, kad dirbtinio intelekto vystymosi trajektorija nėra iš anksto nulemta. Tam reikia sąmoningo sprendimų priėmimo, atsakingo valdymo ir įsipareigojimo užtikrinti viešąjį interesą. Aktyviai spręsdama galimus su dirbtiniu intelektu susijusius pavojus, žmonija gali išnaudoti jo transformacinį potencialą ir kartu apsisaugoti nuo egzistencinių grėsmių, kurias jis gali kelti.
Viena iš pagrindinių DI etinių problemų – algoritminis šališkumas
Dirbtinio intelekto sistemos yra sukurtos mokytis iš didžiulių duomenų kiekių, kuriuose kartais gali būti visuomenėje egzistuojančių šališkumų. Jei mokymo duomenys yra šališki arba jei algoritmai yra ydingi, dirbtinio intelekto sistemos gali įtvirtinti arba sustiprinti esamus visuomenės prietarus. Dėl to kyla klausimų dėl dirbtinio intelekto sprendimų priėmimo procesų sąžiningumo ir teisingumo.
Pavyzdžiui, įrodyta, kad veido atpažinimo sistemos pasižymi rasiniais ir lyčių šališkumo požymiais, dėl kurių teisėsaugos ir kitose srityse gaunami diskriminaciniai rezultatai. Sprendžiant algoritminio šališkumo problemą reikia griežtai rinkti duomenis ir atlikti išsamius bandymus, kad būtų sušvelnintas diskriminacinis poveikis ir skatinamas teisingumas.
Dirbtinio intelekto sistemų naudotojai taip pat privalo suprasti naudojamų technologijų ribotumą, šališkumą ir galimas pasekmes. Etinių sprendimų priėmimas turėtų būti integruotas į dirbtinio intelekto kūrimą ir naudojimą per visą jo gyvavimo ciklą. Be to, su dirbtiniu intelektu susiję etiniai iššūkiai apima ne tik techninius aspektus.
Jie susiję su platesnėmis visuomenės vertybėmis, įskaitant privatumą ir duomenų apsaugą. Dažnai dirbtinis intelektas remiasi plataus masto duomenų rinkimu, todėl kyla susirūpinimas dėl asmeninės informacijos privatumo ir saugumo. Norint apsaugoti asmens privatumą ir kartu pasinaudoti DI teikiama nauda, reikia griežtų duomenų apsaugos taisyklių, informuoto sutikimo mechanizmų ir saugios duomenų valdymo praktikos.
Vartotojai ir suinteresuoti asmenys turėtų turėti galimybę suprasti ir užginčyti rezultatus, kuriuos sukuria dirbtinio intelekto algoritmai. Paaiškinamumo mechanizmai, kurie leidžia suprasti, kaip DI priima sprendimus, gali padėti didinti pasitikėjimą ir užtikrinti kūrėjų atskaitomybę.
Etiniai aspektai taip pat apima klausimus, susijusius su skaidrumu, paaiškinamumu ir teise į prasmingą žmogaus priežiūrą[5]. Kadangi dirbtinio intelekto sistemos tampa vis sudėtingesnės, labai svarbu užtikrinti jų sprendimų priėmimo procesų skaidrumą.
Atskaitomybė ir atsakomybė tampa svarbiu klausimu
Atsakomybė yra dar vienas svarbus etinis aspektas. Dirbtinio intelekto sistemos gali savarankiškai priimti sprendimus, kurie turi didelių pasekmių asmenims ir bendruomenėms. Tačiau kai kas nors nutinka ne taip, nustatyti, kas už tai atsakingas, gali būti sudėtinga.
Tradiciniai atskaitomybės modeliai gali būti netaikomi dirbtiniam intelektui, kai sprendimų priėmimas gali būti neskaidrus ir sudėtingas. Labai svarbu sukurti atsakomybės priskyrimo ir aiškių atskaitomybės ribų nustatymo sistemas. Tai apima dirbtinio intelekto sistemų skaidrumo užtikrinimą, sprendimų priėmimo procesų stebėjimą ir dirbtinio intelekto kūrėjų, naudotojų bei kitų suinteresuotųjų šalių vaidmenų ir atsakomybės nustatymą.
Dirbtinio intelekto kūrėjų ir naudotojų atsakomybė yra labai svarbus dirbtinio intelekto etikos aspektas. Kūrėjai turi etinę pareigą kurti DI sistemas, kurios atitiktų visuomenės vertybes, gintų žmogaus teises ir teiktų pirmenybę asmenų ir bendruomenių gerovei. Tam reikia įgyvendinti etiško projektavimo principus ir atlikti griežtus bandymus, kad būtų nustatyta ir sumažinta galima rizika.
Norint įveikti etinius dirbtinio intelekto aspektus, būtinas tarpdisciplininis bendradarbiavimas ir įvairių suinteresuotųjų šalių dalyvavimas. Vyriausybės, pramonės lyderiai, mokslininkai ir pilietinės visuomenės organizacijos turi bendradarbiauti kurdami etines sistemas, gaires ir politiką. Tarptautinis bendradarbiavimas gali palengvinti patirtis, užtikrinant, kad kuriant ir diegiant dirbtinį intelektą būtų laikomasi etikos standartų visame pasaulyje.