- AI arsenale – manipuliacija ir rasizmas
- Technologijos užverbuos ir patį išradėją – laikykitės tvirtai
- Dirbtinis intelektas vertinamas skirtingai
- Skaitmeninio ugdymo pasekmės – priklausomybė ir socialinė atskirtis
AI arsenale – manipuliacija ir rasizmas
1989 m. Dano Simmonso klasikinio mokslinės fantastikos romano „Hiperionas“ veikėjai yra nuolat prijungiami prie dirbtinio intelekto tinklo, kuris akimirksniu perduoda informaciją tiesiai į jų smegenis[1]. Nors žinios pasiekiamos iš karto, gebėjimas mąstyti savarankiškai ima ir išgaruoja, – tokiu būdu virstama tuščiavidurėmis iškamšomis, ir taip gali atsitikti ir mums.
Praėjus daugiau nei 30 metų po D. Simmonso romano pasirodymo, apie didėjantį dirbtinio intelekto poveikį mūsų intelektiniams gebėjimams pradedama galvoti panašiai. Vis dėlto, siekiant sumažinti šiuos pavojus, siūlomas sprendimas, padėsiantis suderinti dirbtinio intelekto pažangą ir poreikį gerbti bei išsaugoti kiekvieno iš mūsų pažintinius gebėjimus – „neištirpdant“ smegenų ir neatsisakant geidžiamų profesinių pasiekimų.
Visi žinome, jog dirbtinio intelekto nauda žmonių gerovei yra labai plati ir reklamuojama dideliu mastu. Tarp jų – technologijos potencialas skatinti socialinį teisingumą, kovoti su sisteminiu rasizmu, pagerinti onkologinių ligų nustatymo efektyvumą, sušvelninti aplinkos krizę ir padidinti produktyvumą[2]. Deja, vis dažniau atkreipiamas dėmesys į „požeminius“ šios naujovės aspektus, įskaitant rasinį šališkumą, gebėjimą gilinti socialinius bei ekonominius skirtumus ir manipuliuoti žmonių emocijomis ir elgesiu (daryk, kas liepiama, kitaip tariant)[3].
Nepaisant didėjančios rizikos, vis dar nėra privalomų nacionalinių ar tarptautinių taisyklių, reglamentuojančių dirbtinį intelektą, dėl ko Europos Komisijos pasiūlymas dėl technologijos yra ypatingai aktualus ir tuo pat keliantis nerimą.
Technologijos užverbuos ir patį išradėją – laikykitės tvirtai
Europos Komisijos siūlomame AI akte, kurio naujausiam projektui prieš kelias savaites žalią šviesą uždegė du Europos Parlamento komitetai, nagrinėjama galima rizika, susijusi su minėtos technologijos naudojimu, ir ji klasifikuojama pagal tris kategorijas: „nepriimtina“, „didelė“ ir „kita“.
Visų svarbiausia, būtų draudžiama tokia dirbtinio intelekto praktika, kuri manipuliuoja asmens elgesiu taip, kad tai sukelia fizinę ar psichologinę žalą jam ar aplinkiniams; būtų apribota tam tikros grupės pažeidžiamumo galimybė (pavyzdžiui, negalią turinčių asmenų), iškreipiant pastarųjų įvaizdį ir sukeliant jiems žalą; draudžiama vertinti ir klasifikuoti žmones (jų socialinį statusą ir pan.), naudojant veido atpažinimą realiuoju laiku viešosiose erdvėse.
Tai yra svarbūs žingsniai, atskleidžiantys poreikį apsaugoti konkrečią veiklą ir fizines erdves nuo dirbtinio intelekto kišimosi, jau nekalbant apie veido atpažinimo reguliavimą, – pagrindinės žmogaus teisės, tokios kaip privatumas, turi būti apsaugotos.
Tai ypač aktualu kalbant apie naujausius pokyčius, susijusius su automatiniu sprendimų priėmimu teismų veiklos srityse, ir migracijos valdymu[4]. Diskusijos dėl ChatGPT ir OpenAI taip pat kelia susirūpinimą dėl jų poveikio pasauliečių intelektualiniams gebėjimams.
Aptariami atvejai vienareikšmiškai signalizuoja apie pavojų tuose diegimo sektoriuose, kuriuose „klibinamos“ žmogaus teisės, privatumas ir pažintiniai gebėjimai. Taigi, prieš AI užlipant „ant galvos“ ir iki kulnų sugrūdant mus į žemę, reikia pagalvoti apie erdves, kuriose tokia veikla turėtų būti griežtai reglamentuojama, – taip turėtų atrodyti šventovė kaip priešnuodis valdžiai, – kitos išeities neturime.
Dirbtinis intelektas vertinamas skirtingai
„Šventyklų“ be dirbtinio intelekto idėja reiškia ne dirbtinio intelekto sistemų uždraudimą, bet griežtesnį technologijų taikymo reguliavimą. ES dirbtinio intelekto akto atveju tai reiškia tikslesnę žalos sąvokos apibrėžtį, nors nei siūlomame ES teisės akte, nei valstybių narių lygmeniu nėra aiškios žalos apibrėžties.
Galimas sprendimas būtų rasti bendrus Europos valstybių narių kriterijus, kurie geriau apibūdintų manipuliacinės dirbtinio intelekto praktikos žalos rūšis.
Šiuo atveju pradinis taškas būtų naujos kartos teisių – „neuroteisių“ – užtikrinimas, kurios apsaugotų kiekvieno iš mūsų kognityvinę laisvę sparčios pažangos sąlygomis. Kita vertus, teisė į psichikos neliečiamybę, kurią jau gina Europos Žmogaus Teisių Teismas, turėtų neapsiriboti vien psichikos ligų atvejais, ir būti taikoma neleistiniems įsibrovimams.
Teisė atsisakyti. Visi asmenys turi teisę atsisakyti AI rūšių paramos – tai reiškia visišką dirbtinio intelekto prietaiso nesikišimą ir (arba) saikingą kišimąsi.
Jokių sankcijų. Atsisakymas niekada nesukels jokių ekonominių ar socialinių sunkumų.
Teisė į individualų apsisprendimą. Visi asmenys turi teisę į galutinį sprendimą.
Pažeidžiamų žmonių apsauga. Bendradarbiaudamos su pilietine visuomene ir privačiais subjektais, valdžios institucijos turi apibrėžti opias sritis (pavyzdžiui, švietimo, sveikatos apsaugos), taipogi žmonių ir (arba) socialines grupes, tarkime, vaikus, kurie neturėtų būti veikiami arba turėtų būti vidutiniškai veikiami AI „visažinių“.
Skaitmeninio ugdymo pasekmės – priklausomybė ir socialinė atskirtis
Kai kurios JAV ir Europos mokyklos nusprendė atsisakyti ekranų klasėse, kol tuo tarpu daugelis skaitmeninio ugdymo programų, deja, remiasi projektais, skatinančiais priklausomybę bei socialinę atskirtį.
Iš tiesų net ir už kontroliuojamos aplinkos ribų, pavyzdžiui, klasėse, dirbtinio intelekto pasiekiamumas plečiasi.
Siekdami pasipriešinti, 2019-2021 m. keliolika JAV miestų priėmė įstatymus, ribojančius ir draudžiančius naudoti veido atpažinimą teisėsaugos tikslais. Tačiau nuo 2022 m. daugelis miestų, reaguodami į didėjantį nusikalstamumą, atsitraukia, jau nekalbant apie kitas technologijos panaudojimo galimybes.
Kol Prancūzijoje dirbtinio intelekto vaizdo stebėjimo kameros stebės 2024 m. Paryžiaus olimpines žaidynes, veido analizei pasitelkiamas dirbtinis intelektas stiprins nelygybę, kai bus naudojamas darbo pokalbių metu (turėdama duomenis apie praeityje sėkmingus kandidatus, technologija atrinks tuos, kurie yra iš privilegijuotųjų sluoksnio). Tokia praktika turėtų būti uždrausta.
Galimybė dirbtinam intelektui pasakyti „ne“ yra būtina, jei norime išsaugoti savo gebėjimus įgyti žinių ir išlaikyti moralę. Apskritai, šiandien mes galime kalbėti ne tik apie AI, bet ir „čipus“. Kada tai įvyks?
Tikriausia per artimiausius 10 metų. Žinoma pradžioje išmanūs „dalykėliai“ bus įtaisyti drabužiuose, vėliau pasieksime ir smegenis – tokiu būdu bus nustatytas tiesioginis ryšys su skaitmeniniu pasauliu; taip kalba žmogus, kuris žadėjo mus padaryti laimingais. Ne man spręsti, kas reikalinga žmonijai. Tačiau esu įsitikinusi prievarta kišamos sąsajos su išorine informacija pasekmėmis.
Daroma prielaida, jog lustas veiks vienodai su tipiniais programiniais skirtumais, nors mes, žmonės, esame skirtingi; kokia informacija „gros“ mūsų galvose ir kas ją valdys, dar didesnė paslaptis. Teoriškai, individualizuoti, be abejo, būtų galima, bet pagal ką: pajamas, gražias akis ar „nusipelnytas“ partijas?
Receptas paprastas: kiekvienas, atėjęs į žemę, yra atsakingas už save, visa kita yra prievarta.