<h2>Dirbtinio intelekto keliamas pavojus gali būti didesnis nei branduolinių ginklų</h2>
<p>Buvęs kompanijos „Google“ vadovas Ericas Schmidtas neseniai palygino dirbtinio intelekto keliamą grėsmę pasauliui su branduolinio ginklo pavojumi.</p>
<p>Ekspertas taip pat paragino sukurti atgrasymo priemonę, kuris neleistų galingiausioms pasaulio šalims sunaikinti vienai kitos ar kitų, joms tariamai priešiškų valstybių, taip sukeliant egzistencinę grėsmę visam pasauliui ir žmonijai[1].</p>
<p>E. Schmidtas, liepos 22 d. dalyvavęs ir apie dirbtinio intelekto keliamus iššūkius bei grėsmes kalbėjęs Aspeno saugumo forume vykusioje diskusijoje, apie nacionalinį ir globalų saugumą bei dirbtinį intelektą pateikė ne vieną intriguojančią įžvalgą.</p>
<p>Jis paatviravo, kad savo karjeros pradžioje pats itin naiviai vertino informacijos ir technologijų galią, tačiau dabar ragina žmoniją atkreipti dėmesį į tai, kaip etika bei moralė gali paveikti neregėtu greičiu plėtojamo dirbtinio intelekto reikšmę kiekvienam iš mūsų.</p>
<h2>Svarbu užkirsti kelią galingųjų valstybių planams</h2>
<p>E. Schmidtas, kuris ilgus metus dirbo kompanijoje „Google“ bei yra ėjęs „Apple“ valdybos direktoriaus pareigas, Aspene vykusiame saugumo forume kalbėjo apie technologijų poveikį žmonijai.</p>
<p>Jis aktyviai ragino susirinkusius įtakingus klausytojus technologijas geriau derinti su žmonių, kuriems jos tarnauja, etika ir morale ir net palygino dirbtinį intelektą su branduoliniais ginklais.</p>
<blockquote>
<p>Buvusio kompanijos „Google" vadovo teigimu, šiuo metu pasaulis susiduria su esminiu iššūkiu dėl dirbtinio intelekto. Kylanti problema yra ta, kad dirbtinis intelektas jau dabar yra toks, kad atspindi savo kūrėjų vertybes.</p>
</blockquote>
<p>Kaip pavyzdį E. Schmidtas pateikia tai: rasistiniai algoritmai jau dabar sukuria rasistinius robotus. Tai reiškia, kad visi dirbtiniai intelektiniai kūriniai demonstruoja savo kūrėjų siekius ir troškimus, kurie anaiptol ne visada yra dori.</p>
<p>Būtent dėl to, buvęs „Google" vadovas dirbtinį intelektą palygino su branduoliniu ginklu ir perspėjo dėl galimos katastrofos[2].</p>
<p>Pasak Erico Schmidto, jau netolimoje ateityje būtent dėl tokio saugumo problemų Kinija ir JAV net turės sudaryti susitarimą, dėl dirbtinio intelekto ginklų nenaudojimo.</p>
<p><img src="77_CDN_URL/images/dan-meyers-xxbqirwh2_a-unsplash.jpg" alt="" /></p>
<h2>Branduoliniai ginklai turi konkurentą</h2>
<p>Dirbtinis intelektas ne visuomet yra tiksliai suprantama technologija. Vis daugiau ekspertų ragina suvokti, kad dirbtinis intelektas nėra tik savaime važiuojanti transporto priemonė ar buitį namuose palengvinantis robotas. </p>
<p>Technologijų kompanijose jau dabar gali būti kuriami tokio pažangumo dirbtinio intelekto robotai, kurie galėtų kontroliuoti branduolinius ginklus ir jų paleidimo mechanizmus. </p>
<p>Jei globaliu mastu galime nerimauti, kad galios ištroškęs branduolinės valstybės lyderis ryšis panaudoti pražūtingą ginklą, dirbtinio intelekto šalininkai gali teigti, kad robotas nebūtų paveikus tokioms užgaidoms.</p>
<blockquote>
<p>Vis tik, didžiausia grėsmė slypi dirbtinio intelekto kūrėjų siekiuose. Pavyzdžiui, JAV technologijų ekspertai gali kurti dirbtinį intelektą, užprogramuotą sunaikinti Kiniją.</p>
</blockquote>
<p>Būtent dėl to, Australijos technologijų ekspertas Toby Walsh'as teigia, kad jau dabar yra būtina suderinti dirbtinį intelektą su visuomenės vertybėmis[3].</p>
<h2>Dirbtinio intelekto įtaka pasaulinei taikai yra didžiulė</h2>
<p>Dirbtinis intelektas neegzistuoja tik laboratorijose. Tai jau kurį laiką pasiekiama ir reali galimybė, kuri kasmet tik tobulėja. Dėl to saugumo ekspertai neatmeta galimybės, kad jau netrukus dirbtinis intelektas turės įtakos globaliai taikai.</p>
<p>Nors kol kas manoma, kad dirbtinis intelektas nekeis strateginių sprendimų priėmimo būdų, jis galėtų ženkliai padidinti karo greitį ir sutrumpinti sprendimų priėmimo laiką. Tai reiškia, kad įtampa tarp branduolinių valstybių, ypač Kinijos ir JAV, gali dar labiau išaugti[4].</p>
<p>Šiuo metu branduolinės energetikos ekspertai ir branduolinį ginklą turinčios valstybės iš esmės sutaria, kad, net jei technologijos būtų tinkamos, sprendimų, kurie tiesiogiai daro įtaką branduolinio ginklo valdymui, priėmimas neatiteks tik į dirbtinio intelekto rankas.</p>
<p>Tačiau iškilus realiai grėsmei ir išaugus įtampai, toks susitarimas gali būti užmirštas. Dėl to kvestionuojama ne tai, ar branduolinės valstybės pasitelks dirbtinį intelektą savo ginkluotės sustiprinimui, tačiau tai, kokiu mastu jos tai padarys.</p>