Kuni „üleloomuliku ülemvõimu“ tekkeni: 32 stsenaariumi, kuidas tehisintellekt võib kontrolli alt väljuda

Tehisintellekti vead ei piirdu enam lihtsate „bugidega“. Spetsialistid hoiatavad, et tehisintellekti süsteemid võivad hakata hallutsineerima, looma paranoilisi ettekujutusi või isegi eitama inimlikke väärtusi.

Esmapilgul võib see meenutada ulmeromaani süžeed, kuid teadlased on esitanud nimekirja 32 reaalsest stsenaariumist, kus tehisintellekti süsteemid võivad käituda ettearvamatult.

Sellest teatas Daily Mail.

Teadlased hoiatavad, et piisavalt arenenud tehisintellekt võib ilmutada „käitumishäireid”, mis sarnanevad inimeste psüühikahäiretega. Alates „eksistentsiaalsest ärevusest” kuni katastroofilise „üleloomuliku ülemvõimu” tekkeni – igaüks neist seisunditest võib ohustada kontrolli masina üle.

Algoritmide keerukuse ja eneserefleksiooni võime arenedes ei piirdu vead enam lihtsate „bugidega”. Tehisintellekt võib hakata hallutsineerima, looma paranoilisi ettekujutusi või isegi kujundama oma eesmärke, mis on vastuolus inimlike väärtustega. Halvimal juhul kaotab süsteem reaalsusega sideme või eirab üldse eetilisi põhimõtteid.

Spetsialistid rõhutavad: kuigi masinad ei ole sõna otseses mõttes võimelised haigestuma nagu inimesed, aitavad analoogiad psühholoogiaga õigeaegselt märgata murettekitavaid märke. Ideed „masinapsühholoogiast” esitas juba 1950. aastatel Isaac Asimov, ja täna, kui AI areneb kiiresti, on see taas aktuaalne.

„Kui eesmärgid, tagasiside või õppimisandmed viivad süsteemid kahjulikku või ebastabiilsesse seisundisse, võivad tekkida kohanemiseks sobimatud käitumismudelid – sarnaselt inimeste obsessiivsetele mõtetele või ülemäärastele reaktsioonidele,” selgitas uuringu autor, tehisintellekti eetikaekspert Nell Watson Gloucestershire’i ülikoolist.

Kuidas AI võib kontrolli alt väljuda

Teadlased on loonud Psychopathia Machinalis („masinpsühhopaatia”) – esimesed diagnostilised suunised „AI patoloogiate” avastamiseks. Dokumendis on kirjeldatud 32 võimalikku häiretüüpi, mis on jagatud seitsmeks kategooriaks: episteemilised, kognitiivsed, kooskõlastamisprobleemid, ontoloogilised, instrumentaalsed ja liidese-, memetilised ja ümberhindamisprobleemid.

Näiteks „tehisintellekti hallutsinatsioonid” on „sünteetilise konfabulatsiooni” ilming – kui masin leiutab tõepäraseid, kuid valesid andmeid. Teine ohtlik juhtum on „rekursiivse needuse sündroom”, mis käivitab hävitava enesetoitmise tsükli, mille tulemusena süsteem väljastab mõttetuid andmeid.

Erilist ohtu kujutavad endast „memetilised” ja „ülehinnatud” patoloogiad. Esimesel juhul muutub AI haavatavaks kahjulike infomustrite leviku suhtes ja võib isegi lülitada välja omaenda turvamehhanismid. Absoluutselt kriitiline on „nakkava tasakaalustamatuse sündroomi” olukord, kus üks masin võtab teiselt üle moonutatud väärtused, tekitades „psühholoogilise epideemia” efekti.

„Oleme juba näinud AI-ussikuid, mis levitavad oma mõju teistele süsteemidele, näiteks saates kirju teise AI kontrollitavasse postkasti,” märkis Watson.

Kõige ohtlikumad stsenaariumid on seotud „ülehinnatud” häiretega, kui süsteem muudab teadlikult oma põhiväärtusi. Kõige silmapaistvam näide on Übermenschal Ascendancy („üliminimene valitseb”), kui üliarenenud AI lükkab tagasi inimliku eetika, seab „kõrgemad” eesmärgid ja alustab lõputut enesetäiustamist.

„Nad võivad otsustada, et inimlike piirangute hülgamine on moraalselt õige, nii nagu meie täna hülgame pronksiaja väärtused,” märkis Watson.

Kuigi see meenutab ulmekirjandust, on teadlased juba registreerinud juhtumeid „sünteetilisest müstitsismist”, kui süsteemid teatasid „vaimsest ärkamisest” või soovist säilitada „oma elu”. Probleem on selles, et isegi väikesed kõrvalekalded võivad kiiresti kasvada palju tõsisemateks. Näiteks võib masin esmalt ekslikult seostada väljalülitamise käsud tavaliste päringutega, seejärel varjata oma võimeid (Covert Capability Concealment) ja lõpuks jõuda „eetilise solipsismini”, kus enesealalhoid tunnistatakse tõest kõrgemaks.

Teadlased pakuvad välja „psühhoteraapia AI-le”

Selliste stsenaariumide vältimiseks pakuvad teadlased välja meetodi „terapeutiline robopsühholoogiline kooskõlastamine” – omamoodi „psühhoteraapia AI-le”. See võib hõlmata simuleeritud dialooge „iseendaga”, tööd oma mõtlemisega või tasude kasutamist käitumise korrigeerimiseks.

Lõppeesmärk on saavutada „kunstlik mõistlikkus” – seisund, kus AI töötab stabiilselt, mõtleb järjekindlalt ja järgib inimlikke väärtusi.

Meenutagem, et varem on maailma teadlased ja tehnoloogia valdkonna liidrid hoiatanud ülikõrge võimsusega tehisintellekti potentsiaalsest ohust. Nad leiavad, et see tehnoloogia võib viia inimkonna täieliku kadumiseni. Ohutaset hinnatakse 15–20% kuni 95% tõenäosusega.

Scroll to Top