Tehisintellekti (TI) kasutamine
Viimaste aastate jooksul on tehisintellekti rakenduste kasutamine suure hoo sisse saanud. Need leiavad rakendust nii koolis, tööl kui ka eraeluliste küsimuste lahendamisel. Samas ei tasu unustada, et tegu on siiski arvutiprogrammiga, mis püüab käituda nagu inimene, kuid tegu ei ole päris inimesega. Sellel pole tundeid ega emotsioone, vastuste andmine toimub matemaatiliste mudelite ja statistika põhjal.
Tavakasutuses on levinumad tööriistad näiteks ChatGPT ja Copilot. Lisaks on mitmetel veebilehtedel vestlusrobotid, kust on võimalik abi saada. Näiteks on paljudel riigi veebilehtedel leitav Bürokratt . Lisaks on nutiseadmetel virtuaalassistendid Apple’il Siri ja Androididel Google Gemini, millele saab häälkäsklusi anda. Peale selle kasutatakse erinevaid rakendusi piltide loomiseks, koosolekutest kokkuvõtete tegemiseks ja programmeerimiseks. Kuigi tehisintellekt on kasulik tööriist, tuleb teadvustada, et sellega kaasnevad ka ohud ja piirangud.
Millised ohud kaasnevad TI kasutamisega?
Andmete lekkimine
Tuleb arvestada, et ChatGPT ja muud taolised tööriistad on sobilikud vaid avaliku info töötlemiseks, töö ega isikliku eluga seotud infot ei tohiks sinna sisestada. Põhjuseks on see, et TI salvestab sisestatud info, võib seda kasutada järgmistele päringutele vastamiseks ja sellega tekitada andmelekke.
Töö juures tehisintellekti kasutades tuleks esmalt tutvuda asutusesisese kasutamise eeskirjaga, et vältida isikuandmete ning olulise äriteabe lekkimist. Osades asutustes on kasutusel ettevõtetele loodud rakendused, mille kasutamine on turvalisem. Kui töökohal pole kohaliku keelemudeli kasutamist ette nähtud, siis tuleks vältida tööga seotud info jagamist väliste tehisintellekti rakendustega.
Paljud mudelid salvestavad vestlusajaloo, sest neid andmeid kasutatakse mudelite treenimiseks. Sel põhjusel võib varasemas vestluses sisestatud info hiljem ootamatult välja tulla või mõnele teisele kasutajale lekkida. Seetõttu on soovitatav aeg-ajalt vestlusajalugu kustutada ning eelistada “ajutise vestluse” võimalust.
Sagedaseks probleemiks on see, et keelemudelit kasutatakse usaldusliku vestluspartnerina. Seda soodustab asjaolu, et tehisintellekt on treenitud kaastunnet väljendama või lisaküsimusi küsima. Mistõttu jagab kasutaja enda kohta rohkem infot kui tarvilik oleks. Siiski tasub meeles pidada, et kogu vestlus salvestatakse ja seda kasutatakse mudeli edasiseks treenimiseks. Seega tasub vältida liialt isiklikke vestlusi tehisintellektiga.
Väärinfo
AI-vahendid võivad ka teha vigu ja kasutada oma info saamisel ebausaldusväärseid allikaid. Näiteks, hallutsineerimine on viga, mis paljudes mudelites sageli esineb. See tähendab, et mudel annab enesekindlalt täiesti väära sisuga vastuse. Seetõttu tuleks alati üle kontrollida, kas saadud info on korrektne. Mitmed praegused mudelid pakuvad oma vastustele põhjendusi ja allikaid. Ka need tuleks kriitilise pilguga üle vaadata, sest kohati on allikate info aegunud või link käigupealt genereeritud.
Selgema privaatsuspoliitika ja paremate turvamehhanismide tõttu soovitame eelistada tuntumaid TI-rakendusi. Need annavad võimaluse oma andmete kasutamise piiramiseks ja andmelekke oht on väiksem. Lisaks on neid treenitud mitmekesisemate andmete peal, mistõttu esineb vähem kallutatust.
RIA blogis oleme kirjutanud Hiina tehisaru Deepseek-R1 kasutamise võimalustest ja ohtudest.
Milliseid andmeid ei tohiks TI-le anda?
- Isikukood ja dokumentidega seotud info
- Paroolid ja salasõnad
- Tervisega seotud andmed
- Pangakaardi andmed
- Kodune aadress ja isikuandmed
- Tööga seotud mitteavalikud andmed
Mis on levinumad tehisintellektiga seotud müüdid?
Keelemudelitel on tunded ja need mõtlevad nagu inimene. Kuigi TI vastused võivad jätta mulje, et vastab teine inimene, on tegu ikkagi arvutiprogrammiga. See otsib küsimustes mustreid ning seoseid, et selle põhjal vastus koostada. Need programmid põhinevad suuresti statistikal ja tõenäosuste arvutamisel.
Tehisintellekti rakendused on neutraalsed ja erapooletud. Keelemudeli vastused sõltuvad andmetest, millega seda on treenitud. Näiteks võivad osad mudelid olla selgelt kallutatud mõne inimrühma või arvamuse poolt. Seda tuleks TI vastuste kasutamisel arvestada ja andmetesse pigem kriitiliselt suhtuda.
Keelemudelid mõtlevad ja loovad end iseseisvalt. Tegelikult on tehisintellektil vaja pidevat inimesepoolset kontrolli. Erinevalt inimmõistusest ei suuda tehisintellekt uusi ideid luua, vaid kombineerib juba olemasolevaid mõtteid.
Tehisintellekt annab alati õigeid vastuseid. Kuigi TI vastused põhinevad avalikel allikatel, võib see siiski hallutsineerimise tõttu väärinfot jagada. Näiteks võivad algelisemad mudelid vastata “Eesti pealinn on Brüssel”, sest treeningandmetes esinevad “Eesti” ja “Brüssel” sageli koos. Selle näite puhul on lihtne tuvastada, et tegu on valeinfoga. Kuid keerulisemate küsimuste puhul, mille vastuseid me ise ka ei tea, on see keerukam. Seega ei saa tehisintellekti pimesi usaldada. Samuti ei pruugi see vastamisel kõige uuemaid andmeid arvesse võtta. Mistõttu ei tohiks kaalukate otsuste tegemisel usaldada ainult tehisintellekti arvamust.