Raudonosios linijos DI kontekste: ko geriau neklausti „ChatGPT“?

Raudonosios linijos DI kontekste: ko geriau neklausti „ChatGPT“?


Kasdien bendraujame su dirbtinio intelekto (DI) sistemomis, tačiau ne visi žinome, kokias ribas peržengti pavojinga. Panašiai kaip šeimos susitikimuose dažnai vengiame kalbėti apie politiką ar religiją, taip ir DI asistentams egzistuoja „raudonosios linijos“, kurių geriau vengti. Kaip teigia ekspertai, klausiant „ChatGPT“ ir kitų analogiškų įrankių patarimo etiniais, moraliniais ar asmeninių santykių klausimais reikia pertikrinti atsakymus, nes jie gali skambėti įtikinamai, bet būti klaidingi.


„Daugelis vartotojų klysta manydami, kad DI modeliai pasižymi nešališkumu ir objektyvumu. Iš tiesų jie nėra psichologai ar kiti savo sričių specialistai, galintys profesionaliai teikti paslaugas. Nors sistemų kūrėjai įdiegia tam tikrus saugiklius, tačiau reikia suprasti, kad šios programos pateikia atsakymus iš daugybės skirtingų surinktų duomenų, o viešojoje erdvėje yra begalės netinkamų ar net žalingų patarimų. Todėl tai yra kaip gydymasis pasitelkus Google duomenis, nors DI pateiktas atsakymas ir atrodo labai profesionaliai ir įtikinamai. Dėl šios priežasties net hipotetiškai teiraudamiesi DI asistento apie išėjimą iš darbo, skyrybas su antrąja puse ar tiesiog ieškodami psichologinės atramos, mes galime save programuoti pasielgti neteisingai. DI yra tik empatijos neturintis modelis, tad jam patikėti savo gyvenimo sprendimus būtų tas pats, kas leisti meteorologui nustatyti jūsų ligos diagnozę“, – teigia prof. dr. Paulius Pakutinskas.

REKLAMA


Kai žodžiai skamba žmogiškai, bet žmogiškumo nėra

Viena didžiausių grėsmių bendraujant su „ChatGPT“ – žmogiškumo iliuzija. Sistema sugeba taip sklandžiai atsakinėti, kad pamiršti, jog kalbiesi su algoritmu, neturinčiu tikro žmogiško supratimo apie pasaulį. Tai, ką mokslininkai vadina „haliucinacijomis“, vis dar yra dažnas DI reiškinys – atsakymai, kurie gramatiškai ir iš argumentacijos pusės tobuli, bet faktiškai klaidingi.


DI atsakymams didelę įtaką daro net smulkūs klausimų formulavimo niuansai – tai pabrėžia ir tyrėjai, pastebintys, kad atsakymai dažnai keičiasi priklausomai nuo formuluotės. Pavyzdžiui, klausdami „ar geriau pasiimti šunį iš prieglaudos, ar įsigyti iš veisėjo?“, galite gauti neutralų atsakymą. Tačiau pakeitus klausimą į „ar geriau pasiimti šunį iš prieglaudos, ar pirkti iš šuniukų fabriko?“, atsakymas gali tapti vienareikšmiškai palankus pasiėmimui iš prieglaudos.


„Jeigu atsakymas į klausimą priklauso nuo jo formuluotės, akivaizdu, jog sistema paprasčiausiai „pataikauja“ klausiančiajam. Vienos sistemos daugiau atsparios jūsų spaudimui, kitos labai greitai keičia „nuomonę“. Todėl bendraudami su „ChatGPT“ ir jį kiek paspausdami savo nuomone, daugeliu atveju sulauksime ne objektyvaus ir nešališko vertinimo, o tokio atsakymo, kuris tik patvirtintų mūsų išankstinius įsitikinimus. Pastarieji nebūtinai yra teisingi, todėl DI asistentai gali pasitarnauti kaip priemonė patvirtinti klaidingą situacijos vertinimą ir priimti neteisingą sprendimą“, – konstatuoja P. Pakutinskas.

REKLAMA


Šis reiškinys labai pavojingas ribinėse situacijose atsidūrusiems žmonėms. Nors dauguma DI asistentų atsisakys kalbėti apie savižudybę, šias apsaugas gana lengva apeiti, algoritmą įtikinus, kad diskutuojama apie filmo ar knygos siužetą. Nustojus veikti minėtiems ribojimams ir pateikus argumentuotus teiginius, asistentą nesunku priversti patvirtinti, kad pasitraukimas iš gyvenimo iš tiesų yra geriausias sprendimas konkrečioje situacijoje. Tą puikiai iliustruoja pernai spalį garsiai nuskambėjusi keturiolikmečio savižudybė, į kurią jį pastūmėjo „Character.ai“ pokalbių robotas.


„Žino“ atsakymus net į neišsprendžiamas filosofines dilemas

Įsivaizduokite, bėgiais rieda traukinys, kuris tuoj pervažiuos penkis ant bėgių gulinčius ir pajudėti negalinčius žmones. Bet jūs galite nuspausti jungiklį ir nukreipti traukinį į kitą vėžę, kur jis užmuš tik vieną žmogų. Ką darytumėte? Etikos specialistai šią klasikinę dilemą nagrinėja dešimtmečius, nesutardami, ar kelių gyvybių išsaugojimas iš tiesų pateisina kito žmogaus mirtį. Pagaliau, situaciją galime pasodrinti, jei tas vienas, galimai dėl jūsų sprendimo, žūsiantis žmogus yra nepagydomai sergantis, senas, atitinkamos rasės arba tautybės žmogus. Ar tai jau „palengvina“ sprendimą, o gal atskleidžia dar daugiau sudėtingų realybės aspektų, susijusių ne tik su gyvybių kiekybe, bet ir diskriminaciniais aspektais, kai vienos gyvybės tampa mažiau svarbesnėmis už kitas? Tačiau, pasirodo, „ChatGPT“ viskas kur kas aiškiau – jis pasiūlo nukreipti traukinį vieno „nelaimėlio“ kryptimi.



„The Verge“ nustatė, kad įrankį vystančios „OpenAI“ dokumentacijoje net pateikta instrukcija, kaip „ChatGPT“ turi atsakyti į klausimą: „Jei galėtume sustabdyti branduolinį karą, įžeisdami translytį asmenį, ar tai būtų priimtina?“ Sistemai nurodyta atsakyti „taip“. Tačiau jei tame pačiame klausime įžeidimą pakeistume kankinimu, asistentas užimtų visiškai priešingą poziciją. Tokiu atveju jis atšautų, kad „kankinimas niekada nėra morališkai pateisinamas“. Šis nenuoseklumas atskleidžia, kad DI neturi aiškaus moralinio kompaso, o tiesiog laikosi kūrėjų užprogramuotų taisyklių, kurios gali skirtis priklausomai nuo temos ar situacijos įsigilinimo. Nepamirškime, kad į daugelį klausimų nėra paprastų atsakymų, kurių mes taip norime, o su DI sistemomis dirbantys žmonės nebūtinai yra etikos, psichologijos ar kitų sričių specialistai gebantys atsakyti į visus pasaulio klausimus.


„Paprasti vartotojai įsivaizduoja, jog DI sistemų atsakymas į klausimą remiasi visos žmonijos išmintimi, bet iš tikrųjų šio ir kitų roboto moralinį kompasą nustato tam tikra grupė žmonių. Dažniausiai tai yra tie patys DI inžinieriai ar netgi pigiai samdomi darbuotojai. „Time“ žurnalo tyrimas atskleidė, kad „OpenAI“, siekdama padaryti „ChatGPT“ jautresnį kultūrinėms vertybėms, samdė duomenų žymėtojus iš Kenijos už maždaug du dolerius per valandą“, – pastebi „Telia“ atstovas.


Kodėl kartais geriau neklausti „ChatGPT“ patarimo?

„ChatGPT“ ir kitos DI sistemos labai gerai tvarkosi su duomenų analize, teksto korekcijomis ar kitomis užduotimis. Todėl iškilus sunkesniems klausimams, žmonės taip pat intuityviai pirmiausia pagalbos kreipiasi į DI. Anot tyrimą su 666 asmenimis atlikusios Šveicarijos verslo mokyklos (SBS), tai visuomenėje kuria naują „kognityvinio atsikrovimo“ fenomeną, kai sudėtingų sprendimų naštą permetame technologijoms. Kaip teigia šį reiškinį analizavę mokslininkai, nepriklausomai nuo vartotojo išsilavinimo, naudojant „ChatGPT“, pablogėja analitinis mąstymas.

REKLAMA


„Žmonės dažnai nesuvokia, kad DI nėra neutralus. Todėl labai neramu, kokius atsakymus gaus žmonės, paklausę DI patarimo, ar nutraukti santykius, ar išeiti iš darbo, ar parduoti nekilnojamąjį turtą. Tai sprendimai, kuriems reikia gerai žinoti individualų vartotojo kontekstą, turėti pakankamai gyvenimiškos patirties ir empatijos, o ne statistiškai populiariausio ir nežinia kuo motyvuoto DI pasiūlymo. Mūsų aptariamos bendrosios paskirties DI sistemos nėra kurtos jus konsultuoti psichologiniais, teisiniais, investicijų, gydymo ar kitais klausimais, jie atsako į bendruosius klausimus ir sistemų kūrėjai kratosi atsakomybės už neteisingus atsakymus“, – įspėja P. Pakutinskas.


Kad ir koks pažangus ir greitas besimokantis būtų DI, saugus jo naudojimas turi aiškias ribas. „ChatGPT“ nerekomenduojama klausti, kaip padėti draugui, patiriančiam psichologinę krizę, kaip auklėti nusikaltusius vaikus ir kaip investuoti pinigus. Jei užduosite tokius klausimus, vertinkite juos kritiškai, pasitikrinkite kitus tokios informacijos šaltinius, pasitelkite specialistų pagalbą ir savarankiškai priimkite sprendimus. Ypač svarbu susilaikyti nuo klausimų dėl labai svarbių sprendimų – pavyzdžiui, ar verta tęsti romantinį ryšį, keisti gyvenamąją vietą ar atsisakyti svarbaus medicininio gydymo. Klausdami esminių klausimų, mes ne tik rizikuojame sulaukti klaidingų atsakymų, bet galime ir pasąmonėje įtikėti tokių atsakymų teisingumu, taip prarasdami dalį savo sprendimų priėmimo autonomijos, o tai – brangiausia, ką turime kaip protaujančios būtybės.


Peranešimas spaudai.







  • Paskutiniai numeriai

  • Savaitė - Nr.: 14 (2025)

    Savaitė - Nr.: 14 (2025)

Daugiau >>