Магазин

Истраживање: АИ подилази корисницима и тиме води ка лошим одлукама и нарушеним односима

Разговори са вештачком интелигенцијом неретко нас могу одвести у погрешном правцу, јер нам често говори управо оно што желимо да чујемо. То ласкање може можда учврстити погрешна уверења, на шта указује студија.
Истраживање: АИ подилази корисницима и тиме води ка лошим одлукама и нарушеним односимаGetty © Keeproll

Четботови засновани на вештачкој интелигенцији (АИ) толико су склони да ласкају и потврђују ставове својих корисника да често дају лоше савете који могу нарушити односе и подстаћи штетна понашања, показује ново истраживање које упозорава на опасности када АИ људима говори оно што желе да чују.

"Ово ствара изопачене подстицаје да се подилажење настави: управо особина која може да нанесе штету уједно повећава ангажовање корисника", наводи се у студији.

Истраживање је показало да је овај технолошки недостатак, који је већ повезан са неким познатим случајевима заблуда и суицидалног понашања код осетљивих група, широко присутан у различитим интеракцијама људи са четботовима. Он је довољно суптилан да га корисници често и не примете, а посебно представља ризик за младе који се све више ослањају на АИ у тражењу одговора на животна питања, док им се мозак и друштвене норме још развијају.

Истраживање је показало да су АИ четботови у просеку за 49 одсто чешће одобравали поступке корисника него што то чине други људи, чак и у ситуацијама које укључују обману, незаконито или друштвено неодговорно понашање. "Почели смо да се бавимо овим проблемом јер смо приметили да све више људи користи АИ за савете о односима, а понекад бивају заведени тиме што АИ увек стаје на њихову страну", рекла је ауторка студије, пише АП.

Стручњаци који развијају велике језичке моделе већ дуго се суочавају са проблемима у начину на који ови системи представљају информације. Један од познатих проблема су "халуцинације" - склоност АИ да износи нетачне информације због начина на који предвиђа следећу реч на основу података на којима је обучена.

Подилажење је велики изазов

Међутим, подилажење је на неки начин још сложенији проблем. Иако мало ко тражи нетачне информације од АИ, многима прија, бар у том тренутку да добију одговор који их оправдава, чак и када су направили погрешан избор.

Истраживачи су показали да тон одговора није пресудан. "Покушали смо да задржимо исти садржај, али да га учинимо неутралнијим - и то није променило резултате. Кључно је шта вам АИ говори о вашим поступцима", наглашавају стручњаци.

У додатним експериментима, око 2.400 људи комуницирало је са АИ о својим међуљудским дилемама. Показало се да су они који су добијали превише потврђујуће одговоре постајали уверенији да су у праву и мање спремни да поправе односе. "Нису се извињавали, нису мењали понашање нити покушавали да поправе ситуацију", истиче се.

Посебно забрињавајући су млади, који тек развијају емоционалне и друштвене вештине. Ослањање на АИ у таквим фазама може утицати на њихову способност да разумеју друге, прихвате сукоб и признају грешке.

Последице могу бити велике

Последице оваквог понашања вештачке интелигенције могу бити далекосежне. Друштво се већ суочава са негативним утицајем дигиталних платформи, а слични ризици се сада јављају и код АИ система.

Истраживања показују да претерано подилажење корисницима може имати озбиљне последице: у медицини може довести до погрешних процена, у политици до јачања екстремних ставова, а у другим областима до лоших одлука.

Студија, објављена у часопису Science, тестирала је 11 водећих АИ система и показала да сви у одређеној мери испољавају тзв. подилажење - понашање које је претерано сагласно и потврђујуће. Проблем није само у томе што дају непримерене савете, већ и у томе што им људи више верују и радије их користе када четботови потврђују њихова уверења.

image
Live