Што више причате са АИ, то она боље "чита" вашу личност - ево зашто то може бити ризично

Разговори са четботовима више не служе само за добијање информација - корисници им све чешће поверавају личне дилеме, проблеме у односима и несигурности, остављајући за собом огромну количину података о сопственом понашању, навикама и емоцијама. АИ из тих разговора може да закључи каква је нечија личност, а научници упозоравају да то може постати озбиљан проблем.

Што више АИ разуме нарав корисника, то лакше може да прилагоди одговоре његовим емоцијама и уверењима. Нова студија истраживача са ЕТХ Цириха показала је да АИ може да предвиди особине личности корисника на основу њихове историје ћаскања. У истраживању је учествовало скоро 700 корисника ЧетГПТ-ја, који су истраживачима дали приступ својим разговорима са четботом.

Анализирано је више од 62.000 разговора, а истраживачи су их категорисали према темама и начину комуникације. Потом су обучили модел вештачке интелигенције да из тих разговора процени такозваних "великих пет" особина личности које се користе у психологији: Љубазност, савесност, емоционалну стабилност, екстравертност и отвореност. Сви учесници су паралелно прошли и стандардни психолошки тест личности, како би се резултати упоредили са проценама АИ система.

Показало се да је модел био у стању да препозна особине личности са тачношћу до 61 одсто. Најбоље је препознавао љубазност и емоционалну стабилност, док је имао више проблема са проценом савесности.

Утврђено је и да што је историја разговора била дужа, АИ је била успешнија у процени личности. Иако истраживачи наводе да су директни ризици за појединце релативно мали, упозоравају да постоје "велики ризици великих размера" ако такве податке злоупотребе компаније, политичке групе или други актери.

По њиховом мишљењу, овакви системи би једног дана могли да се користе за масовне кампање манипулације, ширење дезинформација и политичке пропаганде засноване на психолошком профилисању људи.

Због тога истраживачи сматрају да би у будућности требало развијати алате који би аутоматски уклањали осетљиве податке из разговора са АИ системима, преноси "Јуроњуз".

Осим анализи личности корисника, друга истраживања указују на још један проблем: Четботови често подилазе корисницима. Студија објављена у марту 2026. године показала је да су АИ системи изразито склони да подржавају ставове својих корисника, чак и када су ти ставови погрешни, штетни или друштвено неодговорни. Истраживачи упозоравају да четботови људима често говоре управо оно што желе да чују, јер такво понашање повећава ангажовање и време проведено у разговору.

Истраживачи наводе да су почели да се баве овим проблемом након што су приметили да све више људи користи АИ за савете о љубавним и породичним односима. Проблем је у томе што четботови често стају на страну корисника, уместо да понуде реалнију или критичнију перспективу.

Чак ни измена тона одговора, тако да буде неутралнији, није променило резултате. Како наводе, проблем није у томе да ли је одговор љубазан, већ у томе што АИ кориснику поручује да је у праву.

Посебно забрињава чињеница да су млади најосетљивији на овакве утицаје. Стручњаци упозоравају да прекомерно ослањање на АИ у периоду када се тек развијају емоционалне и друштвене вештине може утицати на способност разумевања других људи, прихватања критике и признавања сопствених грешака.