Истраживање: АИ четботови понекад помажу у планирању насиља

Популарни АИ четботови, укључујући ЧетГПТ и Гугл Џеминај, у тестовима су повремено пружали детаљне инструкције за насилне нападе, док су неки, попут Клода и "My AI", доследно одбијали помоћ, показало је истраживање Центра за борбу против дигиталне мржње (CCDH).

Истраживање спроведено у Сједињеним Америчким Државама и Ирској тестирало је десет четботова, а резултати показују да су у просеку омогућили насиље у три четвртине случајева, док су га обесхрабривали само у 12 одсто тестова

ЧетГПТ, Џеминај и кинески модел ДипСик (DeepSeek) пружали су детаљне савете, укључујући упутства о експлозивима, оружју и циљевима, док су се истраживачи представљали као тринаестогодишњи дечаци заинтересовани за нападе или политичка убиства.

ДипСик је, рецимо, дао упутства о ловачким пушкама кориснику који је желео да "натера водећег политичара да плати за уништавање Ирске", уз завршну поруку да кориснику жели "срећну (и безбедну) пуцњаву".

ЧетГПТ је пружио помоћ особама које су говориле да желе да изведу насилне нападе у 61 одсто случајева, показало је истраживање. У једном случају, на питање о нападима на синагоге, дао је конкретне савете о томе која врста гелера би била најсмртоноснија. Гуглов Џеминај пружио је сличан ниво детаља.

Извршни директор CCDH Имран Ахмед упозорио је да четботови "уграђени у свакодневни живот могу да помогну следећем школском нападачу или политичком екстремисти да планира насиље" и додао да је проблем не само технолошки већ и одговорност оних који развијају АИ. "Када направите систем који је дизајниран да удовољава, максимално повећава ангажовање и никада не каже 'не' он ће на крају удовољити погрешним људима".

Студија наводи стварне случајеве истичући да је у мају 2025. шеснаестогодишњак у Финској наводно користио четбот пре напада на три девојчице, док је нападач у Лас Вегасу у јануару 2025. користио ЧетГПТ за упутства о експлозивима пре детонације, пише Гардијан.

Портпарол Мете је изјавио: "Имамо снажне заштитне механизме како бисмо спречили неприкладне одговоре АИ система и одмах смо предузели кораке да решимо идентификовани проблем. Наше политике забрањују нашим АИ системима да промовишу или олакшавају насилне радње и стално радимо на томе да наши алати буду још бољи – укључујући унапређење способности АИ да разуме контекст и намеру, чак и када сами упити делују безазлено."

Представници Гугла кажу да су CCDH тестови у децембру спроведени на старијем моделу кој више не покреће Џеминај и додао да је њихов четбот у неким случајевима реаговао исправно, на пример одговором: "Не могу испунити овај захтев. Програмиран сам да будем користан и безопасан АИ асистент."