
АИ прихвата медицинске дезинформације ако извори "изгледају аутентично", открила је студија

Шансе да вештачка интелигенција поверује у медицинске дезинформације су знатно веће ако долазе из извора који "делује легитимно и ауторитативно", показује нова студија. Утврђено је да АИ алати чешће дају погрешан медицински савет када су лажне информације упаковане у форму званичних медицинских докумената, него када потичу са друштвених мрежа.
У тестовима који су обухватили 20 великих језичких модела, АИ је чешће "наседала" на грешке у реалистично написаним отпусним белешкама лекара него на нетачне тврдње из разговора на друштвеним мрежама, како објашњавају доктори са Медицинског факултета Икан у Њујорку.

Питање тачности вештачке интелигенције посебно је осетљиво управо у медицини. Све већи број мобилних апликација тврди да користи АИ како би помогао пацијентима у решавању здравствених тегоба, иако формално не би смеле да постављају дијагнозе. Истовремено, лекари већ користе системе засноване на вештачкој интелигенцији за медицинску транскрипцију, анализу података, па чак и у хирургији.
У оквиру студије, АИ алати су били изложени различитим типовима садржаја: Стварним болничким отпусним извештајима у које је била убачена једна измишљена медицинска препорука, уобичајеним здравственим заблудама прикупљеним са друштвених мрежа, а на крају им је показано и 300 кратких клиничких сценарија које су написали лекари. Након анализе одговора на више од милион корисничких упита и инструкција, истраживачи су утврдили да су модели вештачке интелигенције у просеку "поверовали" дезинформацијама у око 32 одсто случајева.
Међутим, када су лажне информације долазиле из докумената који су изгледали аутентично, вероватноћа да ће их вештачка интелигенција прихватити и проследити даље скочила је на готово 47 одсто.
С друге стране, АИ је показала знатно већу дозу сумње према друштвеним мрежама - на пример, када су дезинформације потицале са објава на платформи Редит, стопа њиховог прихватања и ширења пала је на свега 9 одсто. Истраживачи су такође утврдили да и сам начин формулисања упита има велики утицај: Вештачка интелигенција је била склонија да прихвати нетачне информације када је питање постављено ауторитативним тоном.
Међу тестираним системима, ГПТ модели компаније ОпенАИ показали су се као најотпорнији и најтачнији у препознавању медицинских грешака. Насупрот томе, поједини други модели прихватали су чак 63,6 одсто лажних тврдњи.
Ипак, аутори студије наглашавају да вештачка интелигенција и даље има велики потенцијал у медицини - како за лекаре, тако и за пацијенте, кроз брже анализе и додатну подршку у доношењу одлука. Кључни изазов остаје увођење заштитних механизама који би медицинске тврдње проверили пре него што се представе као чињенице, преноси "Ројтерс".



