Свет

Нема битне разлике у претњи: Стручњаци позивају да се АИ регулише попут нуклеарне енергије, али...

Упркос реалној претњи коју АИ представља и упозорењима стручњака, законска регулатива је још увек далеко
Нема битне разлике у претњи: Стручњаци позивају да се АИ регулише попут нуклеарне енергије, али...Getty © Carsten Koall / Stringer

Ризик од вештачке интелигенције (АИ) једнак је егзистенцијалним и безбедносним ризицима, који су настали са доласком нуклеарног доба, упозоравају АИ истраживачи и позивају да се вештачка интелигенција подвргне сличној законској регулацији као нуклеарна енергија. Али проблеми постоје.

Сем Алтман, извршни директор "ОпенАИ" позвао је на стварање савезне агенције која може да даје лиценце за креирање АИ модела изнад одређеног прага способности. Ово је, објашњава "Тајм", слично начину на који оператери нуклеарних објеката морају да имају лиценцу нуклеарног регулатора, а као део услова за лиценцу, нуклеарни оператери морају да поштују регулаторне безбедносне смернице и законску обавезу да смање ризике колико је то разумно и изводљиво.

Са друге стране, Алтман је критиковао ЕУ закон о вештачкој интелигенцији као "претерано регулисан" и поручио да његов "ОпенАИ" није високоризична компанија.

На овај начин, наводи магазин, износе се две супротстављене поруке. Једна је да будућност способности вештачке интелигенције представља тако значајан ризик, да је потребна ексклузивна регулаторна шема лиценцирања на нуклеарном нивоу. Са друге стране, постојећи системи не захтевају никакву регулацију, упркос добро документованим штетама а које се сматрају безначајним. И ту се руше аналогије са нуклеарном безбедношћу.

Безбедносни инжењеринг, дисциплина која обезбеђује безбедност нуклеарних система, изграђена је тако да системски кварови или лоше понашање, без обзира колико мали, могу довести до катастрофалних догађаја. Узмите у обзир да су све компоненте нуклеарног система, а то су уранијум или плутонијум, хардвер и софтвер, све до бетона, појединачно и ригорозно регулисане. Ови елементи одвојено не представљају претњу нуклеарном катастрофом, али у оркестрацији доводе до појаве контролисане реакције нуклеарне фисије. Насупрот томе, неуспеси у поменутој оркестрацији могу каскадно прерасти у катастрофалне или високоризичне догађаје.

Наша неспособност да спречимо садашње штете од вештачке интелигенције, као што је алгоритамска дискриминација, дезинформације и сајбер напади, уз недостатак техничких и управљачких могућности да контролишемо или меримо АИ механизме који производе ове штете, значи да једноставно немамо и нећемо имати техничку основу за решавање ризика од лавина већих размера које АИ хипотетички може да изазове. А то је озбиљна егзистенцијална претња, закључује "Тајм".

image