Магазин

Да ли АИ може да створи нову пандемију? Научници страхују од злоупотребе биолошких података

Неконтролисан приступ осетљивим биолошким подацима могао би да омогући системима вештачке интелигенције да их злоупотребе, упозорава више од 100 научника из водећих светских институција. У том случају, АИ потенцијално може дизајнирати опасне, па чак и смртоносне патогене.
Да ли АИ може да створи нову пандемију? Научници страхују од злоупотребе биолошких података© Concrete Supply Co.

Савремени модели вештачке интелигенције у биологији обучавају се на огромним количинама података: Генетским секвенцама, информацијама о мутацијама, особинама вируса, начинима преноса, отпорности на вакцине... Управо ти подаци омогућили су велики напредак у истраживањима и довели до бржег развоја лекова и бољег разумевања заразних болести.

Међутим, исти ти алати, упозоравају истраживачи, могли би да буду искоришћени у погрешне сврхе.

У отвореном писму које су потписали научници са универзитета као што су Џонс Хопкинс, Оксфорд, Фордхам и Станфорд, наводи се да мали, али кључни подскуп информација представља ризик по биолошку безбедност ако постане неограничено доступан. "Ризици су високи, јер модели вештачке интелигенције могу помоћи у стварању озбиљних биолошких претњи", наводи се у писму.

АИ модели који се већ користе у биологији способни су да предвиђају мутације вируса, идентификују обрасце у генетском коду и чак генеришу варијанте са повећаном преносивошћу. Истраживачи ову способност описују као "забрињавајућу", јер би могла да убрза и поједностави стварање патогена који би изазвали нове пандемије код људи, животиња или биљака.

Научници не доводе у питање принцип отворене науке - напротив, истичу да већина биолошких података треба да остане јавно доступна. Међутим, када је реч о подацима који се односе на опасне патогене, потребне су јаче безбедносне провере и јасна правила. Тренутно не постоји универзални оквир који би регулисао приступ оваквим скуповима података, али неки тимови већ добровољно искључују најосетљивије информације из својих модела.

Ипак, научници упозоравају да добровољне безбедносне мере неколицине научних тимова нису довољне. Зато предлажу јаснији систем категоризације ризичних података, а то је петостепени ниво биолошке безбедности (BDL).

Најнижи ниво (BDL-0) односи се на уобичајене биолошке податке који могу бити слободно доступни, док BDL-1 и BDL-2 обухватају основне вирусне елементе и податке о особинама вируса код животиња, уз контролисан и праћен приступ. Виши нивои, BDL-3 и BDL-4, односе се на карактеристике људских вируса и модификоване, потенцијално опасније варијанте, за које би важила најстрожа безбедносна ограничења, преноси "Јуроњуз".

Поред категоризације, истраживачи предлажу и конкретне техничке мере: Уграђене водене жигове у скупове података ради праћења цурења, системе за евидентирање приступа и измена, као и напредне механизме за проверу идентитета и праћење злоупотребе.

Циљ писма није да податке треба закључати, већ да треба увести паметну контролу. Како модели вештачке интелигенције постају моћнији и доступнији широм света, питање више није да ли постоји ризик, већ како га држати под контролом, а да се притом не успори легитимно научно истраживање.

image
Live