Упалила се црвена лампица: Шта ако вештачка интелигенција буде супериорна људској?

Експерт за АИ предлаже сарадњу великих сила на заустављању ових моћних система, чак и између ривала попут Кине и САД

"Тесла", "Спејс икс" и извршни директор "Твитера" Илон Муск, заједно са више од 1.000 технолошких лидера и стручњака за вештачку интелигенцију (АИ), позивају на привремени мораторијум у развоју ових система, упозоравајући да он доноси огромне ризике по друштво и цивилизацију.

Међутим, Елизер Јудковски, стручњак са Института за истраживање вештачке интелигенције, који има више од две деценије искуства у овој области, у тексту који објављује "Тајм", тврди да предлог шестомесечног мораторијума на развој моћних система вештачке интелигенције "не иде довољно далеко."

Јудковски упозорава да је "шестомесечна пауза" у развоју моћних АИ система, које захтева извршни директор "Тесле" Илон Маск и стотине других стручњака, потцењује "озбиљност ситуације". Јудковски би у томе отишао корак даље, уводећи мораторијум за нове моделе учења АИ који би био "неограничен и протезао би се на све земље света."

У отвореном писму, које је издао Институт за будућност живота и које је потписало више од 1.000 људи, укључујући Илона Маска и Стива Вознијака, наводи се да независни контролори треба да развију безбедносне протоколе који ће повести рачуна о будућности система АИ.

"Моћне системе вештачке интелигенције треба да развијамо тек када будемо сигурни да ће њихови ефекти бити позитивни и да ћемо моћи управљати могућим ризицима", тврди Јудковски, упозоравајући да је "све то недовољно."

Угасите све

"Кључно питање није интелигенција која може да конкурише људима, већ шта ће се десити када АИ буде располагала интелигенцијом која је супериорна људској", написао је Јудковски за "Тајм".

"Многи истраживачи који су заокупљени овим питањима, укључујући и мене, очекују да је највероватнији резултат стварања надљудске вештачке интелигенције бити да ће помрети дословно сви на Земљи", тврди овај стручњак.

За Јудковског, проблем је у томе што би АИ, која је изнад људских бића, могла да се отме својим творцима: "Она дословно не би узимала у обзир људске животе. Немојте мислити да је то `Терминатор`. Представите себи ванземаљску цивилизацију, која размишља милион пута брже од човека, у свету створења која су, из њихове перспективе, веома глупа и спора", упозорио је овај стручњак.

Овај стручњак подсећа да не постоји план за суочавање човечанства са суперинтелигенцијом. Такође, он је веома забринут да истраживачи АИ заправо не знају да ли су модели учења постали "самосвесни" и да ли је уопште етички поседовати их.

Јудковски предлаже међународну сарадњу великих сила на заустављању моћних АИ система, чак и између ривала попут САД и Кине. Он додаје да је то много важније од питања нуклеарног наоружања и да би разне земље требало да размотре чак и употребу нуклеарног оружја "уколико би то спречило ризик који доноси АИ."

"Угасите све", апеловао је Јудковски. "Искључите све велике ГПУ кластере (велике компјутерске фирме у којима се ради на најмоћнијим АИ системима). Поставите горњу границу на то колико рачунарске снаге смемо да користимо у обучавању АИ система. Све то без изузетака за владе и војску."

Драстично упозорење Јудковског долази у тренутку када софтвер за АИ добија све већу популарност.

Чет ГПТ је недавно шокирао кориснике широм света својом способношћу да компонује песме или напише текст.