Свет

Илон Маск и стручњаци захтевају: Стати на пут развоју вештачке интелигенције

Више од 1.000 стручњака, инжењера и академика је у новом отвореном писму позвало на моментално обустављање даљег развоја напредних модела вештачке интелигенције док се не изуче све последице и опасности које она носи
Илон Маск и стручњаци захтевају: Стати на пут развоју вештачке интелигенцијеGetty © Photo by Paul Gilham/Getty Images

Више од 1.000 стручњака и истраживача вештачке интелигенције (АИ) позвало је да се моментално заустави развој напредних АИ модела на најмање шест месеци, како би се импликације и опасности од употребе система попут ГПТ-4 могле ваљано проучити и ублажити.

Тај захтев је постављен у отвореном писму које су потписали неке од водећих фигура у области вештачке интелигенције, укључујући Илона Маска, који је суоснивач истраживачке лабораторије "Опен АИ", одговорне за програме Чет ГПТ и ГПТ-4, Емад Мостак, који је основао лондонски "Стабилити АИ", суоснивач "Епла" Стив Вознијак, али и Јошуа Бенгио, човек за кога се говори да је "кумовао" вештачкој интелигенцији, и Стјуарт Расел, један од најистакнутијих пионира у том пољу.

Међу потписницима су и инжењери из "Амазона", "Гугла", "Мајкрософта", али и многи академици, а ауторе координише непрофитна организација под називом Институт будућности за живот, преноси "Гардијан".

"Последњих месеци су лабораторије вештачке интелигенције ушле у трку ван контроле да развију и примене све моћније дигиталне умове, које нико – чак ни њихови творци – не може да разуме, предвиди или поуздано контролише", наводи се у писму.

Они сматрају да моћније АИ системе треба развијати тек када се утврди да ће њихови ефекти бити позитивни и да се ризицима које они носе може управљати.

Тренутак за увођење независне контроле је сад

Потписници свој став поткрепљују цитирајући суоснивача "Опен АИ" Сема Алтмана, који је у фебруару написао да би "у неком тренутку могло бити важно да се уведе независна ревизија пре него што се почне са обучавањем будућих система (вештачке интелигенције) и да се постигне договор око ограничења стопе напретка нових модела."

"Слажемо се. Тај тренутак је сада", тврде потписници отвореног писма.

Ако истраживачи не буду добровољно хтели да паузирају рад на АИ моделима моћнијим од ГПТ-4, који се наводи као пример "џиновских" вештачких интелигенција, онда би "владе требало да се умешају", сматрају аутори.

"Ово не значи потпуно заустављање у развоју вештачке интелигенције, већ само одступање од опасне трке ка све већим и непредвидивим моделима", додаје се у писму.

Јесу ли сумње оправдане?

Откако је ГПТ-4 представљен у јавности, компанија "Опен АИ" је постепено додавала нове функције у виду "плагинова", што је том моделу омогућило да претражује податке на интернету, планира одморе за кориснике и чак да наручује намирнице.

Сада, међутим, та компанија мора да се носи са "превисоком способности" свог система, односно да је он сада моћнији него што су били у тренутку представљања. 

Професор са Универзитета Њујорк и један од потписника писма Гери Маркус каже за Ројтерс да писмо није савршено, али да му је "дух исправан". 

"Велики играчи постају све тајновитији у вези са оним што раде, што отежава друштву да се одбрани од било какве штете која се може испољити", рекао је Маркус за Ројтерс.

Са друге стране, британска агенција наводи да су критичари писма оптужили потписнике за "дизањем АИ панике", тврдећи да су процене о тренутним способностима технологије у великој мери преувеличане.

image