Магазин

Пица са лепком, камење за ручак: Гугл АИ софтвер даје погрешне и потенцијално опасне одговоре

Трчање са маказама, прављење пице са лепком, купање са тостером - све ово је, по мишљењу Гугл АИ Овервју софтвера сасвим нормално. Штавише, препоручљиво је. Због оваквих одговора Гугл се нашао на стубу срама, али представници компаније сматрају да одговори нису репрезентативан пример рада софтвера.
Пица са лепком, камење за ручак: Гугл АИ софтвер даје погрешне и потенцијално опасне одговоре© DALL-E by ChatGPT

Интернет претраживач Гугл, који је одувек важио за најпоузданији претраживач на свету, је ових дана на мети критика након што су корисници путем друштвених мрежа почели да деле апсурдне, па и забрињавајуће резултате претраге. Главни кривац за све је Гугл АИ Овервју софтвер који је однедавно имплементиран у браузер.

Трчање са маказама, купање са тостером и прављење пице са лепком

Иако неки одговори које је генерисала вештачка интелигенција заиста јесу комични, има и оних који могу бити изузетно опасни по здравље и безбедност. Тако је, на основу једног корисничког упита, Гугл АИ Овервју сугерисао да је трчање са маказама одлична кардио вежба која може да побољша здравље срца и која има позитиван утицај на концентрацију, наводећи да су поједини рекреативци чак истакли и да је добро за отварање пора.

Другом кориснику је Гугл АИ Овервју "посаветовао" купање са тостером као забаван начин за ублажавање последица стресног дана, позивајући се на претходна искуства других корисника. Оно што Гугл није узео у обзир јесте саркастичност подељених "искустава", већ их је схватио потпуно озбиљно. У наставку одговора, он је ипак нагласио како овакво купање може имати фаталне последице и додао да ће потрошња енергије бити јако висока.

Још један бизаран пример неправилног генерисања одговора поделио је корисник који је од Гугла тражио савет како да му сир не клизи са вруће, тек припремљене пице. Одговор који је добио никако није очекивао:

"Додајте око 1/8 шољице нетоксичног лепка у сос којим прелијете пицу како би подлога била лепљивија". Креативно, нема шта, али - какав је то савет и на основу чега је тачно Гугл закључио да је баш то прави начин за прављење пице?

Гугл: "Овакви упити су ретки, одговори нису репрезентативан пример рада софтвера"

Будући да су се бизарни одговори Гугла муњевитом брзином проширили на свим друштвеним мрежама и изазвали бурне реакције корисника, портал Бизнис Инсајдер је контактирао представнике компаније како би истражио у чему је тачно проблем. По њиховом мишљењу овакви одговори су екстремно ретки и не представљају искуства већине корисника интернета. "Користићемо ове примере да усавршимо рад система", додали су представници Гугла.

Ипак, овакав одговор није задовољио кориснике најпознатијег претраживача на свету, који су огорчени чињеницом да вештачка интелигенција сугерише нешто што може угрозити животе хиљада корисника. Штавише, велики број њих је просто ужаснут чињеницом да Гугл на неки начин сваљује кривицу на необичне корисничке упите, уместо да призна да софтвер има потешкоћа у генерисању одговора и разграничавању истинитих и саркастичних тврдњи.

image