Bitget App
Торгуйте разумнее
Купить криптоРынкиТорговляФьючерсыКопитрейдингБотыEarn
ИИ Google-поисковика посоветовал намазать пиццу клеем

ИИ Google-поисковика посоветовал намазать пиццу клеем

Incrypted2024/05/24 08:52
Автор:Maryna Hlaiboroda
  • Функция Google «Обзоры ИИ» может выдавать пользователям некорректные ответы.
  • В одном из случает алгоритм предложил добавить в соус для пиццы клей, в другом ― высосать яд гремучей змеи.
  • По словам представителя Google, компания использует эти примеры для улучшения продукта.

Пользователи начали распространять в соцсетях некорректные предложения новой функции «Обзоры искусственного интеллекта» в Google-поиске.

В одном из случаев, ставшим вирусным, ИИ посоветовал пользователю добавить в соус для пиццы восьмую часть стакана клея Elmer’s, чтобы сделать сыр более липким. Эта рекомендация, вероятно, основана на комментарии fucksmith 11-летней давности в ветке Reddit.

Google AI overview suggests adding glue to get cheese to stick to pizza, and it turns out the source is an 11 year old Reddit comment from user F*cksmith 😂 pic.twitter.com/uDPAbsAKeO

— Peter Yang (@petergyang) May 23, 2024

Функция «Обзоры искусственного интеллекта» сканирует интернет и выдает ответ, сгенерированный ИИ. Она активируется не для каждого запроса и обозначена соответствующим ярлыком.

В другом случае алгоритм заявил, что «бег с ножницами — это кардиоупражнение, которое способно увеличить частоту сердечных сокращений и требует концентрации и сосредоточенности». Он также «может улучшить ваши поры и придать сил», добавил ИИ.

Большинство ошибок Google происходят из-за нетрадиционных поисковых запросов, призванных запутать искусственный интеллект.

Однако есть более серьезные ситуации, например, выдача неверной информации о действиях в случае укуса гремучей змеи. Согласно посту журналистки Эрин Росс, алгоритм порекомендовал наложить пострадавшему жгут, разрезать рану и высосать яд.

По данным Лесной службы США, это то, что не следует делать при укусе змеи.

Good ol’ Google AI: telling you to do the exact things you *are not supposed to do* when bitten by a rattlesnake.

From mushrooms to snakebites, AI content is genuinely dangerous. pic.twitter.com/UZXgBjsre9

— ern. (@ErinEARoss) May 19, 2024

Это только часть из множества примеров ошибочных предложений функции «Обзоров ИИ», которую Google представил на конференции I/O 2024.

ИИ также утверждал, что второй президент США Джон Адамс окончил Висконсинский университет в Мадисоне 21 раз , собака играла в НБА, а «Бэтмен» ― полицейский .

https://t.co/NxYlTmcj5a pic.twitter.com/jsfRiTKhbc

— Patrick Cosmos (@veryimportant) May 22, 2024

Согласно заявлению представителя Google Меган Фарнсворт журналистам TechCrunch , ошибки возникли из-за «очень необычных запросов и не отражают опыт большинства людей».

Компания приняла меры против нарушений своей политики и использует эти «отдельные примеры» для дальнейшего совершенствования продукта, добавила она.

Напомним, в августе 2023 года выяснилось, что ИИ-бот от сети супермаркетов PAK’nSAVE в Новой Зеландии предложил пользователям рецепт хлора.

0

Дисклеймер: содержание этой статьи отражает исключительно мнение автора и не представляет платформу в каком-либо качестве. Данная статья не должна являться ориентиром при принятии инвестиционных решений.

PoolX: вносите активы и получайте новые токены.
APR до 12%. Аирдропы новых токенов.
Внести!