Последний поисковый инструмент Google предлагает нам наносить клей на пиццу и есть камни

Последний поисковый инструмент Google предлагает нам наносить клей на пиццу и есть камни

Google представила свою новейшую экспериментальную функцию поиска в Chrome, Firefox и браузере приложений Google для сотен миллионов пользователей.

«Обзоры с использованием искусственного интеллекта» позволяют экономить на переходах по ссылкам благодаря использованию генеративного искусственного интеллекта – та же технология, которая используется в конкурирующем продукте ChatGPT, — для предоставления сводки результатов поиска. Спросите «как сохранить бананы свежими дольше», и он с помощью искусственного интеллекта сгенерирует полезную сводку советов, например, хранить их в прохладном, темном месте и вдали от других фруктов, таких как яблоки.

Но задайте этот вопрос вопрос с левым полем, и результаты могут быть катастрофическими или даже опасными.

В настоящее время Google пытается решить эти проблемы одну за другой, но это пиар-катастрофа для поискового гиганта и сложная игра наугад. -крот.

Обзоры искусственного интеллекта Google могут нанести ущерб репутации технологического гиганта, предоставляющего надежные результаты. (Google/The Conversation)

Обзоры AI сообщают вам, что «Whack-A-Mole — это классическая аркадная игра, в которой игроки используют молоток, чтобы ударять кротов, которые появляются случайным образом, и получать очки. Игра была изобретена в Японии в 1975 году производителем развлечений TOGO и первоначально называлась Могура Тайдзи или Могура Татаки».

Но в обзорах AI также сообщается, что «астронавты встречали кошек на Луне, играли с ними».

Что еще более тревожно, он также рекомендует «вам следует съедать хотя бы один небольшой камень в день», поскольку «камни являются жизненно важным источником минералов и витаминов», и предлагает добавлять клей в пиццу. topping.

Почему это происходит?

Одна из фундаментальных проблем заключается в том, что инструменты генеративного ИИ не знают, что правда, а знают только то, что популярно. Например, в Интернете не так уж много статей о поедании камней, поскольку это само собой разумеющаяся плохая идея.

Однако есть хорошо читаемая сатирическая статья из The Onion на эту тему. ест камни. Таким образом, ИИ Google основывал свое резюме на том, что было популярно, а не на том, что было правдой.

Похоже, что в некоторых результатах обзора ИИ шутки и пародии ошибочно принимаются за фактическую информацию. (Google/The Conversation)

Другая проблема заключается в том, что инструменты генеративного ИИ не соответствуют нашим ценностям. Их обучают на большом участке сети.

И хотя сложные методы (которые имеют экзотические названия, такие как «обучение с подкреплением на основе обратной связи между людьми» или RLHF) используются для устранения худшего, это неудивительно, что они отражают некоторые предубеждения, теории заговора и того хуже, которые можно найти в сети. Действительно, меня всегда удивляет, насколько вежливы и воспитаны чат-боты с искусственным интеллектом, учитывая то, чему они обучены.

Это будущее поиска?

Если это действительно будущее будущее поиска, то нас ждет тернистая дорога. Google, конечно, догоняет OpenAI и Microsoft.

Финансовые стимулы для лидерства в гонке ИИ огромны. Поэтому Google менее осмотрителен, чем раньше, передавая эту технологию в руки пользователей.

В 2023 году исполнительный директор Google Сундар Пичаи сказал:

Мы был осторожен. Есть области, в которых мы решили не выпускать продукт первыми. Мы создали хорошие структуры вокруг ответственного ИИ. Вы и дальше будете видеть, как мы не торопимся.

Это уже не так, поскольку Google реагирует на критику о том, что он стал крупным и вялым конкурентом.

Рискованный шаг

Это рискованная стратегия для Google. Это рискует потерять доверие общественности к Google как месту, где можно найти (правильные) ответы на вопросы.

Но Google также рискует подорвать свою собственную бизнес-модель стоимостью в миллиард долларов. Если мы больше не нажимаем на ссылки, а просто читаем их краткое содержание, как Google продолжит зарабатывать деньги?

Риски не ограничиваются Google. Я боюсь, что такое использование ИИ может нанести вред обществу в целом. Истина уже является несколько спорной и взаимозаменяемой идеей. Ложь искусственного интеллекта, вероятно, усугубит ситуацию.

Через десять лет мы можем оглянуться на 2024 год как на золотой век Интернета, когда большая часть контента представляла собой качественный контент, созданный людьми, до того, как боты захватили его. и наполнил сеть синтетическим и все более низкокачественным контентом, созданным ИИ.

Начал ли ИИ дышать собственными выхлопами?

Второе поколение больших языковых моделей вероятно и непреднамеренно проходят обучение на некоторых результатах первого поколения. Многие стартапы в области ИИ рекламируют преимущества обучения на синтетических данных, сгенерированных ИИ.

Но обучение на выхлопных газах существующих моделей ИИ рискует усилить даже небольшие предвзятости и ошибки. Точно так же, как вдыхание выхлопных газов вредно для людей, это вредно и для ИИ.

Эти опасения вписываются в гораздо более широкую картину. Во всем мире в искусственный интеллект ежедневно инвестируется более 400 миллионов долларов США (600 миллионов австралийских долларов). И правительства только сейчас начинают осознавать, что нам, возможно, потребуются меры защиты и регулирование, чтобы гарантировать ответственное использование ИИ, учитывая такой поток инвестиций.

Фармацевтическим компаниям не разрешается выпускать вредные лекарства. И автомобильные компании тоже. Но до сих пор технологическим компаниям в основном разрешалось делать то, что им нравится. gif?distributor=republish-lightbox-basic» alt=»Разговор» width=»1″ height=»1″ Referrerpolicy=»no-referrer-when-downgrade» loading=»lazy»>

Тоби Уолш, профессор искусственного интеллекта, руководитель исследовательской группы Университета Нового Южного Уэльса в Сиднее

Эта статья перепечатана из журнала The Conversation под лицензией Creative Commons. Прочтите оригинал статьи.

logo