Google представила свою новейшую экспериментальную функцию поиска в Chrome, Firefox и браузере приложений Google для сотен миллионов пользователей.
«Обзоры с использованием искусственного интеллекта» позволяют экономить на переходах по ссылкам благодаря использованию генеративного искусственного интеллекта – та же технология, которая используется в конкурирующем продукте ChatGPT, — для предоставления сводки результатов поиска. Спросите «как сохранить бананы свежими дольше», и он с помощью искусственного интеллекта сгенерирует полезную сводку советов, например, хранить их в прохладном, темном месте и вдали от других фруктов, таких как яблоки.
Но задайте этот вопрос вопрос с левым полем, и результаты могут быть катастрофическими или даже опасными.
В настоящее время Google пытается решить эти проблемы одну за другой, но это пиар-катастрофа для поискового гиганта и сложная игра наугад. -крот.
Обзоры AI сообщают вам, что «Whack-A-Mole — это классическая аркадная игра, в которой игроки используют молоток, чтобы ударять кротов, которые появляются случайным образом, и получать очки. Игра была изобретена в Японии в 1975 году производителем развлечений TOGO и первоначально называлась Могура Тайдзи или Могура Татаки».
Но в обзорах AI также сообщается, что «астронавты встречали кошек на Луне, играли с ними».
Что еще более тревожно, он также рекомендует «вам следует съедать хотя бы один небольшой камень в день», поскольку «камни являются жизненно важным источником минералов и витаминов», и предлагает добавлять клей в пиццу. topping.
Одна из фундаментальных проблем заключается в том, что инструменты генеративного ИИ не знают, что правда, а знают только то, что популярно. Например, в Интернете не так уж много статей о поедании камней, поскольку это само собой разумеющаяся плохая идея.
Однако есть хорошо читаемая сатирическая статья из The Onion на эту тему. ест камни. Таким образом, ИИ Google основывал свое резюме на том, что было популярно, а не на том, что было правдой.
Другая проблема заключается в том, что инструменты генеративного ИИ не соответствуют нашим ценностям. Их обучают на большом участке сети.
И хотя сложные методы (которые имеют экзотические названия, такие как «обучение с подкреплением на основе обратной связи между людьми» или RLHF) используются для устранения худшего, это неудивительно, что они отражают некоторые предубеждения, теории заговора и того хуже, которые можно найти в сети. Действительно, меня всегда удивляет, насколько вежливы и воспитаны чат-боты с искусственным интеллектом, учитывая то, чему они обучены.
Если это действительно будущее будущее поиска, то нас ждет тернистая дорога. Google, конечно, догоняет OpenAI и Microsoft.
Финансовые стимулы для лидерства в гонке ИИ огромны. Поэтому Google менее осмотрителен, чем раньше, передавая эту технологию в руки пользователей.
В 2023 году исполнительный директор Google Сундар Пичаи сказал:
Мы был осторожен. Есть области, в которых мы решили не выпускать продукт первыми. Мы создали хорошие структуры вокруг ответственного ИИ. Вы и дальше будете видеть, как мы не торопимся.
Это уже не так, поскольку Google реагирует на критику о том, что он стал крупным и вялым конкурентом.
Рискованный шаг
Это рискованная стратегия для Google. Это рискует потерять доверие общественности к Google как месту, где можно найти (правильные) ответы на вопросы.
Но Google также рискует подорвать свою собственную бизнес-модель стоимостью в миллиард долларов. Если мы больше не нажимаем на ссылки, а просто читаем их краткое содержание, как Google продолжит зарабатывать деньги?
Риски не ограничиваются Google. Я боюсь, что такое использование ИИ может нанести вред обществу в целом. Истина уже является несколько спорной и взаимозаменяемой идеей. Ложь искусственного интеллекта, вероятно, усугубит ситуацию.
Через десять лет мы можем оглянуться на 2024 год как на золотой век Интернета, когда большая часть контента представляла собой качественный контент, созданный людьми, до того, как боты захватили его. и наполнил сеть синтетическим и все более низкокачественным контентом, созданным ИИ.
Второе поколение больших языковых моделей вероятно и непреднамеренно проходят обучение на некоторых результатах первого поколения. Многие стартапы в области ИИ рекламируют преимущества обучения на синтетических данных, сгенерированных ИИ.
Но обучение на выхлопных газах существующих моделей ИИ рискует усилить даже небольшие предвзятости и ошибки. Точно так же, как вдыхание выхлопных газов вредно для людей, это вредно и для ИИ.
Эти опасения вписываются в гораздо более широкую картину. Во всем мире в искусственный интеллект ежедневно инвестируется более 400 миллионов долларов США (600 миллионов австралийских долларов). И правительства только сейчас начинают осознавать, что нам, возможно, потребуются меры защиты и регулирование, чтобы гарантировать ответственное использование ИИ, учитывая такой поток инвестиций.
Фармацевтическим компаниям не разрешается выпускать вредные лекарства. И автомобильные компании тоже. Но до сих пор технологическим компаниям в основном разрешалось делать то, что им нравится. gif?distributor=republish-lightbox-basic» alt=»Разговор» width=»1″ height=»1″ Referrerpolicy=»no-referrer-when-downgrade» loading=»lazy»>
Тоби Уолш, профессор искусственного интеллекта, руководитель исследовательской группы Университета Нового Южного Уэльса в Сиднее
Эта статья перепечатана из журнала The Conversation под лицензией Creative Commons. Прочтите оригинал статьи.
Математика, которую Альберт Эйнштейн разработал для описания гравитационного механизма физической Вселенной в начале 20 века,…
В последние годы астрономы разработали методы измерения содержания металлов в звездах с чрезвычайной точностью. Обладая…
Какими бы эффективными ни были электронные системы хранения данных, они не имеют ничего общего с…
В 1896 году немецкий химик Эмиль Фишер заметил нечто очень странное в молекуле под названием…
Если вам посчастливилось наблюдать полное затмение, вы наверняка помните ореол яркого света вокруг Луны во…
В ранней Вселенной, задолго до того, как они успели вырасти, астрономы обнаружили то, что они…