ИИ теперь может проводить ваши встречи и писать код: но есть скрытые риски

ИИ теперь может проводить ваши встречи и писать код: но есть скрытые риски

Microsoft недавно выпустила новую версию всего своего программного обеспечения с добавлением помощника с искусственным интеллектом (ИИ), который может выполнять за вас различные задачи.

Второй пилот может подводить итоги устных разговоров в Teams онлайн. встречах, представлять аргументы за или против определенного пункта на основе устных дискуссий и отвечать на часть ваших электронных писем. Он даже может писать компьютерный код.

Эта быстро развивающаяся технология, похоже, приближает нас к будущему, в котором ИИ сделает нашу жизнь проще и избавит нас от всех скучных и повторяющихся действий, которые нам приходится делать как людям.

Но хотя все эти достижения очень впечатляют и полезны, мы должны быть осторожны в использовании таких больших языковых моделей (LLM). Несмотря на свою интуитивную природу, они по-прежнему требуют навыков для их эффективного, надежного и безопасного использования.

Большие языковые модели

LLM, разновидность нейронной сети «глубокого обучения», предназначены для понять намерения пользователя, проанализировав вероятность различных ответов на основе предоставленной подсказки. Таким образом, когда человек вводит подсказку, LLM изучает текст и определяет наиболее вероятный ответ.

ChatGPT, яркий пример LLM, может предоставлять ответы на подсказки по широкому кругу тем. Однако, несмотря на кажущиеся компетентными ответы, ChatGPT не обладает реальными знаниями. Его ответы — это просто наиболее вероятные результаты, основанные на заданном запросе.

Когда люди предоставляют ChatGPT, Copilot и другим LLM подробные описания задач, которые они хотят выполнить, эти модели могут превосходно предоставлять высококачественные ответы. Это может включать в себя создание текста, изображений или компьютерного кода.

Но, будучи людьми, мы часто раздвигаем границы того, на что способны технологии и для чего они изначально были созданы. Следовательно, мы начинаем использовать эти системы для выполнения той работы, которую нам следовало бы делать самим.

Почему чрезмерная зависимость от ИИ может быть проблемой

Несмотря на их, казалось бы, разумные ответы, мы не можем слепо верьте, что LLM точны и надежны. Мы должны тщательно оценивать и проверять их результаты, гарантируя, что наши первоначальные подсказки отражены в предоставленных ответах.

Чтобы эффективно проверять и утверждать результаты LLM, нам необходимо иметь четкое понимание предмета. Без опыта мы не можем обеспечить необходимую гарантию качества.

Это становится особенно важным в ситуациях, когда мы используем LLM для устранения пробелов в наших собственных знаниях. Здесь недостаток знаний может привести нас к ситуации, когда мы просто не сможем определить, правильный вывод или нет. Такая ситуация может возникнуть при создании текста и кодировании.

Использование ИИ для участия в собраниях и подведения итогов обсуждения представляет очевидный риск, связанный с надежностью.

Хотя запись собрания основана на стенограмма, заметки о встрече по-прежнему создаются так же, как и другой текст из LLM. Они по-прежнему основаны на языковых моделях и вероятностях того, что было сказано, поэтому требуют проверки, прежде чем на них можно будет действовать.

Они также страдают от проблем с интерпретацией из-за омофонов — слов, которые произносятся одинаково, но имеют разные значения. Люди хорошо понимают, что имеется в виду в таких обстоятельствах, благодаря контексту разговора.

Но ИИ не умеет определять контекст и не понимает нюансов. Таким образом, ожидание того, что он сформулирует аргументы на основе потенциально ошибочной расшифровки, по-прежнему создает дополнительные проблемы.

Проверка становится еще сложнее, если мы используем ИИ для генерации компьютерного кода. Тестирование компьютерного кода с использованием тестовых данных — единственный надежный метод проверки его функциональности. Хотя это демонстрирует, что код работает так, как задумано, это не гарантирует, что его поведение соответствует реальным ожиданиям.

Предположим, мы используем генеративный искусственный интеллект для создания кода для инструмента анализа настроений. Цель состоит в том, чтобы проанализировать обзоры продуктов и классифицировать настроения как положительные, нейтральные или отрицательные. Мы можем протестировать функциональность системы и проверить правильность работы кода – что это правильно с точки зрения технического программирования.

Однако представьте, что мы развертываем такое программное обеспечение в реальном мире, и оно начинает работать. классифицируйте саркастические отзывы о продуктах как положительные. Системе анализа настроений не хватает контекстуальных знаний, необходимых для понимания того, что сарказм не используется в качестве положительной обратной связи, а как раз наоборот.

Проверка того, что выходные данные кода соответствуют желаемым результатам в таких тонких ситуациях, как эта, требует опыта.

Непрограммисты не будут знать принципов разработки программного обеспечения, которые используются для обеспечения правильности кода, таких как планирование, методология, тестирование и документация. Программирование — сложная дисциплина, и разработка программного обеспечения возникла как область управления качеством программного обеспечения.

Существует значительный риск, как показало мое собственное исследование, что неспециалисты упустят из виду или пропустят важные шаги в процессе разработки. процесс разработки программного обеспечения, приводящий к созданию кода неизвестного качества.

Проверка и проверка

LLM, такие как ChatGPT и Copilot, — это мощные инструменты, от которых мы все можем получить пользу. Но мы должны быть осторожны, чтобы не доверять слепо полученным нами результатам.

Мы находимся в самом начале великой революции, основанной на этой технологии. У искусственного интеллекта безграничные возможности, но его необходимо формировать, проверять и проверять. И в настоящее время только люди могут это сделать.The Conversation

Саймон Торн, Старший преподаватель компьютерных и информационных систем Кардиффского столичного университета.

Эта статья переиздана из журнала The Conversation под лицензией Creative Commons. Прочтите оригинал статьи.

logo