Многие компании запрещают ChatGPT. Вот почему.
ChatGPT оказался довольно привлекательным помощником во многих профессиях, но он не лишен рисков, и некоторые компании запретили использование чат-бота на работе.
Может показаться очевидным, что загрузка связанной с работой информации в онлайн-платформа искусственного интеллекта, принадлежащая другой компании, является потенциальным нарушением безопасности и конфиденциальности. Тем не менее, ChatGPT может стать настоящим подспорьем для тех, кто чувствует нехватку времени.
В частности, разработчики программного обеспечения считают ChatGPT полезным для написания, тестирования или отладки кода, даже несмотря на то, что эта технология подвержена ошибкам.
p>
По данным опроса, в котором приняли участие около 12 000 специалистов, около 43 % сотрудников используют ИИ, например ChatGPT, в основном, не сообщая об этом своему начальнику.
Samsung Electronics недавно приняла жесткие меры против использования генеративных технологий. ИИ после того, как инженер воплотил в себе худший кошмар технологической компании, скопировав конфиденциальный исходный код в ChatGPT.
Как и многие компании, Samsung беспокоится, что все, что загружено на платформы ИИ, такие как ChatGPT от OpenAI или Bard от Google, будет храниться на серверы этих компаний, без возможности доступа или удаления информации.
OpenAI может использовать все, что введено в системы искусственного интеллекта, такие как ChatGPT, для улучшения системы. Есть опасения, что проприетарная или конфиденциальная информация компании, предоставленная ChatGPT, может быть непреднамеренно передана другим пользователям.
И OpenAI все еще устраняет проблемы безопасности: в марте ChatGPT был временно закрыт, чтобы исправить ошибку, из-за которой пользователи могли просматривать заголовки из истории чатов других пользователей.
Затем, в апреле, OpenAI предоставила пользователям возможность отключать свою историю чатов, что, по словам компании, не позволит ChatGPT использовать данные для обучения своего ИИ. модель.
По данным опроса, проведенного консалтинговой фирмой Gartner, из-за различных проблем безопасности, связанных с чат-ботом, около половины руководителей отделов кадров выпускают руководства по ChatGPT для сотрудников, а 3% полностью запрещают ChatGPT.
Однако некоторые компании признали, что ИИ-кошка уже вышла из-под контроля, и разработали или находятся в процессе создания собственных ИИ-платформ в качестве более безопасных альтернатив свободно доступному ChatGPT.
Amazon запретила ChatGPT в январе и призвала своих разработчиков использовать собственный ИИ под названием CodeWhisperer, если им нужны советы по программированию или ярлыки.
В мае Apple ограничила использование ChatGPT для некоторых сотрудников до предотвратить разглашение конфиденциальной информации. Apple разрабатывает собственную платформу искусственного интеллекта для конкуренции с ChatGPT, которая сама поддерживается многомиллиардными инвестициями Microsoft.
Банк Содружества Австралии ограничил использование ChatGPT в июне и приказал техническому персоналу использовать аналогичный инструмент под названием CommBank Gen.ai Studio, который был разработан в сотрудничестве с технологической компанией Силиконовой долины H2O.ai.
Другие банки, включая Bank of America, Citigroup, Deutsche Bank, Goldman Sachs, Wells Fargo & Co. и JP Morgan полностью запретили ChatGPT.
Аудиторская фирма PwC призвала сотрудников экспериментировать с ChatGPT, но предупредила их, чтобы они не использовали программу для работы с клиентами.
«Наши Политики не позволяют нашим сотрудникам использовать ChatGPT для работы с клиентами до тех пор, пока не будут приняты стандарты качества, которые мы применяем ко всем технологическим инновациям для обеспечения безопасности», – сообщил Financial Review главный специалист по цифровой информации PwC Жаки Виш.
По данным опроса более 400 юристов из США, Великобритании и Канады, около 15 % юридических фирм выпустили предупреждения о ChatGPT. Mishcon de Reya, британская юридическая фирма, в которой работает около 600 юристов, запретила использование платформы ИИ из-за риска для конфиденциальных данных.
В мае сотрудникам пяти больниц в Западной Австралии было приказано прекратить использование ChatGPT. после того, как некоторые использовали платформу для написания личных медицинских заметок.
«Важно отметить, что на данном этапе нет гарантии конфиденциальности пациентов при использовании технологий ИИ-ботов, таких как ChatGPT, и мы не полностью понимаем риски безопасности », — сказал Пол Форден, возглавляющий Службу здравоохранения Южного города Перта.
«По этой причине использование технологии ИИ, включая ChatGPT, для служебной деятельности, включающей любого пациента или потенциально конфиденциальную медицинскую службу. информация должна быть немедленно прекращена».
Компании, открыто использующие ChatGPT, видят в этом способ сэкономить на затратах на создание контента. Компания Coca-Cola планирует использовать ChatGPT и генератор изображений AI DALL·E для брендинга и контента. В январе BuzzFeed объявил о партнерстве по созданию викторин и другого контента для Meta с использованием общедоступного API OpenAI.
Веб-сайт блога Medium «приветствовал ответственное использование вспомогательных технологий ИИ», но требует от авторов раскрывать информацию об их использовании. . CNET незаметно экспериментировала с историями, написанными ИИ, но объявила о приостановке этой операции в январе.
Несомненно, генеративный ИИ в конечном итоге найдет место в офисе и может даже заменить некоторых сотрудников. Но на данный момент многие компании видят больше рисков, чем преимуществ.