Мы сталкиваемся с искусственным интеллектом (ИИ) каждый день. ИИ описывает компьютерные системы, способные выполнять задачи, обычно требующие человеческого интеллекта. Когда вы ищете что-то в Интернете, лучшие результаты, которые вы видите, определяются ИИ.
Любые рекомендации, которые вы получите на своих любимых торговых или информационных веб-сайтах, также будут основаны на алгоритме ИИ. Эти алгоритмы используют историю вашего браузера, чтобы находить то, что может вас заинтересовать.
Поскольку целевые рекомендации не особенно интересны, научная фантастика предпочитает изображать ИИ как сверхразумных роботов, которые ниспровергают человечество. Некоторые люди считают, что этот сценарий однажды может стать реальностью. Известные деятели, в том числе покойный Стивен Хокинг, выразили опасения по поводу того, как будущий ИИ может угрожать человечеству.
Чтобы решить эту проблему, мы спросили 11 экспертов в области искусственного интеллекта и информатики: «Является ли ИИ реальной угрозой для человечества?» 82% респондентов согласились с тем, что он не угроза существованию. Вот что мы выяснили.
Существующий в настоящее время ИИ называется «узким» или «слабым» ИИ. Он широко используется для многих приложений, таких как распознавание лиц, беспилотные автомобили и рекомендации в Интернете. Он определяется как «узкий», потому что эти системы могут обучаться и выполнять только очень специфические задачи.
Часто машины на самом деле выполняют эти задачи лучше, чем люди — как известно, Deep Blue был первым ИИ, победившим чемпиона мира по шахматам в 1997 году — однако они не могут применить свои знания ни к чему, кроме очень конкретной задачи (Deep Blue может играть только в шахматы).
Другой тип ИИ называется Общий искусственный интеллект (AGI). Определяется как ИИ, имитирующий человеческий интеллект, включая способность думать и применять интеллект для решения множества различных проблем. Некоторые люди считают, что AGI неизбежен и неизбежно возникнет в ближайшие несколько лет.
Мэтью О’Брайен, инженер-робототехник из Технологического института Джорджии, не согласен с этим: «Долгожданная цель создания «общего ИИ» не маячит на горизонте. Мы просто не знаем, как создать общий адаптируемый интеллект, для достижения этой цели необходим гораздо больший прогресс».
Пока неясно, когда и возникнет ли ОИИ, можем ли мы предсказать, какую угрозу они могут представлять для нас, людей? ОИИ учится на опыте и данных, а не на том, что ему прямо говорят, что делать. Это означает, что, столкнувшись с новой ситуацией, которую он раньше не видел, мы не сможем полностью предсказать, как ИИ отреагирует.
Доктор Роман Ямпольский, специалист по информатике из Университета Луисвилля, также считает, что «никакая версия человеческого контроля над ИИ недостижима», поскольку ИИ не может одновременно быть автономным и контролироваться людьми. Неспособность управлять сверхразумными системами может иметь катастрофические последствия.
Инсю Ван, профессор кафедры программного обеспечения и наук о мозге из Университета Калгари, не согласен с этим, говоря, что «профессионально разработанные системы и продукты искусственного интеллекта хорошо ограничены фундаментальным уровнем операционных систем для защиты интересов и благополучия пользователей, которые не могут быть доступны или изменены сами интеллектуальными машинами».
Д-р О’Брайен добавляет: «Как и в случае с другими инженерными системами, все, что может иметь потенциально опасные последствия, будет тщательно проверено и подвергнуто множественным избыточным проверкам безопасности».
Многие эксперты согласились с тем, что ИИ может быть угрозой. Доктор Джордж Монтанез, эксперт по искусственному интеллекту из колледжа Харви Мадда, подчеркивает, что «роботы и системы искусственного интеллекта не обязательно должны быть разумными, чтобы быть опасными; они просто должны быть эффективными инструментами в руках людей, желающих причинить вред другим».
Даже без злого умысла сегодняшний ИИ может представлять опасность. Например, расовые предубеждения были обнаружены в алгоритмах распределения медицинских услуг среди пациентов в США. Подобные предубеждения были обнаружены в программном обеспечении для распознавания лиц, используемом правоохранительными органами. Эти предубеждения имеют широкомасштабные негативные последствия, несмотря на «узкие» возможности ИИ.
Предвзятость ИИ проистекает из данных, на которых он обучается. В случаях расовой предвзятости данные обучения не были репрезентативными для населения в целом. Другой пример произошел в 2016 году, когда было обнаружено, что окно чата на основе ИИ рассылает крайне оскорбительный и расистский контент. Было обнаружено, что это связано с тем, что люди отправляли боту оскорбительные сообщения, от которых он узнал.
ИИ, который мы используем сегодня, исключительно полезен для множества различных задач.
Это не означает, что он всегда положительный — это инструмент, злонамеренное или неправильное использование которого может иметь негативные последствия. Несмотря на это, в настоящее время кажется маловероятным, что он станет реальной угрозой для человечества.
Статья основана на 11 экспертных ответах на вопрос: Является ли ИИ реальной угрозой человечеству?
Математика, которую Альберт Эйнштейн разработал для описания гравитационного механизма физической Вселенной в начале 20 века,…
В последние годы астрономы разработали методы измерения содержания металлов в звездах с чрезвычайной точностью. Обладая…
Какими бы эффективными ни были электронные системы хранения данных, они не имеют ничего общего с…
В 1896 году немецкий химик Эмиль Фишер заметил нечто очень странное в молекуле под названием…
Если вам посчастливилось наблюдать полное затмение, вы наверняка помните ореол яркого света вокруг Луны во…
В ранней Вселенной, задолго до того, как они успели вырасти, астрономы обнаружили то, что они…