Категории: Новости

Люди, которых не существует, выглядят более реальными, чем настоящие люди, показало исследование

Даже если вы думаете, что хорошо разбираетесь в лицах, исследования показывают, что многие люди не могут надежно отличить фотографии реальных лиц от изображений, созданных компьютером.

Это особенно проблематично сейчас, когда компьютерные системы может создавать реалистичные фотографии людей, которых не существует.

Недавно фальшивый профиль LinkedIn с созданным компьютером изображением профиля попал в новости, потому что он успешно связался с официальными лицами США и другими влиятельными лицами в сетевая платформа, например. Эксперты по контрразведке даже говорят, что шпионы регулярно создают фантомные профили с такими фотографиями, чтобы отслеживать иностранные цели через социальные сети.

Эти глубокие фейки становятся широко распространенными в повседневной культуре, а это означает, что люди должны лучше понимать, как они используются в маркетинге, рекламе и социальных сетях. Изображения также используются в злонамеренных целях, таких как политическая пропаганда, шпионаж и информационная война.

Все эти реалистичные лица были сгенерированы компьютером. (NVIDIA/thispersondoesnotexist.com)

Для их создания используется так называемая глубокая нейронная сеть — компьютерная система, имитирующая способ обучения мозга. Это «обучается», подвергая его воздействию все более крупных наборов данных реальных лиц.

Фактически, две глубокие нейронные сети настроены друг против друга, конкурируя за создание наиболее реалистичных изображений. В результате конечные продукты называются образами GAN, где GAN означает Generative Adversarial Networks. В процессе создаются новые изображения, которые статистически неотличимы от тренировочных изображений.

В нашем исследовании, опубликованном в iScience, мы показали, что неспособность отличить эти искусственные лица от реальных влияет на наше поведение в Интернете. Наше исследование показывает, что поддельные изображения могут подорвать наше доверие к другим и коренным образом изменить то, как мы общаемся в Интернете.

Мы с коллегами обнаружили, что люди воспринимали лица GAN как более настоящие, чем настоящие фотографии реальных людей. лица людей. Хотя пока неясно, почему это так, это открытие подчеркивает последние достижения в технологии, используемой для создания искусственных изображений.

И мы также обнаружили интересную связь с привлекательностью: лица, которые были оценены как менее привлекательные, также были оцениваются как более реальные.

Менее привлекательные лица могут считаться более типичными, а типичное лицо может использоваться в качестве эталона, по которому оцениваются все лица. Следовательно, эти лица GAN будут выглядеть более реальными, потому что они больше похожи на ментальные шаблоны, которые люди построили из повседневной жизни.

Но восприятие этих искусственных лиц как подлинных может также иметь последствия для общего уровня доверия, которое мы распространяться на круг незнакомых людей – понятие, известное как «социальное доверие».

Мы часто слишком много читаем на лицах, которые мы видеть, и первые впечатления, которые мы формируем, определяют наши социальные взаимодействия. Во втором эксперименте, который стал частью нашего последнего исследования, мы увидели, что люди с большей вероятностью доверяют информации, передаваемой лицами, которые они ранее считали реальными, даже если они были созданы искусственно.

Это не так. удивительно, что люди больше доверяют лицам, которые они считают реальными. Но мы обнаружили, что доверие было подорвано, как только люди были проинформированы о потенциальном присутствии искусственных лиц в онлайн-взаимодействии. Затем они показали более низкий уровень доверия, в целомнезависимо от того, были ли лица реальными или нет.

Этот результат можно рассматривать как в некотором смысле полезен, потому что он сделал людей более подозрительными в среде, где могут действовать поддельные пользователи. С другой стороны, однако, это может постепенно разрушить саму природу нашего общения.

В целом мы склонны исходить из исходного предположения, что другие люди в основном правдивы и заслуживают доверия. Рост количества поддельных профилей и другого искусственного онлайн-контента поднимает вопрос о том, насколько их присутствие и наши знания о них могут изменить это состояние «истины по умолчанию», в конечном итоге подорвав доверие общества.

Изменение наших установок по умолчанию

Переход к миру, в котором реальное неотличимо от ложного, также может привести к тому, что культурный ландшафт с преимущественно правдивого станет в основном искусственным и обманчивым.

Если мы регулярно подвергаем сомнению правдивость того, что мы сталкиваемся в Интернете, это может потребовать от нас перенаправить наши умственные усилия с обработки самих сообщений на обработку личности мессенджера. Другими словами, широкое использование очень реалистичного, но искусственного онлайн-контента может заставить нас думать по-другому — так, как мы этого не ожидали.

В психологии мы используем термин, называемый «мониторинг реальности». «за то, как мы правильно определяем, исходит ли что-то из внешнего мира или из нашего мозга. Развитие технологий, которые могут создавать поддельные, но очень реалистичные лица, изображения и видеозвонки, означает, что мониторинг реальности должен основываться на информации, отличной от наших собственных суждений.

Это также требует более широкого обсуждения того, может ли человечество по-прежнему могут позволить себе по умолчанию быть правдой.

Для людей крайне важно быть более критичными при оценке цифровых лиц. Это может включать использование обратного поиска изображений для проверки подлинности фотографий, осторожность в отношении профилей в социальных сетях с небольшим количеством личной информации или большим количеством подписчиков, а также осведомленность о возможности использования технологии дипфейков в гнусных целях.

Следующим рубежом в этой области должны стать улучшенные алгоритмы обнаружения поддельных цифровых лиц. Затем их можно будет встроить в платформы социальных сетей, чтобы помочь нам отличить настоящее от подделки, когда дело доходит до лиц новых знакомых.

Манос Цакирис, профессор психологии, директор Центра изучения Политика чувств, Лондонский университет Королевского Холлоуэя

Эта статья перепечатана из The Conversation под лицензией Creative Commons. Прочтите исходную статью.

Виктория Ветрова

Космос полон тайн...

Недавние Посты

Ученые показали первый крупный план звезды за пределами нашей галактики, сделанный человечеством

Звезда, находящаяся на расстоянии более 160 000 световых лет от Земли, только что стала эпическим объектом…

22.11.2024

Астрономы представили впечатляющие новые изображения лица Солнца

74 миллиона километров — это огромное расстояние, с которого можно что-то наблюдать. Но 74 миллиона…

22.11.2024

Самая известная теория Эйнштейна только что преодолела самый большой вызов за всю историю

Математика, которую Альберт Эйнштейн разработал для описания гравитационного механизма физической Вселенной в начале 20 века,…

21.11.2024

Почти треть всех звезд может содержать остатки планет, подобных Земле

В последние годы астрономы разработали методы измерения содержания металлов в звездах с чрезвычайной точностью. Обладая…

20.11.2024

Новая технология печати ДНК может произвести революцию в том, как мы храним данные

Какими бы эффективными ни были электронные системы хранения данных, они не имеют ничего общего с…

19.11.2024

У этого странного кристалла две точки плавления, и мы наконец знаем, почему

В 1896 году немецкий химик Эмиль Фишер заметил нечто очень странное в молекуле под названием…

19.11.2024