Категории: Новости

Люди, которых не существует, выглядят более реальными, чем настоящие люди, показало исследование

Даже если вы думаете, что хорошо разбираетесь в лицах, исследования показывают, что многие люди не могут надежно отличить фотографии реальных лиц от изображений, созданных компьютером.

Это особенно проблематично сейчас, когда компьютерные системы может создавать реалистичные фотографии людей, которых не существует.

Недавно фальшивый профиль LinkedIn с созданным компьютером изображением профиля попал в новости, потому что он успешно связался с официальными лицами США и другими влиятельными лицами в сетевая платформа, например. Эксперты по контрразведке даже говорят, что шпионы регулярно создают фантомные профили с такими фотографиями, чтобы отслеживать иностранные цели через социальные сети.

Эти глубокие фейки становятся широко распространенными в повседневной культуре, а это означает, что люди должны лучше понимать, как они используются в маркетинге, рекламе и социальных сетях. Изображения также используются в злонамеренных целях, таких как политическая пропаганда, шпионаж и информационная война.

Все эти реалистичные лица были сгенерированы компьютером. (NVIDIA/thispersondoesnotexist.com)

Для их создания используется так называемая глубокая нейронная сеть — компьютерная система, имитирующая способ обучения мозга. Это «обучается», подвергая его воздействию все более крупных наборов данных реальных лиц.

Фактически, две глубокие нейронные сети настроены друг против друга, конкурируя за создание наиболее реалистичных изображений. В результате конечные продукты называются образами GAN, где GAN означает Generative Adversarial Networks. В процессе создаются новые изображения, которые статистически неотличимы от тренировочных изображений.

В нашем исследовании, опубликованном в iScience, мы показали, что неспособность отличить эти искусственные лица от реальных влияет на наше поведение в Интернете. Наше исследование показывает, что поддельные изображения могут подорвать наше доверие к другим и коренным образом изменить то, как мы общаемся в Интернете.

Мы с коллегами обнаружили, что люди воспринимали лица GAN как более настоящие, чем настоящие фотографии реальных людей. лица людей. Хотя пока неясно, почему это так, это открытие подчеркивает последние достижения в технологии, используемой для создания искусственных изображений.

И мы также обнаружили интересную связь с привлекательностью: лица, которые были оценены как менее привлекательные, также были оцениваются как более реальные.

Менее привлекательные лица могут считаться более типичными, а типичное лицо может использоваться в качестве эталона, по которому оцениваются все лица. Следовательно, эти лица GAN будут выглядеть более реальными, потому что они больше похожи на ментальные шаблоны, которые люди построили из повседневной жизни.

Но восприятие этих искусственных лиц как подлинных может также иметь последствия для общего уровня доверия, которое мы распространяться на круг незнакомых людей – понятие, известное как «социальное доверие».

Мы часто слишком много читаем на лицах, которые мы видеть, и первые впечатления, которые мы формируем, определяют наши социальные взаимодействия. Во втором эксперименте, который стал частью нашего последнего исследования, мы увидели, что люди с большей вероятностью доверяют информации, передаваемой лицами, которые они ранее считали реальными, даже если они были созданы искусственно.

Это не так. удивительно, что люди больше доверяют лицам, которые они считают реальными. Но мы обнаружили, что доверие было подорвано, как только люди были проинформированы о потенциальном присутствии искусственных лиц в онлайн-взаимодействии. Затем они показали более низкий уровень доверия, в целомнезависимо от того, были ли лица реальными или нет.

Этот результат можно рассматривать как в некотором смысле полезен, потому что он сделал людей более подозрительными в среде, где могут действовать поддельные пользователи. С другой стороны, однако, это может постепенно разрушить саму природу нашего общения.

В целом мы склонны исходить из исходного предположения, что другие люди в основном правдивы и заслуживают доверия. Рост количества поддельных профилей и другого искусственного онлайн-контента поднимает вопрос о том, насколько их присутствие и наши знания о них могут изменить это состояние «истины по умолчанию», в конечном итоге подорвав доверие общества.

Изменение наших установок по умолчанию

Переход к миру, в котором реальное неотличимо от ложного, также может привести к тому, что культурный ландшафт с преимущественно правдивого станет в основном искусственным и обманчивым.

Если мы регулярно подвергаем сомнению правдивость того, что мы сталкиваемся в Интернете, это может потребовать от нас перенаправить наши умственные усилия с обработки самих сообщений на обработку личности мессенджера. Другими словами, широкое использование очень реалистичного, но искусственного онлайн-контента может заставить нас думать по-другому — так, как мы этого не ожидали.

В психологии мы используем термин, называемый «мониторинг реальности». «за то, как мы правильно определяем, исходит ли что-то из внешнего мира или из нашего мозга. Развитие технологий, которые могут создавать поддельные, но очень реалистичные лица, изображения и видеозвонки, означает, что мониторинг реальности должен основываться на информации, отличной от наших собственных суждений.

Это также требует более широкого обсуждения того, может ли человечество по-прежнему могут позволить себе по умолчанию быть правдой.

Для людей крайне важно быть более критичными при оценке цифровых лиц. Это может включать использование обратного поиска изображений для проверки подлинности фотографий, осторожность в отношении профилей в социальных сетях с небольшим количеством личной информации или большим количеством подписчиков, а также осведомленность о возможности использования технологии дипфейков в гнусных целях.

Следующим рубежом в этой области должны стать улучшенные алгоритмы обнаружения поддельных цифровых лиц. Затем их можно будет встроить в платформы социальных сетей, чтобы помочь нам отличить настоящее от подделки, когда дело доходит до лиц новых знакомых.

Манос Цакирис, профессор психологии, директор Центра изучения Политика чувств, Лондонский университет Королевского Холлоуэя

Эта статья перепечатана из The Conversation под лицензией Creative Commons. Прочтите исходную статью.

Виктория Ветрова

Космос полон тайн...

Недавние Посты

Новый сверхбыстрый чип открывает путь к загрузке фильмов в разрешении 4K за считанные секунды

Представьте себе будущее, в котором подключение к Интернету будет не только молниеносным, но и удивительно…

07.09.2024

Одинокий космический зонд измеряет истинную тьму Вселенной

Далеко-далеко от дома одинокий космический зонд мчится все глубже во тьму космоса.На расстоянии всего лишь…

07.09.2024

Чужие планеты могут оказаться в ловушке бесконечного дня или вечной ночи

Спят ли инопланетяне? Вы можете воспринимать сон как нечто само собой разумеющееся, но исследования показывают,…

07.09.2024

Невероятный эксперимент открыл способ сделать кожу прозрачной

С помощью дикой биологической манипуляции, которая кажется прямо из научной фантастики, исследователи сделали части живых…

06.09.2024

Исследование предполагает, что вулканическая активность Луны произошла всего 120 миллионов лет назад

Три крошечные микроскопические стеклянные бусины, извлеченные с поверхности Луны, показывают, что дикое прошлое крупнейшего естественного…

06.09.2024

Намеки на скрытую структуру, обнаруженную на краю Солнечной системы

Если вы отойдете достаточно далеко от Солнца, Солнечная система станет намного более населенной.За орбитой Нептуна…

06.09.2024