У вас может появиться цифровой двойник раньше, чем вы думаете. Что он может сделать с вашими данными?

У вас может появиться цифровой двойник раньше, чем вы думаете. Что он может сделать с вашими данными? (DKosig/E+/Getty Images)

Цифровой двойник — это копия человека, продукта или процесса, созданная с использованием данных. Это может звучать как научная фантастика, но некоторые утверждают, что в течение следующего десятилетия у вас, вероятно, появится цифровой двойник.

Как копия человека, цифровой двойник — в идеале — будет принимать те же решения, что и вы бы заработали, если бы вам представили те же материалы.

Это может показаться еще одним спекулятивным утверждением футуристов. Но это гораздо более вероятно, чем людям хотелось бы верить.

Хотя мы склонны предполагать, что мы особенные и уникальные, при наличии достаточного количества информации искусственный интеллект (ИИ) может сделать множество выводов о наши личности, социальное поведение и решения о покупке.

Эра больших данных означает, что собирается огромное количество информации (так называемые «озера данных») о ваших явных взглядах и предпочтениях, а также о поведенческих следах, которые вы оставить позади.

Не менее неприятным является объем, в котором организации собирают наши данные. В 2019 году компания Walt Disney приобрела Hulu — компанию, у которой, как указывали журналисты и активисты, сомнительная репутация в плане сбора данных.

Кажущиеся безобидными приложения для телефона, вроде тех, что используются для заказа кофе, могут собирать данные. огромное количество сообщений от пользователей каждые несколько минут.

Скандал с Cambridge Analytica иллюстрирует эти опасения, поскольку пользователи и регулирующие органы обеспокоены перспективами того, что кто-то сможет определить, предсказать и изменить их поведение.

Но насколько мы должны быть обеспокоены?

Высокая и низкая точность воспроизведения

В имитационных исследованиях точность определяется тем, насколько близко копия или модель соответствует своей цели. Верность симулятора относится к степени реализма симуляции по отношению к реальным ссылкам. Например, гоночная видеоигра обеспечивает изображение, скорость которого увеличивается и уменьшается, когда мы нажимаем клавиши на клавиатуре или контроллере.

В то время как симулятор вождения может иметь ветровое стекло, шасси, рычаг переключения передач и газ и педали тормоза, видеоигра имеет более низкую степень точности, чем симулятор вождения.

Цифровой двойник требует высокой степени точности, которая могла бы включать в себя информацию из реального мира в реальном времени. Сейчас на улице идет дождь, в симуляторе будет дождь.

Цифровые двойники в промышленности могут иметь радикальные последствия. Если мы сможем смоделировать систему взаимодействия человека и машины, у нас будет возможность распределять ресурсы, предвидеть нехватку и поломки и делать прогнозы.

Цифровой двойник человека будет включать в себя огромное количество данных о предпочтения, предубеждения и поведение человека, а также иметь возможность получать информацию о непосредственном физическом и социальном окружении пользователя, чтобы делать прогнозы.

Эти требования означают, что создание настоящего цифрового двойника являются отдаленной возможностью в ближайшем будущем. Количество датчиков, необходимых для накопления данных и производительности процесса, необходимых для поддержания виртуальной модели пользователя, будет огромным. В настоящее время разработчики соглашаются на модель с низкой точностью.

Этические проблемы

Создание цифрового двойника поднимает социальные и этические проблемы, касающиеся целостности данных, точности прогнозов модели, возможностей наблюдения. требуется для создания и обновления цифрового двойника, а также права собственности и доступа к цифровому двойнику.

Премьер-министр Великобритании Бенджамин Дизраэли часто цитируют высказывание: «Существует три вида лжи: ложь, наглая ложь и статистика», подразумевая, что цифрам нельзя доверять.

Собранные о нас данные основаны на сборе и анализе статистики о нашем поведении и привычках, чтобы делать прогнозы о том, как мы будем вести себя в определенных ситуациях.

Это мнение отражает непонимание того, как статистики собирают и интерпретируют данные, но вызывает серьезное беспокойство.

Один из наиболее важных этических вопросов, связанных с цифровым двойником, связан с количественным заблуждением, которое предполагает, что числа имеют цель, означающую развод выделены из их контекста.

Когда мы смотрим на числа, мы часто забываем, что они имеют особое значение, которое исходит от инструментов измерения, используемых для их сбора. И инструмент измерения может работать в одном контексте, но не в другом.

При сборе и использовании данных мы должны осознавать, что выборка включает в себя определенные функции, а не другие. Часто этот выбор делается из соображений удобства или из-за практических ограничений технологии.

Мы должны критически относиться к любым заявлениям, основанным на данных и искусственном интеллекте, потому что проектные решения нам недоступны. Мы должны понимать, как данные собирались, обрабатывались, использовались и представлялись.

Дисбаланс власти

Дисбаланс власти вызывает растущее общественное обсуждение вопросов, касающихся данных, конфиденциальности и слежки. .

В меньших масштабах это может вызвать или увеличить цифровое неравенство — разрыв между теми, кто имеет доступ к цифровым технологиям, и теми, у кого нет доступа к ним. В больших масштабах это угрожает новым колониализмом, основанным на доступе к информации и технологиям и контроле над ними.

Даже создание цифровых двойников с низким уровнем достоверности дает возможность контролировать пользователей, делать выводы об их поведении, пытаться влиять на них и представлять их другим.

Хотя это может помочь в сфере здравоохранения или образования, отказ предоставить пользователям возможность доступа к своим данным и их оценки может поставить под угрозу индивидуальную автономию и коллективное благо общества.

Субъекты данных не имеют доступа к тем же ресурсам, что и крупные корпорации и правительства. Не хватает времени, обучения и, возможно, мотивации. Необходим последовательный и независимый надзор для обеспечения защиты наших цифровых прав. Разговор

Джордан Ричард Шонхерр, доцент кафедры психологии, Concordia Университет.

Эта статья переиздана из The Conversation под лицензией Creative Commons. Прочтите исходную статью.

logo