» » Эксперты предупредили об угрозе использования дипфейков для идентификации по биометрии

Регистрация
Популярное
Ваши политические взгляды
Правые
Левые
Центристские
Другое



Июнь 2024 (96)
Май 2024 (181)
Апрель 2024 (167)
Март 2024 (184)
Февраль 2024 (172)
Январь 2024 (161)


0

Эксперты предупредили об угрозе использования дипфейков для идентификации по биометрии

категория: Новости, Политика » Эксперты предупредили об угрозе использования дипфейков для идентификации по биометриидата: 16-09-2023, 07:30

Эксперты предупредили об угрозе использования дипфейков для идентификации по биометрии
Эксперты предупредили об угрозе использования дипфейков для идентификации по биометрии


Эксперты предупреждают об угрозе атак на системы дистанционной биометрической идентификации и аутентификации при помощи дипфейков.
Об этом «Русской Весне» сообщили в пресс-службе депутата Госдумы РФ Антона Немкина.
Например, созданный при помощи искусственного интеллекта образ могут использовать мошенники для подтверждения транзакций от имени человека. Противостоять таким угрозам поможет просветительская работа, привлечение внимания к проблеме, а также маркировка дипфейков и усложнение процесса идентификации.
Группа по безопасности искусственного интеллекта (ИИ) Европейского института телекоммуникационных стандартов (European Telecommunications Standards Institute, ETSI) предупредила о рисках атак на системы дистанционной биометрической идентификации и аутентификации с помощью дипфейков.
В опубликованном отчете отмечается, что сегодня дистанционная идентификация с помощью видео уже применяется многими европейскими банками — например, для открытия счетов клиентов. Для аутентификации пользователей при подтверждении транзакций также используются системы распознания голоса.
При этом уровень безопасности этих систем и их способность противостоять дипфейк-атакам далеко варьируется, подчеркнули авторы отчета. В частности, злоумышленников могут использовать биометрические данные, полученные без согласия людей, а также полностью сгенерировать их при помощи искусственного интеллекта.
При помощи социальной инженерии также могут быть созданы образы официальных лиц для того, чтобы направлять запросы сотрудникам на перевод денег. Исследование показало, что порядка 40% компаний или их клиентов уже столкнулись с подобными атаками.
В отчете эксперты предлагают несколько вариантов того, как противостоять такой угрозе, как дипфейк-атаки на биометрические системы. Среди них — просветительская работа, привлечение внимания к проблеме, разработка регулирующих актов, требующих маркировки дипфейков.
Кроме того, такие атаки можно сделать менее успешными при помощи высокоуровневых запросно-ответных протоколов. Например, для видеоидентификации можно ввести необходимость совершить специфические движения, передвинуть объекты рядом, а для голосовой — попросить произнести сложно выговариваемые слова.
«Более надёжным методом противостояния рискам для компаний и организаций может стать разработка тщательно проработанных процессов, где важные решения и транзакции одобряются не на основе внутренней биометрической аутентификации, но всегда подтверждаются по стандартной процедуре, включающей мультифакторную аутентификацию», — заключили авторы отчёта.
Дипфейк-технологии уже сегодня могут использоваться не только в развлекательных целях, но и в мошеннических и противоправных, напомнил член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин.
«Уже сегодня злоумышленники применяют новые технологии в своих преступных целях. Например, при помощи искусственного интеллекта могут создаваться образы известных высокопоставленных людей, от их лица могут быть сделаны фейковые громкие заявления, что приведет к крайне серьезным и даже опасным последствиям.
С дальнейшим внедрением идентификации при помощи биометрии в разных сегментах экономики угроз, связанных с дипфейками, будет становиться все больше. Именно поэтому сегодня так важно разработать механизмы регулирования использования дипфейк-технологий, в частности, обязательной маркировки созданных при их помощи продуктов.
Кроме того, важно продолжать разработку систем, которые помогают в выявлении дипфейков. В АНО „Диалог регионы”, например, уже используют новую систему выявления дипфейков „Зефир”.
Она умеет в реальном времени анализировать аудиовизуальный контент и определять, причастен ли к его созданию искусственный интеллект. Сегодня применение таких систем нужно масштабировать, так как они становятся обязательным условием обеспечения информационной безопасности наших граждан», — заключил депутат.
Ранее о том, что российские компании и государство на сегодняшний день уже разрабатывают технологии по выявлению дипфейков и маркировке контента в сети, рассказал замглавы Минцифры Александр Шойтов. По его словам, первые результаты этой работы могут появиться уже в этом году.






Смотрите также: 


Теги: при помощи могут для на

Другие новости по теме:

Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь.
Мы рекомендуем Вам зарегистрироваться либо войти на сайт под своим именем.
Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.