МВД России напомнило, что современные ИИ позволяют создавать реалистичные видео и изображения для розыгрышей или мошенничества. В ведомстве привели пример: подростки генерируют видео неопрятного мужчины, будто находящегося дома, и показывают его родителям. Реакция взрослых фиксируется на видео и публикуется в соцсетях. Как от этого защититься, рассказывают РИА Новости.
Хотя такие розыгрыши безобидны, они показывают, как легко нейросети создают дипфейки. Современные алгоритмы подгоняют мимику и голос под текст, поэтому видео выглядит достоверно. Это создает риски, в том числе для распространения фейковых новостей, ложных заявлений публичных лиц или мошеннических предложений.
Чтобы не стать жертвой, МВД рекомендует:
Проверять источник видео или фото, особенно если оно пришло из непонятного места.
Обращать внимание на мелкие ошибки: неровные контуры лица, дрожащие тени, странные движения губ и глаз, несоответствие звука.
Сравнивать контекст и поведение человека с его реальными действиями или публичными заявлениями.
Делать поиск изображения через Google или Яндекс.
Также можно использовать сервисы для анализа видео на признаки ИИ-монтажа. Но важно помнить: ни одна технология не гарантирует стопроцентную защиту. Алгоритмы лишь оценивают вероятность подделки, а окончательное решение всегда за человеком.