Дипфейки под контролем: законопроект внесен в Госдуму

Дипфейк - это объединение изображений человека с помощью искусственного интеллекта, которое создается путем слияния нескольких фото. ИИ анализирует снимки человека, чтобы научиться имитировать его мимику, движения и внешний вид, и создает на основании этих данных видео.

Слово «дипфейк» произошло от английских понятий «deep learning» и «fake», что буквально означает «обучение подделке».

Ранее технологией создания дипфейков владели лишь эксперты по искусственному интеллекту и спецэффектам. Однако сейчас создание таких видео стало доступно широкой публике благодаря распространению машинного обучения. Это привело к всплеску фальшивых видео, создающих серьезные угрозы, так как уже сейчас сложно отличить подделку от оригинала.

В будущем эта проблема может стать еще более острой, так как дипфейки стали использоваться мошенниками - для обмана людей и распространения дезинформации. Так, мошенники уже говорят с жертвами голосами их близких и распространяют ложь от имени известных людей, которые ничего подобного не говорили.

Чтобы противостоять этой угрозе, законодатели предлагают ужесточить ответственность за преступления, совершенные с использованием дипфейков.

Изменения хотят внести в статьи, в которых говорится об ответственности за клевету, кражу, мошенничество, в том числе в сфере компьютерной информации, вымогательство, причинение имущественного ущерба путем обмана или злоупотребление доверием.

Законодатели предлагают использовать следующие меры пресечения:

  • Кража с использованием изображения или голоса человека - штраф до 500.000 тыс.руб. / принудительные работы на 5 лет / ограничение свободы до 1,5 лет.
  • Клевета с использованием изображения или голоса человека - наказание варьируется от штрафа в размере до 1,5 млн.руб. до лишения свободы до 2 лет;
  • Мошенничество, совершенное с использованием изображения или голоса - предусмотрены наказания от самого щадящего (штраф в размере до 400 тыс.руб.) до самого сурового (лишение свободы на срок до 6 лет).
  • Павел Крашенинников - председатель Комитета по госстроительству и законодательству - подчеркивает, что необходимо определить правовой статус голоса человека, чтобы защитить его от несанкционированного использования.

    Как защитить себя от возможных атак мошенников в части создания и распространения дипфейков?

    Команда PLATFORMA подготовила для вас несколько советов:

  • Обращайте внимание на различия в разрешении лица и остальной части изображения.
  • Лицо, закрытое или показанное под острым углом, является почти 100% признаком дипфейка из-за неестественных движений.
  • Внимательно следите за пропорциями лица, «скачки» картинки по краям лица, а также за тоном кожи - её неестественный цвет может выдать подделку.
  • Наличие теней и пятен на лице. При наложении маски на лицо реального человека возникают затемнения в области носа и на щеках. Если вы заметили такие тени, то возможно, перед вами дипфейк.
  • Программы, помогающие определить подделку.

  • Пока использование дипфейков не имеет четкого правового регулирования, мы лишь можем проявлять максимальную бдительность и осторожность. Тем не менее, учитывая прогресс законодательства в этой области, мы надеемся на надежную защиту наших изображений и голосов уже в ближайшем будущем.

    Всё о юридических и финансовых технологиях

    Мы пишем о технологиях роста, новых моделях заработка для юристов, неординарных героях со всего мира. Ежедневно публикуем важнейшие юридические новости, обзоры и аналитику.