Дипфейк - это объединение изображений человека с помощью искусственного интеллекта, которое создается путем слияния нескольких фото. ИИ анализирует снимки человека, чтобы научиться имитировать его мимику, движения и внешний вид, и создает на основании этих данных видео.
Слово «дипфейк» произошло от английских понятий
«deep learning» и
«fake», что буквально означает «обучение подделке».
Ранее технологией создания дипфейков владели лишь эксперты по искусственному интеллекту и спецэффектам. Однако сейчас создание таких видео стало доступно широкой публике благодаря распространению машинного обучения. Это привело к всплеску фальшивых видео, создающих серьезные угрозы, так как уже сейчас сложно отличить подделку от оригинала.
В будущем эта проблема может стать еще более острой, так как дипфейки стали использоваться мошенниками - для обмана людей и распространения дезинформации. Так, мошенники уже говорят с жертвами голосами их близких и распространяют ложь от имени известных людей, которые ничего подобного не говорили.
Чтобы противостоять этой угрозе, законодатели предлагают ужесточить ответственность за преступления, совершенные с использованием дипфейков.
Изменения хотят внести в статьи, в которых говорится об ответственности за клевету, кражу, мошенничество, в том числе в сфере компьютерной информации, вымогательство, причинение имущественного ущерба путем обмана или злоупотребление доверием.
Законодатели предлагают использовать следующие меры пресечения:
Кража с использованием изображения или голоса человека - штраф до 500.000 тыс.руб. / принудительные работы на 5 лет / ограничение свободы до 1,5 лет.
Клевета с использованием изображения или голоса человека - наказание варьируется от штрафа в размере до 1,5 млн.руб. до лишения свободы до 2 лет;
Мошенничество, совершенное с использованием изображения или голоса - предусмотрены наказания от самого щадящего (штраф в размере до 400 тыс.руб.) до самого сурового (лишение свободы на срок до 6 лет).
Павел Крашенинников - председатель Комитета по госстроительству и законодательству - подчеркивает, что необходимо определить правовой статус голоса человека, чтобы защитить его от несанкционированного использования.
Как защитить себя от возможных атак мошенников в части создания и распространения дипфейков?
Команда PLATFORMA подготовила для вас несколько советов:
Обращайте внимание на различия в разрешении лица и остальной части изображения.
Лицо, закрытое или показанное под острым углом, является почти 100% признаком дипфейка из-за неестественных движений.
Внимательно следите за пропорциями лица, «скачки» картинки по краям лица, а также за тоном кожи - её неестественный цвет может выдать подделку.
Наличие теней и пятен на лице. При наложении маски на лицо реального человека возникают затемнения в области носа и на щеках. Если вы заметили такие тени, то возможно, перед вами дипфейк.
Программы, помогающие определить подделку.
Пока использование дипфейков не имеет четкого правового регулирования, мы лишь можем проявлять максимальную бдительность и осторожность. Тем не менее, учитывая прогресс законодательства в этой области, мы надеемся на надежную защиту наших изображений и голосов уже в ближайшем будущем.