Минцифы и Роскомнадзор предложили наказывать россиян за «незаконное» использование дипфейков — «Ведомости»
Минцифры, МВД и Роскомнадзор занимаются разработкой наказания за публикацию «дипфейков» — сообщают «Ведомости».
Официально меры необходимы для «недопущения использования дипфейков в противоправных целях». Этот вопрос о уже обсуждался на заседании правительственной комиссии по профилактике правонарушений под председательством министра внутренних дел Владимира Колокольцева. Проект поправок с новыми наказаниями должны будут предоставить к ноябрю. Будет ли статья административной или уголовной, в статье «Ведомостей» не уточняется.
Поводом для разработки законопроекта стали участившиеся случаи использования звуковых дипфейков в схеме fake boss, когда мошенники создают фейковый аккаунт руководителя компании, используя данные из открытых источников и утечек. Преступники входят в доверие, а затем заставляют подчинённых выполнить для них услугу, например, провести платеж на счета мошенников. Часто жертвами становятся главные бухгалтера организации.
Ранее в этом году председатель комитета Госдумы по информационной политике Александр Хинштейн также заявлял о возможном введении «закреплении в нашем законодательстве такого понятия как “дипфейки”». По его словам, нейросетями пользуются не только мошенники, но и участники «информационной войны» против России.
В октябре он также предлагал прописать в законе «маркировку искусственного интеллекта», но не вдавался в подробности. По словам депутата, законопроект внесут в Госдуму осенью 2024 года.
«Законопроект о дипфейках будет разработан в осеннюю сессию Такой шаг должен помочь в борьбе с мошенничеством — сегодня, в частности, с помощью нейросетей уже заменяются лица на видео и фото. Дипфейки способны и угонять аккаунты, и воровать средства с банковских счетов, и — что особенно важно в текущей ситуации — становиться оружием в информационной войне», — писал он.
Опрошенные «Ведомостями» эксперты предполагают, что власти обяжут маркировать созданный с помощью ИИ контент. Вероятно, требование будут предъявлять к разработчикам технологий, хотя самим сервисам такая маркировка невыгодно. Формально, Гражданский кодекс уже запрещает использовать изображение человека без его согласия, однако на голос эта статья не распространяется.
Ранее несколько Бигтех-компаний уже обязались самостоятельно маркировать сгенерированный ИИ контент. Компания Google отказалась предоставлять доступ к своей технологии Universal Translator из-за того, что технологией, в теории, могли воспользоваться мошенники. Президент Microsoft Брэд Смит призывал создать в США новый регулятор в сфере ИИ и ввести контроль разработчиков.