2 ноября 2022, 12:46
Роскомнадзор разрабатывает систему, которая будет распознавать дипфейки и ложь на видео
В преддверии выборов в Сенат США Роскомнадзор вместе с НИУ ИТМО тестируют сервис Expert, который будет распозновать «ложь» по видеозаписи с помощью искусственного интеллекта, в том числе и дипфейки, — пишет Коммерсантъ.
По словам одного из собеседников «Ъ», прототип был представлен Роскомнадзору на заседании экспертного совета ГРЧЦ по ИИ в июле: «Присутствовал глава Роскомнадзора Андрей Липов, которого решение заинтересовало. Он попросил как можно скорее передать его ведомству на тестирование».
Как пояснили в ИТМО, система Expert анализирует видео или аудио, оценивая уверенность, уровень агрессии внутренней и внешней, конгруэнтность (уровень согласованности информации, передаваемой вербальным и невербальным способом) и противоречивость, сравнивает слова с научными статьями и высказываниями других специалистов. На данный момент система «заточена на работу с английским языком», поскольку большинство открытых библиотек вместе с дата-сетами для обучения ИИ написаны именно на нём.
«Мы проанализировали опубликованные на YouTube интервью шести кандидатов на предмет противоречивости, агрессии и уверенности в себе», — рассказал руководитель научно-исследовательской лаборатории «Когнитивная невербалика» НЦКР ИТМО Олег Басов.
По его словам, в заявлениях трех кандидатов система обнаружила скрытую агрессию, а одного из них удалось уличить во лжи. Однако «доработка системы для получения текста из речи на русском языке стоит в ближайших планах». Как отмечают IT-эксперты, «для переобучения под русский потребуется большой массив данных и затраты».
Deepfake — метод синтеза данных, который позволяет заменять в оригинальных видеороликах элементы изображения. Технология позволяет создавать фейковые видеозаписи с заявлениями известных личностей, в том числе политиков.
Как сообщает издание, аналогичные разработки велись и на Западе: в 2017 году в США Университет Мэриленда и Дартмутский колледж создали нейросеть, распознающую ложь, которую обучали на видеозаписях судебных процессов. Распознаванием лжи в суде через ИИ также занималась американская Innocence Project, используя для анализа Amazon Mechanical Turk.
У российской компании VisionLabs есть экспертиза в разработке детекторов «дипфейков» лиц, и они результативны, говорят в компании: точность работы составляет 94–100%. Но сейчас качество работы нейросети оценивается в плоскости теории вероятности: «Когда такая разработка дойдет даже до пилотной эксплуатации, вероятность ложных срабатываний будет достаточно высока, и потребуются годы, чтобы проект начал приносить пользу».
Кирилл Ляхманов из «ЭБР» подчеркивает, что сама идея анализа «правдивости» или «ложности» утверждений по косвенным признакам, связанным с поведением человека, не выдерживает никакой критики: «Любые виды "детекторов лжи" не признаются доказательством в судах большинства стран».
Ранее Microsoft, Intel, Twitter и BBC хотели привязывать контент, размещаемый в интернете, к пользователю с помощью цифровой подписи, которая будет встраиваться в файлы. В основу механизма предполагалось положить блокчейн. Компании утверждали, что данные меры помогут бороться с дипфейками и дезинформацией.