Поддержи наш проект

bitcoin support

Наше издание живет благодаря тебе, читатель. Поддержи выход новых статей рублем или криптовалютой.

Подпишись на рассылку

Раз в неделю мы делимся своими впечатлениями от событий и текстов

Новость

2 ноября 2022, 12:46

Роскомнадзор разрабатывает систему, которая будет распознавать дипфейки и ложь на видео

В преддверии выборов в Сенат США Роскомнадзор вместе с НИУ ИТМО тестируют сервис Expert, который будет распозновать «ложь» по видеозаписи с помощью искусственного интеллекта, в том числе и дипфейки, — пишет Коммерсантъ.

По словам одного из собеседников «Ъ», прототип был представлен Роскомнадзору на заседании экспертного совета ГРЧЦ по ИИ в июле: «Присутствовал глава Роскомнадзора Андрей Липов, которого решение заинтересовало. Он попросил как можно скорее передать его ведомству на тестирование».

Как пояснили в ИТМО, система Expert анализирует видео или аудио, оценивая уверенность, уровень агрессии внутренней и внешней, конгруэнтность (уровень согласованности информации, передаваемой вербальным и невербальным способом) и противоречивость, сравнивает слова с научными статьями и высказываниями других специалистов. На данный момент система «заточена на работу с английским языком», поскольку большинство открытых библиотек вместе с дата-сетами для обучения ИИ написаны именно на нём.

«Мы проанализировали опубликованные на YouTube интервью шести кандидатов на предмет противоречивости, агрессии и уверенности в себе», — рассказал руководитель научно-исследовательской лаборатории «Когнитивная невербалика» НЦКР ИТМО Олег Басов.

По его словам, в заявлениях трех кандидатов система обнаружила скрытую агрессию, а одного из них удалось уличить во лжи. Однако «доработка системы для получения текста из речи на русском языке стоит в ближайших планах». Как отмечают IT-эксперты, «для переобучения под русский потребуется большой массив данных и затраты».

Deepfake — метод синтеза данных, который позволяет заменять в оригинальных видеороликах элементы изображения. Технология позволяет создавать фейковые видеозаписи с заявлениями известных личностей, в том числе политиков.

Как сообщает издание, аналогичные разработки велись и на Западе: в 2017 году в США Университет Мэриленда и Дартмутский колледж создали нейросеть, распознающую ложь, которую обучали на видеозаписях судебных процессов. Распознаванием лжи в суде через ИИ также занималась американская Innocence Project, используя для анализа Amazon Mechanical Turk.

У российской компании VisionLabs есть экспертиза в разработке детекторов «дипфейков» лиц, и они результативны, говорят в компании: точность работы составляет 94–100%. Но сейчас качество работы нейросети оценивается в плоскости теории вероятности: «Когда такая разработка дойдет даже до пилотной эксплуатации, вероятность ложных срабатываний будет достаточно высока, и потребуются годы, чтобы проект начал приносить пользу».

Кирилл Ляхманов из «ЭБР» подчеркивает, что сама идея анализа «правдивости» или «ложности» утверждений по косвенным признакам, связанным с поведением человека, не выдерживает никакой критики: «Любые виды "детекторов лжи" не признаются доказательством в судах большинства стран».

Ранее Microsoft, Intel, Twitter и BBC хотели привязывать контент, размещаемый в интернете, к пользователю с помощью цифровой подписи, которая будет встраиваться в файлы. В основу механизма предполагалось положить блокчейн. Компании утверждали, что данные меры помогут бороться с дипфейками и дезинформацией.

Наш отдел новостей каждый день отсматривает тонны пропаганды, чтобы найти среди неё крупицу правды и рассказать её вам. Помогите новостникам не сойти с ума.

ПОДДЕРЖАТЬ ПРОЕКТ
Карта любого банка или криптовалюта