Поддержи наш проект

bitcoin support

Наше издание живет благодаря тебе, читатель. Поддержи выход новых статей рублем или криптовалютой.

Подпишись на рассылку

Раз в неделю мы делимся своими впечатлениями от событий и текстов

Новость

11 мая 2023, 12:10

Google пообещал бороться с «токсичностью» и «предвзятостью» в ИИ

Пример цензуры ответа о космонавтах на Луне

Google внедрит цензуру в свои ИИ-разработки. Заявляется, что это поможет бороться с «токсичностью» и предвзятостью. Также компания планирует маркиковать контент, созданный генеративным искусственным интеллектом (GenAI). Об этом во время конференции Google I/O ‘23 рассказали сотрудники бигтех-гиганта.

Во время мероприятия анонсировали ряд крупных разработок и инноваций. Например, в Google пообещали внедрить систему генерации ответов на имейлы на основании имеющихся имейлов, а также рассказали о новой системе поиска, которая позволит задавать сложные и уточняющие вопросы и получать персонализированные ответы.  Помимо прочего, на конференции рассказали про языковую модель следующего поколения PaLM 2 и анонсировали запуск принципиально новой модели Gemini.

Более того, компания открыла доступ к своему собственному чат-боту Bard, который доступен в 180 странах мира. Он всё ещё находится в «экспериментальной» стадии, но способен генерировать полноценные тексты на заданные темы и отвечать на сложные вопросы.

В конце презентации Google анонсировала несколько новых устройств: планшет Pixel Tablet и «гибкий» смартфон Pixel Fold. Их цены начинаются от 499 и 1799 долларов соответственно.

Также на конференции выступал вице-президент отдела Google по этике «Технологии и Общество» Джеймс Маника. Он рассказал, что в компании планируют ограничить возможности искусственного интеллекта, чтобы тот не проявлял «токсичность» или «несправедливую предвзятость». Под последней понимаются любые неудобные выводы, которые можно сделать на основании расы, цвета кожи, этнической принадлежности, религии, пола, сексуальной ориентации, статуса инвалида или гендера.

«Хотя видеть такие смелые и полезные прорывы приятно, ИИ также может усугубить существующие социальные проблемы вроде “несправедливой предвзятости”, а также создать новые проблемы по мере того, как он становится более продвинутым и появляются новые области применения. Вот почему мы считаем необходимым ответственно подходить к ИИ», — заявил руководитель отдела.

Маника рассказал, что в Google планируют цензурировать некоторые ответы с помощью «состязательных проверок» (Adversarial testing), чтобы сократить количество «неточных выводов». Например, сотрудники узнали, что Bard готов обсуждать с пользователями «фейковость» высадки американцев на Луну. Согласно приведённому примеру, компания вручную изменила ответы чат-бота и теперь он сразу заявляет, что астронавты действительно побывали на спутнике Земли в 1969 году.

Помимо прочего, фирма хочет внедрить функции по борьбе с «дезинформацией». В частности, в разделе картинок поисковик будет предлагать материалы «фактчекеров»: заявляется, что это должно помочь пользователям погрузиться в «контекст» материала. Также бигтех-гигант внедрит раздел с метаданными о любых сгенерированных ИИ картинках и будет отдельно помечать их. При этом, для авторов на других сервисах также введут функцию, которая позволит маркировать GenAI контент. Ранее подобное требование к соцсетям выдвинули в Китае.

Также руководитель отдела этики поделился планами насчёт разработанной в Google технологии синхронного перевода (Universal Translator). Программа способна распознать речь человека, перевести её, сгенерировать речь на другом языке и подстроить под движение губ автора видео, что создаёт реалистичный эффект. По словам Маники, его подразделение опасается, что с помощью разработки можно будет создавать реалистичные дипфейки. Из-за этого компания планирует предоставить доступ к Universal Translator исключительно «авторизованным партнёрам» и не откроют инновацию для обычных пользователей.

В «Технологии и Общество» также рассказали, что их программу по борьбе с «токсичностью» — Perspective API — начали изучать и внедрять в различных моделях ИИ. Например, там напомнили, что разработчик ChatGPT, компания OpenAI, внедрила эти «стандарты» в своего чат-бота через свою собственную InstructGPT. Маника подчеркнул, что к цензуре GenAI-разработок планируют привлекать и государство.

«Ответственное создание ИИ должно быть коллективным усилием с участием исследователей, социологов, отраслевых экспертов, правительств и обычных людей, а также авторов и издателей <..> Вот почему мы получаем обратную связь и будем работать с веб-сообществом над тем, как предоставить издателям возможность выбора и контроля над своим веб-контентом», — сказал он в финале своего выступления.

В январе генпрокурор штата Миссури опубликовал документы, согласно которым Google по запросу Белого дома предпринимала меры по борьбе с «сомнением» пользователей относительно вакцин и «плохой» неофициальной информацией о COVID. По данным Politico, экс-гендиректор Google Эрик Шмидт платил чиновникам Белого Дома, чтобы те лоббировали исследования ИИ.

Наш отдел новостей каждый день отсматривает тонны пропаганды, чтобы найти среди неё крупицу правды и рассказать её вам. Помогите новостникам не сойти с ума.

ПОДДЕРЖАТЬ ПРОЕКТ
Карта любого банка или криптовалюта