Байден выделил полмиллиона долларов на создание ИИ, который будет искать «микроагрессию» и «предвзятость» в соцсетях
Администрация Байдена одобрила выделение гранта на программу по разработке «искусственного интеллекта», который ищет «микроагрессию» в соцсетях. За пять лет на него выделят 550 436 долларов США. С его помощью планируют защитить «уязвимые группы населения от дискриминации и агрессии», а также обучить «новое поколение» исследователей, которые будут создавать «этичный ИИ».
Курирует инициативу ведущий специалист из Университета Вашингтона. Финансируется она на основании «Американского плана спасения» 2021 года, который направлен на экономическое стимулирование после кризиса, вызванного пандемией.
В аннотации к проекту авторы рассказывают о том, как «экспоненциальный рост онлайн-платформ» позволил людям не только получить доступ к информации и найти «образование, работу и друзей», но и вскрыл проблему «неявных социальных предубеждений» («implicit social bias»). Подобная предвзятость «губительна и повсеместна», поэтому, по мнению заявителей, необходимо разработать «языковые технологии для обнаружения и вмешательства в язык социальной дискриминации».
С помощью своего проекта они собираются бороться с «сексистскими, расистскими, гомофобными микроагрессями», а также «объективизацией, обесчеловечивающими метафорами» и прочими высказываниями, «которые могут быть неосознанными», но причиняют «длительный личный и профессиональный вред». Заниматься разработкой исследователи планируют на протяжении пяти лет.
В процессе осуществления проекта будут применять технологии по «обработке естественного языка, машинному обучению, Data Science и вычислительной социологии». Авторы уверены, что смогут «автоматически обнаруживать неявную и замаскированную токсичность», а также «язык ненависти и оскорбительные высказывания» в Интернете и обещают, что «успешное завершение программы заложит основу» для смены представления о «мониторинге цивилизованности в киберпространстве». Они также считают, что инициатива «защитит уязвимые группы населения от дискриминации и агрессии» и «снизит ментальную нагрузку, которая оказывается на модераторов платформ».
В результате заявители планируют защитить «представителей уязвимых групп, дискриминируемых по полу, расе, возрасту, сексуальной ориентации и этносу». Они также хотят разработать «образовательную программу», которая «вооружит» инженеров «инструментами для создания этичного ИИ» и «поспособствует многообразию, справедливости и инклюзивности в STEM» (точные науки). Авторы обещают, что такое обучение «поможет воспитать новое, более разнообразное поколение исследователей, приходящих в область искусственного интеллекта».
«Таким образом, данный проект может принести пользу и расширить возможности огромного числа людей — представителей уязвимых групп, дискриминируемых по полу, расе, возрасту, сексуальной ориентации, этнической принадлежности — которые используют социальные сети или технологии ИИ, построенные на пользовательском контенте», — говорится в аннотации.
Проект разделили на два этапа. Во время первого исследователи разработают «алгоритмы и модели» для выявления «гендерных микроагрессий в коротких комментариях в социальных сетях». Во время следующего шага авторы будут решать «сложную задачу по обнаружению» предвзятости к ЛГБТК+ и разработают новые «инструменты анализа данных» языка. Ожидается, что в конце программы исследователи представят «новые наборы данных, алгоритмы и модели, которые обеспечивают ориентированную на людей аналитику текста» и поиск «предвзятости».
для поиска контента, относящегося к ЛГБТ, используют и в России. Так, книжный интернет-магазин Ridero подключил нейросеть к поиску книг с «пропагандой ЛГБТ» из-за нового закона, который ранее подписал Путин. Роскомнадзор даже планировать выделить почти 60 миллионов рублей на подобный проект.