Перед увольнением гендиректора OpenAI сотрудники предупредили руководство о разработке «потенциально опасного» ИИ — Reuters

Увольнению гендиректора OpenAI Сэма Альтмана предшествовало письмо о проекте общего искусственного интеллекта, который разрабатывали в компании — сообщает Reuters со ссылкой на источники. Оно было одной из причин конфликта совета директоров с Альтманом.

Источники Reuters описали письмо, о котором ранее не сообщалось. Журналистам не удалось ознакомиться с его текстом или деталями описанной в нём инициативы, однако само существование такой разработки позднее подтвердили во внутренней рассылке.

В своём обращении сотрудники OpenAI просили руководство обратить внимание на проект так называемого «сильного искусственного интеллекта» под рабочим названием «Q*». Известно, что кроме исследователей ИИ над ним работал и Альтман. 

Сообщается, что Q* уже смогла решить некоторые математические задачи. По данным собеседников издания, сейчас модель занимается математикой на уровне учеников начальной школы. Тем не менее, возможность по-настоящему «решать» математические задачи может означать, что ИИ уже может «мыслить».

В письме исследователи также написали, что такой мощный ИИ может быть «потенциально опасным». Источники Reuters не стали объяснять, что именно сотрудники компании имели в виду.

Вероятно, Альтман уже незаметно анонсировал Q* во время своего недавнего выступления в Сан-Франциско, во время саммита Азиатско-Тихоокеанского экономического сотрудничества в ноябре. Тогда он заявил, что за несколько недель до презентации находился «в комнате, в которой отодвигают завесу невежества и границу открытий», но не стал вдаваться в подробности. 

Согласно статье, Q* должен стать прототипом «сильного искусственного интеллекта» (AGI). Современные модели, которые для простоты называют «искусственным интеллектом», фактически, основаны на математической статистике об уже имеющихся объектах. Такие проекты называют «слабым искусственным интеллектом», так как он изучает то, что загрузят в него люди или специальные алгоритмы, придуманные людьми. Даже во время «обучения» или «самообучения» такие нейросети просто пополняют и корректируют свои статистистические данные. Из-за этого подобные проекты работают только в «узкой» сфере и называются narrow artificial intelligence (NAI). 

Например, разработанный всё той же OpenAI чат-бот ChatGPT обрабатывает только тексты и собирает свои статистические данные на основе чужих текстов. Такая модель позволила ему получить удовлетворительные баллы не некоторых экзаменах, хотя организаторам приходилось убирать задания с картинками, которые должны выполнять реальные студенты. При этом, на самом деле, такие языковые модели не могут «понимать» вопрос, который им задают. Так, ChatGPT постоянно ошибался, когда его просили подсчитать количество букв «н» в слове «банан», и соглашался с утверждением «1+0,9=1,8».

Интеллект типа AGI, в отличие от «слабых» моделей, должен уметь «мыслить» и «самообучаться» по аналогии с тем, как это делают люди и другие животные. Зачастую его также называют «задачей AGI», так как на данный момент никто не смог продемонстрировать его рабочую модель, а исследователям только предстоит разработать нечто подобное. Считается, что создание реального AGI станет прорывом в технологическом развитии, в том числе потому, что, в теории, он сможет заниматься реальными научными исследованиями.

На прошлой неделе совет директоров OpenAI уволил Альтмана с поста гендиректора за «недостаточную откровенность». Вскоре СМИ сообщили, что инвесторы потребовали вернуть его в фирму. Уже тогда было известно, что совет директоров сомневался насчёт «безопасности мощных инструментов», которые пытался внедрить Альтман. Вскоре Microsoft объявила, что мужчина будет работать в их отделе исследований ИИ. Позже стало известно, что он всё же вернётся в OpenAI.