Safe Superintelligence (SSI), недавно основанная бывшим главным научным сотрудником OpenAI Ильёй Суцкевером, привлекла $1 млрд для разработки безопасных систем искусственного интеллекта, которые значительно превзойдут возможности человека, сообщили руководители компании агентству Reuters.

В SSI, где на данный момент работает всего 10 человек, планируют направить полученные средства на приобретение вычислительных мощностей и привлечение высококлассных специалистов. Основное внимание будет уделено созданию небольшой команды доверенных исследователей и инженеров, которые будут разделены между офисами в Пало-Альто и Тель-Авиве.

Компания отказалась раскрыть свою оценочную стоимость, но источники, близкие к делу, утверждают, что оценка составляет около $5 млрд. Привлечённое финансирование подчёркивает готовность инвесторов делать крупные ставки на исключительные таланты, сосредоточенные на фундаментальных исследованиях в области ИИ. Это происходит на фоне общего снижения интереса к инвестициям в подобные компании, которые могут быть убыточными на протяжении длительного времени. Именно из-за таких рисков несколько основателей стартапов покинули свои посты в пользу работы в технологических гигантах.

Среди инвесторов SSI — ведущие венчурные компании Andreessen Horowitz, Sequoia Capital, DST Global и SV Angel. В проекте также участвует инвестиционное партнёрство NFDG, управляемое Натом Фридманом и генеральным директором SSI Даниэлем Гроссом.

Тема безопасности ИИ, которая подразумевает предотвращение причинения вреда искусственным интеллектом, активно обсуждается на фоне опасений, что неконтролируемые ИИ могут действовать против интересов человечества или даже стать причиной его исчезновения.

В Калифорнии идёт активное обсуждение законопроекта, призванного ввести регуляцию безопасности для компаний, занимающихся ИИ. Этот законопроект вызвал раскол в отрасли: против него выступают компании вроде OpenAI и Google, а поддержку ему оказывают Anthropic и xAI Илона Маска.

Илья Суцкевер, которому 37 лет, является одним из самых влиятельных специалистов в области ИИ. Он основал SSI в июне этого года совместно с Даниэлем Гроссом, который ранее возглавлял ИИ-направления в Apple, и Даниэлем Леви, бывшим исследователем в OpenAI. В новой компании Суцкевер занял пост главного научного сотрудника, Леви стал ведущим научным сотрудником, а Гросс отвечает за вычислительные мощности и привлечение инвестиций.

Новый вектор развития

Суцкевер пояснил, что его новое предприятие появилось потому, что он «увидел новую вершину, отличную от той, над которой работал ранее». В прошлом году он был членом совета директоров материнской некоммерческой организации OpenAI и участвовал в голосовании за отставку генерального директора Сэма Альтмана. Однако уже через несколько дней он изменил своё решение и присоединился к практически всем сотрудникам OpenAI, подписавшим письмо с требованием вернуть Альтмана и распустить совет директоров. Эти события привели к снижению его роли в компании, и в мае Суцкевер покинул OpenAI. После его ухода компания распустила команду «Супераллаймента», работавшую над тем, чтобы ИИ оставался согласованным с человеческими ценностями в преддверии того дня, когда тот превзойдёт человеческий разум.

В отличие от необычной корпоративной структуры OpenAI, которая была введена для повышения безопасности ИИ, но сделала возможным увольнение Альтмана, SSI является обычной коммерческой компанией.

Сейчас SSI сосредоточена на поиске людей, которые смогут вписаться в её культуру. По словам Гросса, много времени уходит на проверку того, обладает ли кандидат «хорошими качествами», и предпочтение отдают людям с исключительными способностями, а не тем, кто может похвастаться внушительными регалиями и опытом в области ИИ.

«Нас вдохновляет, когда мы находим людей, которые интересуются работой, а не популярностью и ажиотажем вокруг неё», — добавил он.

SSI планирует сотрудничать с облачными провайдерами и производителями чипов для удовлетворения своих потребностей в вычислительных мощностях, но пока не определилась, с какими именно компаниями будет работать. Стартапы в области ИИ часто сотрудничают с такими компаниями, как Microsoft и Nvidia для решения инфраструктурных задач.

Суцкевер был одним из первых сторонников гипотезы масштабирования, согласно которой производительность ИИ-моделей улучшается при условии использования огромных объёмов вычислительных мощностей. Эта идея и её реализация вызвали волну инвестиций в чипы, дата-центры и энергию, что заложило основу для появления генеративных ИИ, таких как ChatGPT.

Однако теперь Суцкевер намерен подойти к масштабированию по-другому, хотя детали пока не раскрывает.

«Все говорят о гипотезе масштабирования, но никто не задаётся вопросом: что именно мы масштабируем?» — отметил он. «Некоторые люди могут работать очень много часов и просто пойти по тому же пути быстрее. Но это не наш подход. Однако если сделать что-то иначе, появляется возможность создать нечто особенное».

Ещё по теме: