Создатели нейросети Claude обратились к мировым религиям в поисках идеальной морали для ИИ

Получится ли у Кремниевой долины оцифровать душу?

2 мин.
Создатели нейросети Claude обратились к мировым религиям в поисках идеальной морали для ИИ

Компания Anthropic привлекает духовных лидеров разных конфессий, чтобы научить искусственный интеллект принимать этические решения.

Оригинальным «чёрным ящиком» в истории человечества была вовсе не нейросеть, а Кааба — кубическая постройка в центре Заповедной мечети в Мекке. До того как пророк Мухаммед покорил этот город, Кааба служила универсальным хранилищем для трёхсот шестидесяти священных символов со всего региона. Если вы, скажем, были занятым купцом по пути в Медину, вы точно знали: какими бы ни были великие духовные истины Вселенной, они точно есть где-то там, внутри. Достаточно было помолиться Каабе, чтобы «закрыть вопрос» с божественным покровительством и спокойно отправиться по своим делам.

Судя по всему, компания Anthropic пытается проделать нечто подобное со своей языковой моделью Claude.

На прошлой неделе представители Anthropic вместе с коллегами из OpenAI посетили в Нью-Йорке круглый стол под названием «Завет веры и ИИ» (Faith-AI Covenant). Встреча собрала внушительный состав духовных лидеров: там присутствовали члены Нью-Йоркского совета раввинов, Индуистского храмового общества Северной Америки, Церкви Иисуса Христа Святых последних дней (мормоны), Сикхской коалиции США, а также Американской архиепископии Греческой православной церкви.

Этот шаг стал логичным продолжением кампании, начатой месяцем ранее. Тогда стало известно, что Anthropic организовала серию встреч и ужинов с пятнадцатью христианскими лидерами. Разработчики искали у них совета и наставлений по «духовному развитию» своего искусственного интеллекта. Ещё тогда в компании обмолвились, что планируют аналогичные дискуссии с моральными авторитетами других конфессий.

Из недавнего материала Associated Press, посвящённого круглому столу в Нью-Йорке, не до конца ясно, связаны ли обе эти инициативы в единую программу, и участвовали ли в новой встрече те же сотрудники Anthropic, что и в христианском саммите. Журналисты Gizmodo попытались получить комментарий у компании, но ответа пока не последовало.

Интересно, что, хотя инициаторами диалога выступили OpenAI и Anthropic, организацией мероприятия занималась швейцарская некоммерческая организация «Межконфессиональный альянс за безопасные сообщества» (Interfaith Alliance for Safer Communities). В планах альянса — проведение подобных встреч в Китае, Кении и Объединённых Арабских Эмиратах. Ещё одним ключевым партнёром инициативы названа баронесса Джоанна Шилдс, член британской Палаты лордов.

Каких-то конкретных религиозных инструкций для ИИ по итогам этих встреч опубликовано не было. Однако в так называемой «Конституции» (своде правил) нейросети Claude есть раздел, который проливает свет на философские терзания разработчиков. Anthropic пытается решить сложнейшую задачу: научить машину принимать решения так, как это сделал бы человек с идеальными моральными ценностями, особенно в ситуациях, когда чёткого правила не существует, а цена ошибки слишком высока. В самом документе создатели признаются: этот подход выбран «в первую очередь из-за опасений, что наши попытки наделить Claude достаточно хорошими этическими ценностями потерпят неудачу».

Румман Чоудхури, генеральный директор некоммерческой организации Humane Intelligence, дала происходящему довольно жёсткую оценку. В комментарии для AP она отметила:

«Я думаю, на протяжении пары лет у Кремниевой долины был очень наивный взгляд на генеративный ИИ: они верили, что мы сможем прийти к неким универсальным принципам этики. Но они очень быстро поняли, что это не так. Это нереально. И теперь они рассматривают религию как способ справиться с неопределённостью в этически неоднозначных ситуациях».

Разработчики действительно ищут ответы в религии. Но вряд ли стоит ожидать, что после этих встреч сотрудники Anthropic внезапно уверуют и загрузят в Claude догматы какой-то конкретной конфессии. Скорее, они пытаются вычленить этические истины высшего порядка и заодно продемонстрировать миру, что испробовали все возможные средства в поисках безопасного пути для развития технологий.

Верить ли в то, что машина, принимающая судьбоносные решения, сможет синтезировать безупречную мораль после пары ужинов её создателей с иерархами мировых религий — вопрос открытый. Возможно, это действительно не повредит, как не вредил кивок в сторону доисламской Каабы. Но, как говорится, пути Господни неисповедимы.

Мы в Telegram, на Дзен, в Google News и YouTube