Руководитель американской компании OpenAI Сэм Альтман во время прошедшей женевской конференции, посвящённой искусственному интеллекту, в ходе своего доклада сравнил современные нейросети с человеческим мозгом.
Эксперт подчеркнул, что биологи и нейроучёные не до конца понимают, что именно происходит в голове человека на уровне коммуникации нейронов. Но при этом есть возможность попросить конкретного человека придерживаться определённых правил и описать, как именно происходит его мыслительный процесс.
То же самое, как заявил Сэм Альтман, сейчас происходит с популярными моделями искусственного интеллекта — разработчики не могут точно и до конца объяснить, как именно функционируют подобные технологии, однако способны научить их выполнять определённые действия и придерживаться определённых правил. Интересно, что Сэм Альтман не стал отвечать конкретно на вопрос о безопасности такого подхода в отношении систем искусственного интеллекта, чей потенциал до сих пор не известен.
При этом Сэм Альтман отдельно заявил, что его компания на текущий момент не решила вопрос интерпретируемости, то есть понимания того, как именно нейросеть принимает решения по конкретному запросу. У эксперта спросили, безопасно ли разрабатывать и выпускать в общее пользование более мощные модели LLM, если принцип функционирования их предшественников до сих пор не понятен. На это руководитель компании OpenAI заявил, что считает современные технологии искусственного интеллекта, разработкой которых занимается его организация, безопасными и надёжными, поэтому обязан развивать их и дальше.
Эксперты рынка при этом отмечают, что разработчикам современных технологий искусственного интеллекта, в том числе и нейросети ChatGPT, известно, что модели LLM создают новый контент на основе данных их обучения. Кроме того, такие модели способны обучаться со временем, что делает их более эффективными. Большие языковые модели компании OpenAI, как отмечают аналитики, с высокой долей вероятности не имеют какого-либо эмоционального интеллекта и человеческого сознания, но при этом всё равно демонстрируют схожесть с мозгом людей. Потому тяжело понять, как именно искусственный интеллект приходит к своим выводам.
Стоит напомнить, что несколько недель назад экс-члены правления американской компании OpenAI Хелен Тонер и Таша МакКоли рассказали во время общения с журналистами издания The Economist, что на данный момент руководство американского разработчика нацелено на получение исключительно дополнительной прибыли, а не на улучшение безопасности своих продуктов.
Ещё по теме:
- Российский космонавт Кононенко первым в мире суммарно провёл в космосе 1000 суток
- «Тинькофф» становится Т-Банком: Новый этап в развитии известного банка
- Сотрудники OpenAI предупредили об опасностях продвинутого ИИ