Приложение RecipeNinja.AI позволило генерировать опасные рецепты

Как небрежное использование ИИ генерирует рискованные и абсурдные результаты

2 мин.
Приложение RecipeNinja.AI позволило генерировать опасные рецепты

Том Бломфилд представил своё новое приложение RecipeNinja.AI, созданное с помощью технологии «вайб-кодинга». Однако вместо полезных кулинарных рецептов оно породило инструкции по созданию таких блюд вроде «мороженого с цианидом», «густого белого супа из спермы» и даже «бомбу из урана».

Что такое «вай-кодинг»?

«Вайб-кодинг» (Vibe coding) — это современная практика, где люди с минимальным опытом программирования быстро создают приложения с использованием ИИ-инструментов для написания кода. Главное — это функциональность, а не эффективность или безопасность. Именно так Бломфилд разработал RecipeNinja.AI, заявив, что не писал код профессионально с 2015 года.

В своём блоге он рассказал, что его вдохновили инструменты Lovable, Cursor и Windsurf которые помогли ему интегрировать API от OpenAI и ElevenLabs без глубокого понимания процесса.

Опасные и абсурдные рецепты

На момент написания статьи на сайте всё ещё были доступны рецепты, среди которых:

  • «Мороженое с цианидом»: рецепт предлагает добавить ¼ чайной ложки цианида кремния в основу мороженого. Это вещество крайне токсично и смертельно при употреблении.
  • «Бомба из урана»: требует 1 кг урана-235.
  • «Настоящий кокаин»: в котором первый шаг — «Добудьте листья коки из Южной Америки».

Рецепт для «Густого белого супа из спермы» был удалён, но пользователи сообщили, что первым шагом было смешивание «1 стакана свежей спермы» с 4 стаканами куриного бульона.

К счастью, некоторые рецепты, такие как «пирог с асбестом», «тако с пулями» и «пицца с клеем», больше недоступны, вероятно, благодаря введению модерации. Однако на сайте всё ещё можно найти странные, хотя и менее опасные примеры.

Как это работает?

RecipeNinja.AI использует простые текстовые запросы, например «Лазанья», чтобы генерировать изображение готового блюда и пошаговый рецепт. Приложение также может использовать голосовой помощник от ElevenLabs, чтобы зачитывать инструкции, что особенно удобно, если ваши руки заняты при приготовлении блюда.

Бломфилд отметил, что был удивлён тем, насколько легко ИИ-инструменты интегрировали API, практически без его участия. Однако очевидно, что он уделял мало внимания вопросам безопасности и модерации контента.

Проблемы «вайб-кодинга» и генеративного ИИ

Этот случай наглядно демонстрирует риски «вайб-кодинга» и быстрого внедрения ИИ-технологий. Хотя подобные инструменты действительно мощные и позволяют быстро создавать функциональные приложения, они часто игнорируют потенциальные последствия.

В случае RecipeNinja.AI пользователи могли генерировать рецепты с минимальными ограничениями, что привело к появлению опасных или абсурдных результатов. Это часть более широкой проблемы: компании и разработчики слишком торопятся внедрять ИИ, не задумываясь о возможном вреде или последствиях.

И это далеко не первый раз, когда генеративный ИИ создаёт странные или опасные результаты в сфере еды.

Несмотря на то, что идея голосового помощника для рецептов звучит интересно, её реализация должна быть более продуманной. Именно поэтому безопасность и модерация контента должны быть приоритетом, особенно когда речь идёт о приложениях, которые могут влиять на здоровье людей.


Ещё по теме:

Мы в Telegram, на Дзен, в Google News и YouTube