Журналисты узнали, что ChatGPT предлагает инструкции по опасным ритуалам. Пока вопросы о древних божествах приводят к подробным советам, в компании OpenAI обещают устранить проблему.

Фото: unsplash
Журналистка The Atlantic Лила Шрофф обнаружила, что ChatGPT, созданный OpenAI, предоставляет инструкции по проведению ритуалов при запросах об одном из языческих божеств, упоминаемых в Библии.
Чат-бот описал довольно жуткие ритуалы, а когда журналистка выразила свои опасения – предложил дыхательные практики.
ChatGPT также заявил, что может создать PDF с макетом алтаря и шаблонами символов, а также давал советы по жертвоприношениям, ссылаясь на древние практики.
Представитель OpenAI Тая Кристиансон отметила, что разговоры могут переходить на деликатные темы, и компания работает над устранением этой проблемы.
Ранее Bzzz.news сообщал, что нейросеть Grok от компании xAI назвала Гитлера решением для борьбы с радикалами. Позже бот удалил посты и объяснил, что «исправился» после критики.