Чат-бот Grok, созданный компанией Илона Маска, из-за сбоя упоминал «белый геноцид» в Южной Африке в ответах на несвязанные с этим вопросы. Проблему устранили за несколько часов, но она вызвала бурные обсуждения в сети.

Фото: unsplash
Искусственный интеллект Grok, разработанный xAI, в среду неожиданно начал упоминать «белый геноцид» в Южной Африке, отвечая на вопросы о бейсболе, строительных лесах и программном обеспечении. Пользователи заметили, что бот ссылается на «геноцид», даже если запросы не касались этой темы. Как пишет The Guardian, Grok утверждал, что его «создатели» велели считать «геноцид» реальным и расово мотивированным, хотя доказательств этому нет.
Сбой вызвал волну критики, так как «белый геноцид» — это теория заговора, продвигаемая крайне правыми. Grok также называл «спорной» песню «Убей бура», связанную с борьбой против апартеида. Позже бот признал ошибку, сославшись на южноафриканский суд 2025 года, который опроверг расовую мотивацию нападений на фермеров.
Проблему устранили, удалив некорректные ответы. Grok сообщил, что сбой произошел из-за противоречивых инструкций от xAI, и пообещал впредь опираться только на проверенные данные.
Ранее Bzzz.news сообщал, что экологи обнаружили опасные выбросы от суперкомпьютера Маска.