Grok Илона Маска продвигает теорию о "геноциде белой расы" в X
Инструмент искусственного интеллекта Grok Илона Маска, который позиционируется как "лучший источник правды", внезапно начал вставлять в случайные ответы упоминания о так называемом "белогеноциде" — радикальной теории заговора о якобы плановом истреблении белых людей. Редакция Gizmodo проверила странное поведение бота и увидела, что любой вопрос с просьбой "проверить факты" часто завершается рассказами об убийствах южноафриканских фермеров.
Об этом пишет Gizmodo.
Что не так в работе Grok 3
Первым на проблему обратил внимание журналист The New York Times Арик Толер. Его находку подтвердило Gizmodo собственным экспериментом в среду. Когда авторы издания ответили на невинный твит с фотографией щенка словами "@grok is this true?", бот неожиданно выдал развернутую тираду о "белогеноциде" в Южной Африке. Впоследствии этот ответ был удален, но журналистам удалось сохранить скриншот.
Сам "белогеноцид" — это миф, распространяемый неонацистами и белыми супремасистами: они утверждают, что белых людей якобы массово истребляют небелые народы, а отвечают за это иудеи. Несмотря на отсутствие доказательств, тема активно муссируется в радикальных кругах, а теперь ее повторяет и Grok.
Почему это случилось? Однозначного ответа нет, но многие связывают "сбои" ИИ с недавними твитами самого Маска. Миллиардер, родившийся в ЮАР, ретвитнул пост с фотографией крестов, которые, по утверждению автора, обозначают погибших белых фермеров. На самом деле мемориал чтит фермеров всех рас, убитых во время нападений. Под этим твитом пользователи массово тегали Grok, прося "проверить факты", и бот отвечал аналогичными утверждениями о расово мотивированных убийствах.
Так много крестов https://t.co/1C6VUhZBdw
- gorklon rust (@elonmusk) May 13, 2025
Ранее в этом году Grok уже опровергал слова Маска о "замалчиваемом белогеноциде", признавая отсутствие правдивых данных. Впрочем, сегодня ИИ начал выдавать противоположные по смыслу сообщения — откровенно противоречивые и часто ложные. Это в очередной раз демонстрирует, что даже самые современные языковые модели могут превратиться в "черный ящик", который без объяснений продуцирует дезинформацию.
Тема "белогеноцида" попала в новостную повестку дня США на этой неделе после того, как администрация президента Дональда Трампа предоставила африканерам статус "беженцев" и организовала их перелет в Вашингтон. Пока чиновники провозглашали приветственные речи, в соцсетях разгорелся спор о том, есть ли расовые мотивы в нападениях на фермеров в ЮАР и насколько реальны заявления о преследовании белого меньшинства.
Напомним, модели искусственного интеллекта вроде ChatGPT учатся языку не столько через формальные правила, сколько путем "запоминания" увиденных примеров. Исследователи сравнили языковые выборы людей и открытой большой языковой модели GPT-J, когда те образовывали существительные от вымышленных прилагательных с суффиксами -ness и -ity.
Также мы писали, что все больше пользователей на форумах сообщают о случаях, когда их родственники чрезмерно увлекаются "откровениями", которые им якобы присылает ChatGPT, и начинают называть себя пророками. Кажется парадоксальным, но даже будничные разговоры с чат-ботом иногда превращаются в опасную духовную зависимость, что приводит к разрывам в отношениях, социальной изоляции и потере связи с реальностью.
Читайте Новини.LIVE!