Grok Илона Маска продвигает теорию о "геноциде белой расы" в X

Grok AI Илона Маска продвигает фейк о "белогеноциде" в X — что пишет
Чат-бот Илона Маска Grok 3 на экране смартфона. Фото: Pexels
Ключові моменти Что не так в работе Grok 3

Инструмент искусственного интеллекта Grok Илона Маска, который позиционируется как "лучший источник правды", внезапно начал вставлять в случайные ответы упоминания о так называемом "белогеноциде" — радикальной теории заговора о якобы плановом истреблении белых людей. Редакция Gizmodo проверила странное поведение бота и увидела, что любой вопрос с просьбой "проверить факты" часто завершается рассказами об убийствах южноафриканских фермеров.

Об этом пишет Gizmodo.

Реклама
Читайте также:

Что не так в работе Grok 3

Первым на проблему обратил внимание журналист The New York Times Арик Толер. Его находку подтвердило Gizmodo собственным экспериментом в среду. Когда авторы издания ответили на невинный твит с фотографией щенка словами "@grok is this true?", бот неожиданно выдал развернутую тираду о "белогеноциде" в Южной Африке. Впоследствии этот ответ был удален, но журналистам удалось сохранить скриншот.

Белогеноцид Grok 3
Рассказ о "белогеноциде" в ответе Grok. Фото: скриншот/Gizmodo

Сам "белогеноцид" — это миф, распространяемый неонацистами и белыми супремасистами: они утверждают, что белых людей якобы массово истребляют небелые народы, а отвечают за это иудеи. Несмотря на отсутствие доказательств, тема активно муссируется в радикальных кругах, а теперь ее повторяет и Grok.

Почему это случилось? Однозначного ответа нет, но многие связывают "сбои" ИИ с недавними твитами самого Маска. Миллиардер, родившийся в ЮАР, ретвитнул пост с фотографией крестов, которые, по утверждению автора, обозначают погибших белых фермеров. На самом деле мемориал чтит фермеров всех рас, убитых во время нападений. Под этим твитом пользователи массово тегали Grok, прося "проверить факты", и бот отвечал аналогичными утверждениями о расово мотивированных убийствах.

Ранее в этом году Grok уже опровергал слова Маска о "замалчиваемом белогеноциде", признавая отсутствие правдивых данных. Впрочем, сегодня ИИ начал выдавать противоположные по смыслу сообщения — откровенно противоречивые и часто ложные. Это в очередной раз демонстрирует, что даже самые современные языковые модели могут превратиться в "черный ящик", который без объяснений продуцирует дезинформацию.

Тема "белогеноцида" попала в новостную повестку дня США на этой неделе после того, как администрация президента Дональда Трампа предоставила африканерам статус "беженцев" и организовала их перелет в Вашингтон. Пока чиновники провозглашали приветственные речи, в соцсетях разгорелся спор о том, есть ли расовые мотивы в нападениях на фермеров в ЮАР и насколько реальны заявления о преследовании белого меньшинства.

Напомним, модели искусственного интеллекта вроде ChatGPT учатся языку не столько через формальные правила, сколько путем "запоминания" увиденных примеров. Исследователи сравнили языковые выборы людей и открытой большой языковой модели GPT-J, когда те образовывали существительные от вымышленных прилагательных с суффиксами -ness и -ity.

Также мы писали, что все больше пользователей на форумах сообщают о случаях, когда их родственники чрезмерно увлекаются "откровениями", которые им якобы присылает ChatGPT, и начинают называть себя пророками. Кажется парадоксальным, но даже будничные разговоры с чат-ботом иногда превращаются в опасную духовную зависимость, что приводит к разрывам в отношениях, социальной изоляции и потере связи с реальностью.

скандал Twitter искусственный интеллект чат-бот Grok
Реклама
Реклама
Реклама
Реклама