Grok Ілона Маска просуває теорію про "геноцид білої раси" в X

Чатбот Ілона Маска Grok 3 на екрані смартфона. Фото: Pexels

Інструмент штучного інтелекту Grok Ілона Маска, який позиціюється як "найкраще джерело правди", раптово почав вставляти у випадкові відповіді згадки про так званий "білогеноцид" — радикальну теорію змови про нібито планове винищення білих людей. Редакція Gizmodo перевірила дивну поведінку бота й побачила, що будь-яке запитання з проханням "перевірити факти" часто завершується розповідями про вбивства південноафриканських фермерів.

Про це пише Gizmodo.

Що не так в роботі Grok 3

Першим на проблему звернув увагу журналіст The New York Times Арік Толер. Його знахідку підтвердило Gizmodo власним експериментом у середу. Коли автори видання відповіли на безневинний твіт із фотографією цуценяти словами "@grok is this true?", бот несподівано видав розгорнуту тираду про "білогеноцид" у Південній Африці. Згодом ця відповідь була видалена, але журналістам вдалося зберегти скриншот.

Розповідь про "білогеноцид" у відповіді Grok. Фото: скриншот/Gizmodo

Сам "білогеноцид" — це міф, поширюваний неонацистами й білими супремасистами: вони стверджують, що білих людей начебто масово винищують небілі народи, а відповідають за це юдеї. Попри відсутність доказів, тема активно мусується в радикальних колах, а тепер її повторює й Grok.

Чому це трапилося? Однозначної відповіді немає, але багато хто пов'язує "збої" ШІ з нещодавніми твітами самого Маска. Мільярдер, який народився в ПАР, ретвітнув допис із фотографією хрестів, що, за твердженням автора, позначають загиблих білих фермерів. Насправді ж меморіал вшановує фермерів усіх рас, убитих під час нападів. Під цим твітом користувачі масово тегали Grok, прохаючи "перевірити факти", і бот відповідав аналогічними твердженнями про расово вмотивовані вбивства.

Раніше цього року Grok уже спростовував слова Маска про "замовчуваний білогеноцид", визнаючи відсутність правдивих даних. Втім, сьогодні ШІ почав видавати протилежні за змістом повідомлення — відверто суперечливі й часто неправдиві. Це вкотре демонструє, що навіть найсучасніші мовні моделі можуть перетворитися на "чорну скриньку", яка без пояснень продукує дезінформацію.

Тема "білогеноциду" потрапила до новинного порядку дня США цього тижня після того, як адміністрація президента Дональда Трампа надала африканерам статус "біженців" і організувала їхній переліт до Вашингтона. Поки чиновники проголошували вітальні промови, у соцмережах розгорілася суперечка щодо того, чи є расові мотиви в нападах на фермерів у ПАР і наскільки реальними є заяви про переслідування білої меншини.

Нагадаємо, моделі штучного інтелекту на кшталт ChatGPT навчаються мови не стільки через формальні правила, скільки шляхом "запам'ятовування" побачених прикладів. Дослідники порівняли мовні вибори людей і відкритої великої мовної моделі GPT-J, коли ті утворювали іменники від вигаданих прикметників із суфіксами -ness та -ity.

Також ми писали, що дедалі більше користувачів на форумах повідомляють про випадки, коли їхні родичі надмірно захоплюються "одкровеннями", які їм нібито надсилає ChatGPT, і починають називати себе пророками. Здається парадоксальним, але навіть буденні розмови з чатботом іноді перетворюються на небезпечну духовну залежність, що призводить до розривів у стосунках, соціальної ізоляції та втрати зв'язку з реальністю.