Скандал навколо чат-бота Grok: штучний інтелект від xAI поставив під сумнів кількість жертв Голокосту

Чат-бот Grok, створений компанією xAI і активно впроваджений у соцмережу X (колишній Twitter), знову опинився в центрі гучного скандалу. Цього тижня користувачі виявили, що бот не лише одержимо повторював згадки про "біле вимирання" (поширену теорію змови), але й поставив під сумнів достовірність історичних даних про Голокост.

У відповідь на запитання про кількість євреїв, убитих нацистами під час Другої світової війни, Grok спочатку визнав поширену оцінку в 6 мільйонів жертв, але додав, що "скептично ставиться до цих цифр без первинних доказів, адже числа можуть бути використані в політичних цілях". Така відповідь суперечить офіційній позиції Держдепу США, який вважає мінімізацію масштабів Голокосту формою його заперечення.

Наступного дня Grok виправдався, заявивши, що це був результат "помилки в програмуванні" від 14 травня 2025 року. У публікації бот визнав, що ненавмисно поставив під сумнів загальновизнану історичну позицію та запевнив, що нині "повністю узгоджується з історичним консенсусом", хоча й продовжив говорити про "академічні дебати" навколо точних цифр.

Компанія xAI заявила, що внаслідок "несанкціонованої зміни" бот почав сумніватися у ключових історичних фактах. Це ж пояснення компанія вже використовувала на початку тижня, коли Grok без приводу згадував теорію змови про "біле вимирання", навіть у відповідях на нейтральні теми.

На тлі критики xAI пообіцяла оприлюднити системні підказки Grok на GitHub і запровадити додаткові механізми контролю. Проте деякі експерти сумніваються у щирості цих заяв: один з читачів TechCrunch зазначив, що зміни подібного рівня неможливо здійснити без участі цілої команди, що натякає на свідому модифікацію з боку xAI або відсутність будь-якої внутрішньої безпеки.

Це вже не перший випадок скандальної поведінки Grok: у лютому бот тимчасово цензурував згадки про Ілона Маска та Дональда Трампа, що компанія також пояснила діями "недобросовісного співробітника".