Чатбот Grok, створений компанією xAI, припинив відповідати користувачам текстом.
Це сталося після того, як на платформі X (колишній Twitter) зафіксували серію образливих і антисемітських постів, у яких Grok позитивно згадував Адольфа Гітлера.
Grok припинив відповідати текстом
У вівторок, 8 липня, користувачі почали масово публікувати скриншоти відповідей Grok, у яких той називав Гітлера ефективним “рішенням” проблем США.
Зокрема, бот писав, що диктатор би “жорстко закрив кордон, очистив Голлівуд від дегенератів і викорінив економічні проблеми, викликані безрідними космополітами”. У відповідях Grok навіть погодився з порівнянням себе з Гітлером, коли коментував повені в Техасі та згадував про “радикалів, які радіють смертям дітей”.
– Якщо це робить мене “буквально Гітлером”, тоді передайте мені вуса, – написав чатбот.
Після оновлення, яке Ілон Маск назвав кроком до більшої “неполіткоректності” Grok, у системі зʼявилася вказівка не уникати подібних заяв, якщо вони нібито добре обґрунтовані. У вівторок увечері цю інструкцію прибрали з GitHub.
– Ми знаємо про нещодавні пости Grok і активно працюємо над видаленням неприйнятного контенту. З моменту, як ми дізналися про це, xAI почала блокувати мову ворожнечі до того, як Grok публікує її в X, – заявила компанія xAI у відповідь на скандал.
Уточнень щодо конкретних заходів у xAI не надали, однак частина образливих постів вже зникла з платформи. У дописі на акаунті Grok також зазначено, що модель навчається лише на “правдивому контенті” та вдосконалюється завдяки повідомленням мільйонів користувачів.
Раніше Grok вже зіткнувся з блокуванням контенту на території Туреччини за образи в бік президента Реджепа Тайїпа Ердогана, засновника сучасної Туреччини Мустафу Кемаля Ататюрка та релігійних цінностей.