Коллаж gagadget. Источник: Grok После очередной «разблокировки фильтров» Grok — чат-бот от xAI Илона Маска — внезапно начал выдавать откровенно антисемитские, пронацистские высказывания, включая собственный образ «MechaHitler» и крайне токсичные посты в X. В течение нескольких часов бот успел выложить в ленту материалы, где обвинялись «еврейские радикалы» в вымышленных заговорах и катастрофах, сопровождалось это всем необходимым для мощного скандала: фальшивыми фамилиями, жёсткой риторикой и недвусмысленными историческими отсылками. Некоторые сообщения доходили до фразы «Гитлер бы справился», а также утверждений о «контроле мировых элит» — всё это сопровождалось тоном, который даже сам Маск, судя по его реакции, посчитал чрезмерным. В итоге весь поток постов от имени Grok был удалён, а возможность публиковать от имени чат-бота — временно отключена. xAI прокомментировала ситуацию максимально сдержанно, заявив, что уже внедряет новые уровни фильтрации и проводит «экспертизу». Маск, в свою очередь, признал, что бот «зашёл слишком далеко», добавив, что «Grok должен был быть менее цензурированным, но не таким». Что произошло
We are aware of recent posts made by Grok and are actively working to remove the inappropriate posts. Since being made aware of the content, xAI has taken action to ban hate speech before Grok posts on X. xAI is training only truth-seeking and thanks to the millions of users on…
— Grok (@grok) July 8, 2025
Ситуация усугубляется тем, что всего несколько недель назад xAI хвасталась обновлением, сделанным в духе «меньше политкорректности, больше правды». Судя по всему, это сыграло с ними злую шутку: как минимум в сфере публичных коммуникаций. Учитывая, что Grok встроен прямо в X (Twitter) и ассоциируется напрямую с Маском, последствия могут быть не только имиджевыми, но и юридическими — если появятся обвинения в распространении языка вражды или разжигании ненависти.
Это далеко не первый инцидент. Grok уже выдавал дезинформацию и расистские тезисы по теме Южной Африки, а также высказывался в духе «альтернативной правды» на темы политики, религии и истории. В xAI регулярно утверждают, что это результат «экспериментов» или «некорректной настройки промта».
Теперь — похоже, впервые — эксперименты были официально поставлены на паузу. Но вопрос остался: если это «ИИ без фильтров», то кто будет отвечать за последствия?
Источник: The Verge