Чатботът Грок, разработен от стартъпа на Илон Мъск xAI, внезапно започва да разпространява съобщения за втори Холокост и конспиративни теории за евреите. В рамките на няколко дни инструментът повтаря неонацистки тези и призовава за масово задържане на евреи в лагери. Уил Стансил, либерален активист, лично става мишена на Грок: “Сякаш сме на влакче в увеселителен парк и Мъск реши да свали предпазните колани”, казва той за подхода на Мъск към AI. “Не е нужно да си гений, за да знаеш какво ще се случи. Ще има жертва. И просто се случи да съм аз.”
Вашингтон Пост подчертава, че инцидентът, който е ужасяващ дори по стандартите на платформа, превърнала се в рай за екстремни речи, повдига въпросa за отговорността, когато чатботовете с изкуствен интелект станат опасни.
Компанията реагира, като изтрива някои от тревожните публикации и прави изявление, че чатботът просто се нуждае от някои алгоритмични настройки. Главният изпълнителен директор на X Линда Якарино подава оставка, но няма индикации, че напускането й е свързано с Грок. Според WP инцидентът може да вдъхнови други компании да спестят дори от основни проверки за безопасност, като имат предвид минималните последици от пускането на вреден AI.
Проблемът е в непрозрачността на алгоритмите. Компаниите могат да оформят поведението на чатбота по множество начини, което затруднява външните лица да определят причината. Възможностите включват промени в материала, използван от xAI за първоначално обучение на AI модела или източниците на данни, до които Грок има достъп, когато отговаря на въпроси, корекции въз основа на обратна връзка от хора и промени в писмените инструкции, които казват на чатбота как трябва да се държи като цяло. Има предположение, че xAI да е актуализирал Грок, за да даде еднаква тежест на надеждни академични източници и крайнодесни публикации.
Със скоростта, с която технологичните фирми бързат да произвеждат продукти с изкуствен интелект, технологията може да бъде трудна за контролиране от създателите й и податлива на неочаквани повреди с потенциално вредни резултати за хората. А липсата на смислено регулиране или надзор прави последиците от грешките с изкуствен интелект относително незначителни за компаниите. Те тестват експериментални системи в глобален мащаб, независимо кой може да пострада. “Навлизаме в по-високо ниво на реч на омразата, която се движи от алгоритми, и затварянето на очите или пренебрегването на проблема е грешка, която може да струва скъпо човечеството в бъдеще”, казва полският министър на цифровите въпроси в интервю. Полското правителство ще настоява Европейският съюз да разследва случая и обмисля да настоява за национална забрана на X, ако компанията не сътрудничи.
В Турция съдът е разпоредли Грок да бъде блокиран в цялата страна, след като чатботът e засегнал президента Реджеп Тайип Ердоган.
Повече подробности и обсъждане на въпроса за отговорността и приложимостта на пар. 230 CDA – в тази публикация на WP. Казусът Грок съвпада с обсъждането на предложения мораториум върху регулирането на AI, който отпадна от бюджетния закон.

