Майкрософт
Исследователи обнаружили, что чат-бот Bing (теперь Copilot) предоставил неверную информацию о недавних выборах в Швейцарии и Германии. Согласно отчету правозащитной группы AlgorithmWatch, почти треть ответов инструмента на вопросы о выборах содержала фактические ошибки.
Что известно
В частности, в ответах были указаны неправильные даты, результаты голосования, а также упоминались кандидаты, не принимавшие участия в выборах. При этом Бинг часто ссылался на реальные источники, однако приведенные им цифры отличались от первоначальных данных.
Исследователи отмечают, что защитные механизмы Бинга были неоднородными. В 30% случаев ответы были правильными, а в 39% чат-бот отказался отвечать. Однако он допустил серьезные фактические ошибки, когда дело касалось фактов, а не мнений.
Microsoft заявила, что предпринимает шаги для повышения точности платформ искусственного интеллекта, особенно в отношении выборов. Однако риск дезинформации со стороны чат-ботов вызывает растущую обеспокоенность.