Галлюцинации ИИ угрожают научной достоверности — исследование

0
126

Галлюцинации искусственного интеллекта угрожают научному авторитету – исследование

Гроутика/Unsplash

Способность больших языковых моделей (LLM) генерировать ложный, но убедительный контент представляет собой прямую угрозу науке и научной истине. Об этом говорится в исследовании Оксфордского института Интернета.

Что известно

Способность генеративного искусственного интеллекта «создавать» информацию называется галлюцинациями. По словам исследователей, студенты-магистры права, обученные на данных Интернета, не могут гарантировать точность ответов.

Наборы данных могут содержать ложные утверждения, мнения и неточную информацию. Кроме того, чрезмерная зависимость людей от чат-ботов может усугубить проблему.

Соавтор исследования Брент Миттельштадт отметил, что пользователи антропоморфизируют выпускников LLM, воспринимая их ответы как истину. Частично этому способствует интерфейс чат-ботов, которые общаются с людьми и вроде бы отвечают на любой вопрос уверенно звучащим, хорошо написанным текстом.

В науке особенно важно опираться на достоверные данные. Чтобы избежать галлюцинаций ИИ, исследователи рекомендуют использовать LLM в качестве «переводчика с нулевым результатом». Это означает, что пользователи должны передавать алгоритму соответствующие данные и просить его преобразовать их, а не полагаться на модель как на источник знаний.

Это облегчает проверку правильности результата.

Исследователи не отрицают, что LLM поможет организовать научный процесс. Однако они попросили сообщество использовать ИИ более ответственно.

НОВОСТИ ПАРТНЕРОВ

БОЛЬШЕ НОВОСТЕЙ