Гроутика/Unsplash
Способность больших языковых моделей (LLM) генерировать ложный, но убедительный контент представляет собой прямую угрозу науке и научной истине. Об этом говорится в исследовании Оксфордского института Интернета.
Что известно
Способность генеративного искусственного интеллекта «создавать» информацию называется галлюцинациями. По словам исследователей, студенты-магистры права, обученные на данных Интернета, не могут гарантировать точность ответов.
Наборы данных могут содержать ложные утверждения, мнения и неточную информацию. Кроме того, чрезмерная зависимость людей от чат-ботов может усугубить проблему.
Соавтор исследования Брент Миттельштадт отметил, что пользователи антропоморфизируют выпускников LLM, воспринимая их ответы как истину. Частично этому способствует интерфейс чат-ботов, которые общаются с людьми и вроде бы отвечают на любой вопрос уверенно звучащим, хорошо написанным текстом.
В науке особенно важно опираться на достоверные данные. Чтобы избежать галлюцинаций ИИ, исследователи рекомендуют использовать LLM в качестве «переводчика с нулевым результатом». Это означает, что пользователи должны передавать алгоритму соответствующие данные и просить его преобразовать их, а не полагаться на модель как на источник знаний.
Это облегчает проверку правильности результата.
Исследователи не отрицают, что LLM поможет организовать научный процесс. Однако они попросили сообщество использовать ИИ более ответственно.