Мария Шалабаева/Unsplash
OpenAI, разработчик популярного чат-бота ChatGPT, реализует дополнительные элементы управления для снижения риска создания вредоносных моделей искусственного интеллекта.
Что известно
В частности, OpenAI создает специальную консультативную группу по безопасности. Он оценит риски от разработанных моделей по нескольким направлениям: кибербезопасность, дезинформация, автономность и другие.
Группа сможет давать рекомендации высшему руководству компании о запрете или ограничении определенных проектов. Кроме того, совет директоров OpenAI будет иметь право вето на решения руководства.
По мнению компании, эти меры позволят ей лучше выявлять потенциальные угрозы на ранних этапах разработки. Однако эксперты отмечают, что реальная эффективность системы зависит от установок самого руководства OpenAI.
Ранее из совета были исключены сторонники ограничения рискованных ИИ-проектов. А новые члены совета известны скорее своей коммерческой позицией. Насколько они будут склонны использовать право вето на практике, неизвестно.