OpenAI ужесточает контроль над разработкой потенциально опасных моделей ИИ

0
102

OpenAI ужесточает контроль над разработкой потенциально опасных моделей ИИ

Мария Шалабаева/Unsplash

OpenAI, разработчик популярного чат-бота ChatGPT, реализует дополнительные элементы управления для снижения риска создания вредоносных моделей искусственного интеллекта. 

Что известно

В частности, OpenAI создает специальную консультативную группу по безопасности. Он оценит риски от разработанных моделей по нескольким направлениям: кибербезопасность, дезинформация, автономность и другие.

Группа сможет давать рекомендации высшему руководству компании о запрете или ограничении определенных проектов. Кроме того, совет директоров OpenAI будет иметь право вето на решения руководства.

По мнению компании, эти меры позволят ей лучше выявлять потенциальные угрозы на ранних этапах разработки. Однако эксперты отмечают, что реальная эффективность системы зависит от установок самого руководства OpenAI.

Ранее из совета были исключены сторонники ограничения рискованных ИИ-проектов. А новые члены совета известны скорее своей коммерческой позицией. Насколько они будут склонны использовать право вето на практике, неизвестно.

НОВОСТИ ПАРТНЕРОВ

БОЛЬШЕ НОВОСТЕЙ