Мария Шалабаева/Unsplash
OpenAI объявила о создании новой исследовательской группы Collective Alignment, которая разработает систему для сбора и учета общественного мнения при принятии решений о поведении моделей искусственного интеллекта компании.
Что известно
По мнению разработчиков, Collective Alignment поможет гарантировать, что будущие модели ИИ будут соответствовать ценностям и ожиданиям общества.
Создание команды стало результатом запущенной в прошлом году программы грантов, в рамках которой финансировались эксперименты по внедрению общественного контроля и «демократических процессов» в управление системами искусственного интеллекта.
OpenAI сейчас публикует код и результаты работы грантополучателей. В будущем команда Collective Alignment будет интегрировать перспективные прототипы в продукты и услуги компании.
Разработчики заявляют, что инициатива призвана сделать ИИ OpenAI максимально полезным и безопасным для общества. Однако некоторые эксперты отмечают наличие коммерческих интересов и риск регуляторного лоббирования со стороны компании.