OpenAI объявила о запуске Red Teaming Network — группы экспертов, которые будут оценивать и снижать риски в моделях искусственного интеллекта.
Что известно
По данным OpenAI, команда поможет выявить предвзятости в таких моделях, как DALL-E 2 и GPT-4, а также найти подсказки, которые заставляют ИИ игнорировать фильтры безопасности.
Раньше компания привлекала и сторонних тестировщиков, но теперь эта работа формализована для «углубления и расширения» проверок с привлечением экспертов и организаций.
Участники сети смогут взаимодействовать друг с другом по общим вопросам тестирования ИИ. Однако не все участники проекта будут работать с новыми продуктами OpenAI.
Компания также приглашает к участию специалистов в различных областях, включая лингвистику, биометрию, финансы и здравоохранение. Никакого предыдущего опыта работы с системами искусственного интеллекта не требуется, но соглашение о неразглашении может повлиять на другие исследования, предупредил OpenAI.