OpenAI запускает группу Red Teaming Network для повышения надежности своих моделей

0
216

OpenAI запускает Red Teaming Network для повышения надежности своих моделей

OpenAI объявила о запуске Red Teaming Network — группы экспертов, которые будут оценивать и снижать риски в моделях искусственного интеллекта.

Что известно

По данным OpenAI, команда поможет выявить предвзятости в таких моделях, как DALL-E 2 и GPT-4, а также найти подсказки, которые заставляют ИИ игнорировать фильтры безопасности.

Раньше компания привлекала и сторонних тестировщиков, но теперь эта работа формализована для «углубления и расширения» проверок с привлечением экспертов и организаций.

Участники сети смогут взаимодействовать друг с другом по общим вопросам тестирования ИИ. Однако не все участники проекта будут работать с новыми продуктами OpenAI.

Компания также приглашает к участию специалистов в различных областях, включая лингвистику, биометрию, финансы и здравоохранение. Никакого предыдущего опыта работы с системами искусственного интеллекта не требуется, но соглашение о неразглашении может повлиять на другие исследования, предупредил OpenAI.

НОВОСТИ ПАРТНЕРОВ

БОЛЬШЕ НОВОСТЕЙ