Якуб Пожицки/Getty Images
Google расширила свою программу вознаграждений за уязвимости, включив в нее сценарии атак, специфичные для генеративного искусственного интеллекта.
Что известно
Программа вознаграждения за обнаружение ошибок Google вознаграждает этических хакеров денежными вознаграждениями за обнаружение и ответственное раскрытие уязвимостей. Компания заявляет, что это будет стимулировать исследования в области безопасности ИИ и поможет выявить потенциальные проблемы, которые сделают технологию более безопасной.
Учитывая новые проблемы безопасности, связанные с искусственным интеллектом, Google решила пересмотреть классификацию ошибок в своих системах. Для этого компания использует данные AI Red Team, которая имитирует различные кибератаки.
В частности, команда обнаружила уязвимости в языковых моделях для внедрения вредоносных подсказок и извлечения обучающих данных от злоумышленников. Такие сценарии теперь охватываются программой вознаграждения за ошибки.
Однако обнаруженные ошибки, связанные с нарушением авторских прав или извлечением неконфиденциальных данных, не будут вознаграждены.
Размер вознаграждения будет зависеть от серьезности найденной уязвимости. В 2022 году Google заплатила исследователям более 12 миллионов долларов.