Иллюстрация защиты искусственного интеллекта. Источник: Blue Planet Studio На крупнейшей в мире хакерской конференции DEF CON ведущие исследователи в области кибербезопасности заявили, что современные методы защиты систем искусственного интеллекта (ИИ) являются фундаментально несовершенными и требуют полного пересмотра. В первом отчете конференции «Альманах хакеров», подготовленном совместно с Инициативой по киберполитике Чикагского университета, ставится под сомнение эффективность метода «красной команды», когда эксперты по безопасности проверяют системы ИИ на наличие уязвимостей. Свен Кеттелл (Sven Cattell), возглавляющий AI Village DEF CON, отметил, что этот подход не может адекватно защитить от возникающих угроз, так как документация по моделям ИИ фрагментирована, а оценки, включенные в документацию, неадекватны. На конференции около 500 участников протестировали модели ИИ, и даже новички успешно находили уязвимости. Исследователи призвали к внедрению структур, аналогичных системе Common Vulnerabilities and Exposures (CVE), используемой в традиционной кибербезопасности с 1999 года, для стандартизации способов документирования и устранения уязвимостей ИИ. Источник: DEF CONЧто известно