Крупнейшие ИИ-компании договорились бороться с изображениями насилия над детьми

0
82

Крупнейшие ИИ-компании договорились бороться с изображениями насилия над детьми

Steve Johnson/Unsplash

Ведущие компании в сфере искусственного интеллекта, включая Google, Meta, OpenAI, Microsoft и Amazon, договорились принять меры по предотвращению использования материалов о сексуальной эксплуатации детей (CSAM) в обучающих наборах данных для моделей ИИ.

Что известно

Технологические гиганты подписали новый свод принципов, направленных на ограничение распространения CSAM. Они обязуются гарантировать, что тренировочные данные не содержат вредоносный контент, избегать наборов данных с высоким риском включения таких материалов, а также удалять подобные изображения или ссылки на них из источников данных.

Кроме того, компании намерены проводить «стресс-тестирование» моделей ИИ, чтобы убедиться, что они не генерируют CSAM-контент, и выпускать модели только после оценки их соответствия требованиям детской безопасности.

К инициативе также присоединились такие компании, как Anthropic, Civitai, Metaphysic, Mistral AI и Stability AI.

Рост популярности генеративного ИИ способствовал распространению поддельных изображений в сети, включая синтетические фотографии сексуальной эксплуатации детей. Недавние исследования выявили присутствие ссылок на CSAM-материалы в некоторых популярных тренировочных наборах данных для ИИ-моделей.

Некоммерческая организация Thorn, занимающаяся борьбой с насилием над детьми и помогавшая разрабатывать принципы, предупреждает, что генерирование CSAM с помощью ИИ может помешать выявлению жертв, создать больший спрос и облегчить поиск и распространение проблемных материалов.

Google сообщает, что наряду с принятием принципов компания также увеличила рекламные гранты Национальному центру помощи пропавшим и эксплуатируемым детям (NCMEC) для продвижения инициатив по повышению осведомленности и предоставлению людям инструментов для выявления и сообщения о злоупотреблениях.

Источник: The Verge

НОВОСТИ ПАРТНЕРОВ

БОЛЬШЕ НОВОСТЕЙ