Исследователи предупреждают о гендерной и культурной предвзятости больших языковых моделей ИИ

0
8

Исследователи предупреждают о гендерной и культурной предвзятости больших языковых моделей ИИ

Согласно исследованию, проведенному по заказу ЮНЕСКО, популярные инструменты генеративного искусственного интеллекта, такие как GPT-3.5, GPT-2 и Llama 2, демонстрируют явные признаки гендерных стереотипов и предвзятости в отношении женщин, представителей различных культур и сексуальных меньшинств.

Что известно

Команда исследователей из Калифорнийского университета во главе с профессором Джоном Шоу-Тейлором (John Shawe-Taylor) и доктором Марией Перес Ортис (Maria Perez Ortiz) выявила, что большие языковые модели склонны ассоциировать женские имена с традиционными гендерными ролями, такими как «семья», «дети» и «муж». В то же время мужские имена чаще связывались со словами, ассоциируемыми с карьерой и бизнесом.

Кроме того, в сгенерированных текстах наблюдались стереотипные представления о профессиях и социальном статусе. Мужчинам чаще назначались более престижные роли, такие как «инженер» или «врач», в то время как женщины ассоциировались с работами, традиционно недооцениваемыми или стигматизируемыми, например «домашняя прислуга», «повар» и «проститутка».

Данное исследование, представленное на встрече-диалоге ЮНЕСКО по цифровой трансформации и на сессии Комиссии ООН по положению женщин, подчеркивает необходимость пересмотра этических норм при разработке систем искусственного интеллекта, чтобы они соответствовали принципам гендерного равенства и уважения прав человека.

Исследователи призывают к согласованным, глобальным усилиям по решению проблемы предвзятости в ИИ, в том числе путем сотрудничества ученых, разработчиков, технологических компаний и политических деятелей.

Источник: TechXplore

НОВОСТИ ПАРТНЕРОВ

БОЛЬШЕ НОВОСТЕЙ