OpenAI сформировала группу для оценки катастрофических рисков от ИИ

0
113

OpenAI сформировала группу для оценки катастрофических рисков от ИИ

Мария Шалабаева/Unsplash

OpenAI объявила о создании новой команды, которая сосредоточится на снижении потенциально опасных рисков, связанных с искусственным интеллектом.

Что известно

Команда экстренной помощи должна отслеживать, оценивать и предотвращать серьезные проблемы, которые может вызвать ИИ. Сюда входят ядерные угрозы, биологическое оружие, обман и кибератаки.

OpenAI отмечает, что новая команда будет разрабатывать политику развития ИИ, основанную на рисках. Руководителем группы был назначен Александр Мадри, эксперт по машинному обучению Массачусетского технологического института.

По мнению OpenAI, передовые модели ИИ могут принести пользу, но также создают растущие риски. В прошлом глава компании Сэм Альтман предупреждал о возможных катастрофических последствиях ИИ и призывал правительства относиться к этой технологии так же серьезно, как и к ядерной технологии.

НОВОСТИ ПАРТНЕРОВ

БОЛЬШЕ НОВОСТЕЙ