Глава OpenAI предупредил об опасности «общественных перекосов» при внедрении ИИ

0
114

Руководитель OpenAI предупреждает об опасности «социального искажения» при внедрении ИИ

Кямран Джебраили/AP Photo

Генеральный директор OpenAI Сэм Альтман заявил, что самая большая опасность, исходящая от искусственного интеллекта, исходит не от роботов-убийц, а от «тонких искажений в обществе», которые могут повергнуть системы искусственного интеллекта в хаос.

Что известно

Выступая на саммите в Дубае, Альтман призвал к созданию международного органа по регулированию сферы ИИ. По его словам, отрасль пока находится в стадии активного обсуждения путей развития, но необходимо перейти к разработке конкретных планов действий на ближайшие годы.

Альтман отметил, что нынешние технологии искусственного интеллекта, такие как ChatGPT, находятся в зачаточном состоянии. Тем не менее, в ближайшие несколько лет мы увидим значительный прогресс. 

Глава OpenAI также приветствовал изменение отношения к ИИ в образовании: от опасений, что его можно использовать для мошенничества, до понимания важности этих технологий.

В то же время в этой дискуссии не затрагивались региональные риски использования ИИ, особенно в ОАЭ. К ним относятся ограничения свободы слова и деятельности местной компании G42, которую подозревают в шпионаже и связях с Китаем, а также ставят под угрозу качество обучающих данных для систем ИИ.

НОВОСТИ ПАРТНЕРОВ

БОЛЬШЕ НОВОСТЕЙ