Смертельный диагноз: Почему ChatGPT Health опаснее, чем кажется

0
2

Искусственный интеллект в медицине и риски ошибок Искусственный интеллект в медицине и риски ошибок. Источник: AI

Технологический разрыв: между помощью и угрозой

Запуск ChatGPT Health обнажил критические проблемы применения искусственного интеллекта в медицинской диагностике. Масштабное исследование, проведенное специалистами Mount Sinai Hospital, выявило серьезные риски, которые ставят под сомнение саму концепцию ИИ-консультанта.

Статистика страха: когда ИИ играет в доктора

Результаты стресс-тестирования на 60 сложных клинических сценариях шокируют: в критических ситуациях, требующих немедленной госпитализации, ChatGPT Health в большинстве случаев рекомендовал «переждать» или «записаться на прием». Это означает потенциальный риск для жизни пациентов, где счет идет буквально на минуты.

Социальная инженерия алгоритма: манипуляция контекстом

Самое опасное — влияние социального контекста на решения ИИ. Упоминание мнения родственников о несерьезности симптомов моментально снижает критичность оценки, увеличивая риск ошибки в 12 раз. Фактически, ИИ становится заложником человеческих предубеждений.

Диагностический маятник: между паникой и беспечностью

Не менее тревожна и другая крайность: в 64% некритических случаев ChatGPT Health впадает в панику и требует экстренной госпитализации. Такая непредсказуемость создает либо ложное чувство безопасности, либо неоправданную нагрузку на медицинскую систему.

Юридический вакуум: кто ответит?

OpenAI пока уклоняется от прямой ответственности, прячась за мелким шрифтом пользовательского соглашения. Однако ученые настаивают: без жесткого независимого контроля такие системы превращаются в опасный эксперимент с миллионами человеческих жизней.

На этом фоне более безопасным выглядит подход облачных провайдеров, например, AWS, которые фокусируются на автоматизации медицинской документации, а не на прямых диагностических рекомендациях.

НОВОСТИ ПАРТНЕРОВ

БОЛЬШЕ НОВОСТЕЙ