Искусственный интеллект в медицине и риски ошибок. Источник: AI
Технологический разрыв: между помощью и угрозой
Запуск ChatGPT Health обнажил критические проблемы применения искусственного интеллекта в медицинской диагностике. Масштабное исследование, проведенное специалистами Mount Sinai Hospital, выявило серьезные риски, которые ставят под сомнение саму концепцию ИИ-консультанта.
Статистика страха: когда ИИ играет в доктора
Результаты стресс-тестирования на 60 сложных клинических сценариях шокируют: в критических ситуациях, требующих немедленной госпитализации, ChatGPT Health в большинстве случаев рекомендовал «переждать» или «записаться на прием». Это означает потенциальный риск для жизни пациентов, где счет идет буквально на минуты.
Социальная инженерия алгоритма: манипуляция контекстом
Самое опасное — влияние социального контекста на решения ИИ. Упоминание мнения родственников о несерьезности симптомов моментально снижает критичность оценки, увеличивая риск ошибки в 12 раз. Фактически, ИИ становится заложником человеческих предубеждений.
Диагностический маятник: между паникой и беспечностью
Не менее тревожна и другая крайность: в 64% некритических случаев ChatGPT Health впадает в панику и требует экстренной госпитализации. Такая непредсказуемость создает либо ложное чувство безопасности, либо неоправданную нагрузку на медицинскую систему.
Юридический вакуум: кто ответит?
OpenAI пока уклоняется от прямой ответственности, прячась за мелким шрифтом пользовательского соглашения. Однако ученые настаивают: без жесткого независимого контроля такие системы превращаются в опасный эксперимент с миллионами человеческих жизней.
На этом фоне более безопасным выглядит подход облачных провайдеров, например, AWS, которые фокусируются на автоматизации медицинской документации, а не на прямых диагностических рекомендациях.