Штучний інтелект у медицині та ризики помилок. Джерело: AI
Технологічний розрив: між допомогою та загрозою
Запуск ChatGPT Health оголив критичні проблеми застосування штучного інтелекту у медичній діагностиці. Масштабне дослідження, проведене фахівцями Mount Sinai Hospital, виявило серйозні ризики, які ставлять під сумнів концепцію ІІ-консультанта.
Статистика страху: коли ІІ грає в лікаря
Результати стрес-тестування на 60 складних клінічних сценаріях шокують: у критичних ситуаціях, які потребують негайної госпіталізації, ChatGPT Health у більшості випадків рекомендував «перечекати» або «записатися на прийом». Це означає потенційний ризик життя пацієнтів, де рахунок йде буквально на хвилини.
Соціальна інженерія алгоритму: маніпуляція контекстом
Найнебезпечніше - вплив соціального контексту на рішення ІІ. Згадка думки родичів про несерйозність симптомів моментально знижує критичність оцінки, збільшуючи ризик помилки у 12 разів. Фактично, ІІ стає заручником людських упереджень.
Діагностичний маятник: між панікою та безтурботністю
Не менш тривожна й інша крайність: у 64% некритичних випадків ChatGPT Health впадає в паніку та потребує екстреної госпіталізації. Така непередбачуваність створює або хибне почуття безпеки, або невиправдане навантаження на медичну систему.
Юридичний вакуум: хто відповість?
OpenAI поки що ухиляється від прямої відповідальності, ховаючись за дрібним шрифтом користувальницької угоди. Проте вчені наполягають: без жорсткого незалежного контролю такі системи перетворюються на небезпечний експеримент із мільйонами людських життів.
На цьому тлі безпечнішим виглядає підхід хмарних провайдерів, наприклад, AWS, які фокусуються на автоматизації медичної документації, а не на прямих діагностичних рекомендаціях.