Смертельний діагноз: Чому ChatGPT Health небезпечніший, ніж здається

0
27

Штучний інтелект у медицині та ризики помилок Штучний інтелект у медицині та ризики помилок. Джерело: AI

Технологічний розрив: між допомогою та загрозою

Запуск ChatGPT Health оголив критичні проблеми застосування штучного інтелекту у медичній діагностиці. Масштабне дослідження, проведене фахівцями Mount Sinai Hospital, виявило серйозні ризики, які ставлять під сумнів концепцію ІІ-консультанта.

Статистика страху: коли ІІ грає в лікаря

Результати стрес-тестування на 60 складних клінічних сценаріях шокують: у критичних ситуаціях, які потребують негайної госпіталізації, ChatGPT Health у більшості випадків рекомендував «перечекати» або «записатися на прийом». Це означає потенційний ризик життя пацієнтів, де рахунок йде буквально на хвилини.

Соціальна інженерія алгоритму: маніпуляція контекстом

Найнебезпечніше - вплив соціального контексту на рішення ІІ. Згадка думки родичів про несерйозність симптомів моментально знижує критичність оцінки, збільшуючи ризик помилки у 12 разів. Фактично, ІІ стає заручником людських упереджень.

Діагностичний маятник: між панікою та безтурботністю

Не менш тривожна й інша крайність: у 64% некритичних випадків ChatGPT Health впадає в паніку та потребує екстреної госпіталізації. Така непередбачуваність створює або хибне почуття безпеки, або невиправдане навантаження на медичну систему.

Юридичний вакуум: хто відповість?

OpenAI поки що ухиляється від прямої відповідальності, ховаючись за дрібним шрифтом користувальницької угоди. Проте вчені наполягають: без жорсткого незалежного контролю такі системи перетворюються на небезпечний експеримент із мільйонами людських життів.

На цьому тлі безпечнішим виглядає підхід хмарних провайдерів, наприклад, AWS, які фокусуються на автоматизації медичної документації, а не на прямих діагностичних рекомендаціях.

НОВИНИ ПАРТНЕРІВ

БІЛЬШЕ НОВИН