OpenAI продвигает ChatGPT для принятия медицинских решений на фоне проблем с точностью
Terrill Dicki 01:21, 05 марта 2026 года
OpenAI освещает случай семьи, использующей ChatGPT для принятия решений о лечении рака, но недавние исследования показывают, что инструменты ИИ для здравоохранения имеют серьезные проблемы с точностью и безопасностью.
OpenAI опубликовала на этой неделе тематическое исследование о семье, которая использовала ChatGPT для подготовки к принятию решений о лечении рака у своего сына, позиционируя чат-бот с ИИ как дополнение к рекомендациям врачей. Время публикации вызывает вопросы, учитывая растущие доказательства того, что инструменты ИИ для здравоохранения имеют значительные проблемы с надежностью.
Рекламный материал, опубликованный 4 марта, описывает, как родители использовали ChatGPT вместе с онкологической командой своего ребенка. OpenAI представляет это как ответственное использование ИИ — дополняющее, а не заменяющее медицинскую экспертизу.
Но радужное повествование сталкивается с неудобными результатами исследований. Исследование, опубликованное в Nature Medicine и изучавшее собственный продукт OpenAI «ChatGPT Health», обнаружило существенные проблемы с точностью, протоколами безопасности и расовыми предубеждениями в медицинских рекомендациях. Это не незначительное предостережение для инструмента, который люди могут использовать при принятии жизненно важных решений о лечении рака.
Проблема точности
Независимые исследования рисуют в лучшем случае смешанную картину. Исследование Mass General Brigham показало, что ChatGPT достигает примерно 72% точности по медицинским специальностям, повышаясь до 77% для окончательных диагнозов. Звучит прилично, пока вы не подумаете о том, что поставлено на карту — сели бы вы в самолет с 23% вероятностью того, что пилот совершит критическую ошибку?
Компания в сфере медицинского ИИ Atropos предоставила еще более мрачные цифры: большие языковые модели общего назначения предоставляют клинически релевантную информацию только в 2%-10% случаев для врачей. Разрыв между «иногда полезным» и «достаточно надежным для решений о лечении рака» остается огромным.
Американская медицинская ассоциация не выбирала слова. Организация рекомендует врачам не использовать инструменты на основе LLM для помощи в принятии клинических решений, ссылаясь на проблемы с точностью и отсутствие стандартизированных руководств. Когда AMA говорит врачам держаться подальше, пациентам, вероятно, следует обратить на это внимание.
Чего ChatGPT не может сделать
Чат-боты с ИИ не могут проводить физические обследования. Они не могут читать язык тела пациента или задавать интуитивные дополнительные вопросы, которые опытные онкологи развивают десятилетиями. Они могут галлюцинировать — генерировать информацию, звучащую уверенно, но полностью выдуманную.
Проблемы конфиденциальности добавляют еще один уровень. Каждый симптом, каждый страх, каждая деталь о раке ребенка, введенная в ChatGPT, становится данными, над которыми пользователи имеют ограниченный контроль.
Тематическое исследование OpenAI подчеркивает, что семья работала «вместе с экспертными рекомендациями врачей». Эта оговорка имеет значение. Опасность не в информированных пациентах, задающих лучшие вопросы — а в уязвимых людях в кризисе, которые потенциально чрезмерно полагаются на инструмент, который ошибается чаще, чем предполагает маркетинг.
Для криптоинвесторов, наблюдающих за корпоративными амбициями OpenAI, продвижение в здравоохранение сигнализирует об агрессивной экспансии в высокорисковые вертикали. Останется открытым вопросом на 2026 год, будут ли регуляторы терпеть компании ИИ, продвигающие инструменты для принятия медицинских решений с документированными проблемами точности.
Источник изображения: Shutterstock- openai
- chatgpt
- здравоохранение с ИИ
- медицинский ИИ
- медицинские технологии


