OpenAI рассказывает о семье, использующей ChatGPT для принятия решений о лечении рака, но недавние исследования показывают, что инструменты ИИ для здоровья имеют серьезные проблемы с точностью и безопасностью. (ЧитатьOpenAI рассказывает о семье, использующей ChatGPT для принятия решений о лечении рака, но недавние исследования показывают, что инструменты ИИ для здоровья имеют серьезные проблемы с точностью и безопасностью. (Читать

OpenAI продвигает ChatGPT для принятия решений о здоровье на фоне опасений по поводу точности

2026/03/05 09:21
3м. чтение
Для обратной связи или замечаний по поводу данного контента, свяжитесь с нами по адресу crypto.news@mexc.com

OpenAI продвигает ChatGPT для принятия медицинских решений на фоне проблем с точностью

Terrill Dicki 01:21, 05 марта 2026 года

OpenAI освещает случай семьи, использующей ChatGPT для принятия решений о лечении рака, но недавние исследования показывают, что инструменты ИИ для здравоохранения имеют серьезные проблемы с точностью и безопасностью.

OpenAI продвигает ChatGPT для принятия медицинских решений на фоне проблем с точностью

OpenAI опубликовала на этой неделе тематическое исследование о семье, которая использовала ChatGPT для подготовки к принятию решений о лечении рака у своего сына, позиционируя чат-бот с ИИ как дополнение к рекомендациям врачей. Время публикации вызывает вопросы, учитывая растущие доказательства того, что инструменты ИИ для здравоохранения имеют значительные проблемы с надежностью.

Рекламный материал, опубликованный 4 марта, описывает, как родители использовали ChatGPT вместе с онкологической командой своего ребенка. OpenAI представляет это как ответственное использование ИИ — дополняющее, а не заменяющее медицинскую экспертизу.

Но радужное повествование сталкивается с неудобными результатами исследований. Исследование, опубликованное в Nature Medicine и изучавшее собственный продукт OpenAI «ChatGPT Health», обнаружило существенные проблемы с точностью, протоколами безопасности и расовыми предубеждениями в медицинских рекомендациях. Это не незначительное предостережение для инструмента, который люди могут использовать при принятии жизненно важных решений о лечении рака.

Проблема точности

Независимые исследования рисуют в лучшем случае смешанную картину. Исследование Mass General Brigham показало, что ChatGPT достигает примерно 72% точности по медицинским специальностям, повышаясь до 77% для окончательных диагнозов. Звучит прилично, пока вы не подумаете о том, что поставлено на карту — сели бы вы в самолет с 23% вероятностью того, что пилот совершит критическую ошибку?

Компания в сфере медицинского ИИ Atropos предоставила еще более мрачные цифры: большие языковые модели общего назначения предоставляют клинически релевантную информацию только в 2%-10% случаев для врачей. Разрыв между «иногда полезным» и «достаточно надежным для решений о лечении рака» остается огромным.

Американская медицинская ассоциация не выбирала слова. Организация рекомендует врачам не использовать инструменты на основе LLM для помощи в принятии клинических решений, ссылаясь на проблемы с точностью и отсутствие стандартизированных руководств. Когда AMA говорит врачам держаться подальше, пациентам, вероятно, следует обратить на это внимание.

Чего ChatGPT не может сделать

Чат-боты с ИИ не могут проводить физические обследования. Они не могут читать язык тела пациента или задавать интуитивные дополнительные вопросы, которые опытные онкологи развивают десятилетиями. Они могут галлюцинировать — генерировать информацию, звучащую уверенно, но полностью выдуманную.

Проблемы конфиденциальности добавляют еще один уровень. Каждый симптом, каждый страх, каждая деталь о раке ребенка, введенная в ChatGPT, становится данными, над которыми пользователи имеют ограниченный контроль.

Тематическое исследование OpenAI подчеркивает, что семья работала «вместе с экспертными рекомендациями врачей». Эта оговорка имеет значение. Опасность не в информированных пациентах, задающих лучшие вопросы — а в уязвимых людях в кризисе, которые потенциально чрезмерно полагаются на инструмент, который ошибается чаще, чем предполагает маркетинг.

Для криптоинвесторов, наблюдающих за корпоративными амбициями OpenAI, продвижение в здравоохранение сигнализирует об агрессивной экспансии в высокорисковые вертикали. Останется открытым вопросом на 2026 год, будут ли регуляторы терпеть компании ИИ, продвигающие инструменты для принятия медицинских решений с документированными проблемами точности.

Источник изображения: Shutterstock
  • openai
  • chatgpt
  • здравоохранение с ИИ
  • медицинский ИИ
  • медицинские технологии
Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу crypto.news@mexc.com для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.

Вам также может быть интересно