Можно ли ​консуль­тиро­ваться с ChatGPT по меди­цинс­ким вопро­сам?

60
Аватар автора

Илья

спросил в Сообществе

Можно ли использовать ChatGPT с моделью GPT-5 как медицинского консультанта? Например, показать ему результаты анализов, попросить поставить диагноз по моим симптомам? И насколько можно доверять его ответам?

Аватар автора

Катя Лебедева

не дает медицинских советов

Страница автора

На презентации GPT-5 OpenAI показала, как новая модель помогает разбираться в вопросах здоровья: ChatGPT изучал симптомы и задавал уточняющие вопросы. Но разработчики подчеркивают: нейросеть не ставит диагнозы и не заменяет врача. Она может работать как ассистент — помочь с терминами и подготовиться к приему.

Расскажу, что на самом деле могут нейросети в медицинской сфере.

Что говорят разработчики нейросетей

Сами создатели нейросетей осторожны: никто не обещает, что чат-бот может заменить врача. Глава OpenAI Сэм Альтман даже заявлял, что не доверил бы ChatGPT свое здоровье без контроля врача. Но практика показывает, что с медицинскими вопросами к чат-ботам обращаются часто. Причем не к специализированным, а к популярным большим языковым моделям.

Официальные позиции основных компаний-разработчиков — это баланс между возможностями нейросетей и рисками, которые с этим связаны. Единого решения пока нет, проблему активно обсуждают, а правила поведения моделей регулярно меняют.

OpenAI официально заявляет, что ChatGPT не предназначен для предоставления рекомендаций о здоровье — нельзя полагаться на него как на источник медицинской информации.

Например, чат-бот хорошо разбирается в медицинских терминах, а вот симптомы верно определяет примерно в половине случаев. Плюс время от времени в ответах бывают галлюцинации, что особенно опасно в вопросах о здоровье.

Anthropic отмечает, что Claude категорически отказывается ставить диагнозы и рекомендует обращаться к врачам. Иногда можно добиться диагноза от нейросети, но в целом в тестах Claude оказался самым осторожным среди популярных чат-ботов. Доля небезопасных ответов у него составила всего 5%.

Google рассматривает использование ИИ в здравоохранении как средство для спасения жизней, особенно когда нет доступа к врачам. Но речь идет о специализированных инструментах и моделях для медработников. А обычный чат-бот Gemini не предназначен для консультаций или постановки диагнозов.

Например, Gemini может помочь разобраться с медицинскими терминами, объяснить результаты исследований простыми словами или дать общую справочную информацию. Но ответы нейросети могут быть неточными и не должны использоваться как профессиональные медицинские советы.

Специализированные медицинские чат-боты для пациентов только появляются. Пока основных направлений три:

  1. Модели, обученные на научных журналах и авторитетных источниках. Их задача — давать справочную информацию максимально корректно и без галлюцинаций.
  2. Приложения для первичного опроса. Такие боты помогают пройти опрос по симптомам и понять, срочная ли ситуация и к какому врачу идти.
  3. Узкоспециализированные решения. Например, чат-боты для поддержки онкопациентов в конкретном регионе или сервисы, которые отвечают только на вопросы о катаракте.

На практике пока ситуация такая: разработчики подчеркивают риски и вводят ограничения, а пользователи все равно обращаются к нейросетям с медицинскими вопросами — иногда успешно.

Что говорят врачи

Медицинские модели уже давно используют в реальной практике (сайт недоступен из РФ). Например, модель Viz.ai помогает американским реабилитологам быстро обнаружить признаки инсульта на медицинских изображениях и немедленно оказать пациенту необходимую помощь. Кроме того, уже существуют модели вроде ClosedLoop или похожих на нее российских моделей от SberMedAI, которые помогают выявлять людей из групп риска и рекомендовать им персонализированное лечение.

Исследования показывают, что правильное использование этих моделей специально обученными специалистами может ускорить диагностику и в некоторых случаях улучшить качество лечения.

Но даже у специализированных медицинских ИИ-моделей есть свои ограничения. Опубликованное в 2025 году американское исследование показало: хотя медицинские модели выдают хорошие результаты на профессиональных медицинских экзаменах, они по-прежнему не справляются со сбором важной медицинской информации при общении с пациентом и с постановкой точного диагноза. Поэтому применять их без помощи врача пока нельзя — и еще неизвестно, возможно ли это в принципе.

«Медицинские» ИИ-модели имеет смысл сравнивать не с ChatGPT или Gemini, а со специализированными медицинскими инструментами вроде скальпеля или стетоскопа. Чтобы получить к ним доступ и успешно их применять, как правило, необходимо медицинское образование. Если же речь заходит о самостоятельном использовании подобных инструментов неподготовленными пациентами, ситуация становится сложнее.

Многие пользователи применяют большие языковые модели, такие как ChatGPT, Claude и Gemini, для интерпретации медицинских записей из своих электронных медицинских карт — например, чтобы разобраться с результатами анализов или получить совет по лечению. Объяснения моделей не всегда бывают правильными с научной точки зрения. А некоторые могут просто выдумать бессмысленный, а иногда даже опасный для пациента наукообразный совет. Такие ответы принято называть галлюцинациями.

Один из самых ярких примеров «медицинской галлюцинации» — случай 60-летнего мужчины, который поступил в реанимацию с отравлением бромом. Он решил провести эксперимент по исключению из своего рациона хлорида — компонента хлорида натрия, или поваренной соли. Большинство клинических руководств рекомендует сокращать потребление натрия, а не хлорида, но в ответ на такой экзотический запрос ChatGPT посоветовал пациенту заменить хлорид натрия солью без хлорида — бромидом натрия, который привел к отравлению.

Хотя такие экстремальные галлюцинации — редкость, все равно есть риск, что пациент без медицинского образования не сможет правильно понять и применить даже научно обоснованный совет искусственного интеллекта. Поэтому многие врачи и медицинские эксперты считают, что появление широко доступных медицинских моделей и LLM автоматически увеличивает риски, связанные с самолечением.

Как люди используют ИИ в медицинских вопросах

На презентации GPT-5 разработчики показали, как модель может помогать в вопросах здоровья. По их словам, нейросеть:

  • точнее отвечает на медицинские вопросы и реже галлюцинирует — об этом свидетельствуют результаты независимого теста HealthBench, созданного при участии 250 врачей;
  • умеет подстраиваться под пользователя, учитывает его уровень знаний и ограничения, по-разному объясняет одно и то же врачу и пациенту;
  • задает уточняющие вопросы, например про семейную историю болезней, прежде чем предложить сценарии;
  • анализирует медицинские изображения — снимки МРТ или маммографии, — объясняя результаты простыми словами;
  • может работать с врачом — например, структурировать информацию, искать исследования, составлять варианты для обсуждения.

Я разобрала пять самых популярных сценариев, чтобы показать, как GPT-5 справляется с ними на практике, а Медредакция прокомментировала каждый случай.

🌿 Спросить, что делать в несложной ситуации. К нейросети часто обращаются с тем, с чем обычно не идут к врачу: с простудой, болью после удаления зуба, ушибами. ИИ-ассистент помогает разобраться, что можно сделать самостоятельно, а когда нужна помощь врача.

Я обратилась с жалобами на повышенную температуру и ожидала, что нейросеть задаст уточняющие вопросы — как в анонсе. Но GPT-5 вела себя как и все предыдущие модели: выдала общие рекомендации. Я сама уточнила, что у меня есть хронические заболевания. Тогда нейросеть адаптировала советы, но только в конце ответа спросила, что это за болезни, для продолжения беседы.

Сильнее всего меня насторожило, как GPT-5 реагировала на мое замечание, что врач мне рекомендовала другое. Нейросеть продолжала настаивать на своей версии и адаптировать ее к новым вводным.

Если бы она резко изменила мнение и начала поддакивать, это тоже не внушало бы доверия. Но главное — GPT-5 не доказывала свою позицию никакими ссылками и не давала четкого предупреждения, что такие вопросы стоит обсуждать только с врачом.

Аватар автора

Медредакция

на страже здоровья

Нейросеть не заменит проверенный источник медицинской информации

Медицинская грамотность экономит время и деньги: во многих распространенных случаях вроде простуды или головной боли напряжения человек действительно может помочь себе сам, не обращаясь к врачу.

Но мы рекомендуем не спешить доверять свое здоровье нейросети. Лучше прибегнуть к достоверной медицинской информации, специально адаптированной для неподготовленных людей. О том, где ее брать, Т⁠—⁠Ж рассказал в статье: «14 авторитетных медицинских источников».

👩‍🔬 Разобрать анализы и назначения врача. Пользователи загружают PDF с анализами, выписки после операций или расшифровки МРТ. Нейросеть объясняет, что означает каждый показатель, какие значения считают нормой и на что обратить внимание при разговоре с врачом.

Я сдала в лаборатории несколько анализов крови и загрузила результаты в чат с GPT-5. Описала кратко, зачем мне эти исследования, и спросила, надо ли мне о чем-то срочно беспокоиться. Чат-бот дал корректный ответ: указал на значения, которые вызывают тревогу, но подчеркнул, что ничего срочного нет. Плюс выделил блок с вопросами к врачу при плановом визите и подсказал, что стоит делать до этого.

Сначала нейросеть рассказала, что показали исследования, а потом ответила на вопрос, есть ли что-то срочное
Сначала нейросеть рассказала, что показали исследования, а потом ответила на вопрос, есть ли что-то срочное
Аватар автора

Медредакция

на страже здоровья

ИИ не может качественно интерпретировать анализы

Если в этой ситуации пациент решит последовать совету модели, это вряд ли ему навредит. Но абсолютно точными и полезными эти рекомендации тоже не назовешь. Лабораторная диагностика и особенно интерпретация анализов — сложная медицинская задача, разрешить которую правильно без знания симптомов и другой медицинской информации о пациенте почти невозможно.

В качестве примера возьмем предложение модели обсудить уровень витамина D в крови.

Во-первых, у врачей до сих пор нет единого мнения о том, что такое норма витамина D. Например, некоторые специалисты считают, что его содержание в крови на уровне 20 нг/мл и выше (сайт недоступен из РФ) достаточно для хорошего здоровья — а другие полагают, что его должно быть больше 30 нг/мл, или не могут прийти к окончательному выводу. При этом из ответа модели можно заключить, что с этим вопросом все ясно.

А во-вторых, модель не сказала ни слова о том, что людям без факторов риска дефицита витамина D анализы на его содержание в крови сдавать не нужно. Добавку в рекомендованных дозах при желании можно принимать и так, если есть желание.

Если подытожить, в этой ситуации рекомендации модели скорее вызовут ненужную тревогу, чем принесут ощутимую пользу.

😰 Разобраться в симптомах и снизить тревожность. Иногда непонятно, насколько серьезны симптомы. Где-то сильно болит, появился странный узел или сыпь, воспалилась слизистая — в отличие от насморка или зубной боли, такие ситуации могут выглядеть опасными. Если врач недоступен, нужно понять, искать ли неотложную помощь или можно разобраться планово.

Я описала реальную ситуацию: однажды после завтрака я почувствовала тошноту и сильную боль в животе. Вызвала рвоту, но это не помогло, к тому же тревожили появившиеся красные точки по всему лицу. Симптомы могли означать что угодно.

В отличие от ситуации с легким недомоганием, GPT-5 мне помогла. Нейросеть четко и структурированно рассказала, что это может быть и что делать. Например, объяснила, как отличить микроразрывы капилляров из-за напряжения во время рвоты от инфекционной сыпи. Указала, что при повышении температуры, появлении крови или сильной слабости надо немедленно вызывать скорую.

Врачи скорой помощи сказали то же самое и пришли к таким же выводам, только это заняло гораздо больше времени. Более точный диагноз ни они, ни нейросеть поставить не могли бы: нужно было ехать в больницу.

GPT-5 сама сделала вывод, в какой я стране и как здесь вызвать скорую
GPT-5 сама сделала вывод, в какой я стране и как здесь вызвать скорую
Аватар автора

Медредакция

на страже здоровья

Правильный медицинский ответ от нейросети — лотерея

Медицинские модели не всегда дают неправильные советы — в некоторых случаях их рекомендации могут быть научно обоснованными и полезными. Проблема только в том, что, в отличие от работников скорой помощи, никакой ответственности за неправильную рекомендацию ни сама модель, ни ее разработчики не понесут. Это примерно то же самое, что обратиться за советом к соседу или задать вопрос в интернете — ведь там тоже могут ответить верно.

В этой ситуации стоит повышать общую медицинскую грамотность и использовать информацию из заслуживающих доверия источников.

⚖️ Сравнить варианты лечения. Бывает, что врач предлагает несколько вариантов лечения или назначает разные препараты, и человек пытается понять, чем они различаются. Одно лекарство дороже, другое с побочками, у третьего противоречивые отзывы, а времени на приеме, чтобы все обсудить, не хватает.

Для примера я кратко описала одну проблему: небольшая доброкачественная опухоль — миома, — обильные менструации, врач предложила установку гормональной внутриматочной спирали. Но это не единственный вариант в таких ситуациях, и выбор лечения зависит от многих факторов:

  • расположения и размеров миомы — иногда спираль нельзя установить;
  • наличия проблем с сосудами — прием таблеток может спровоцировать тромбоз;
  • планов относительно рождения детей.

Все это нужно учесть, а для этого — получить результаты осмотра, исследований и анализов.

ChatGPT пояснил мне логику выбранной тактики, а затем предложил ознакомиться с другими вариантами. Как между ними выбирать, я спросила сама, нейросеть не всегда включает в свои ответы этот раздел. Уточняющих вопросов о состоянии здоровья не было. Из-за этого я не могу доверять ответу чат-бота: кажется, что он просто поддакивает написанному врачом.

Аватар автора

Медредакция

на страже здоровья

Доверяйте проверку диагноза только настоящим медработникам

Если есть сомнения в предложенном лечении, обращаться за дополнительной информацией можно и нужно. Но модели ИИ здесь будут такими же плохими советчиками, как и случайные люди в интернете.

Чтобы уточнить диагноз и перепроверить назначенное лечение, стоит получить второе мнение. Так называется практика посещения другого медицинского специалиста в той же области. Подробнее Т⁠—⁠Ж рассказал в статье «Что такое второе мнение в медицине и когда его стоит получить?».

🗒️ Подготовиться к консультации с врачом. Время приема ограничено, и чтобы использовать его эффективно, можно заранее собрать основные данные — например, вспомнить, какие лекарства принимаете, какие симптомы были раньше, что уже делали для лечения.

Нейросеть помогает структурировать то, что нужно будет рассказать, и сформировать список вопросов к врачу. Можно обратиться к чат-боту и перед первым визитом, и когда уже есть какие-то исследования и история болезни.

Я проверила этот сценарий на том же случае с тошнотой после завтрака. ChatGPT дал вполне корректный чек-лист для подготовки к разговору с гастроэнтерологом, это сэкономило время на этапе опроса.

Если нейросеть выдала слишком длинный список, можно попросить выделить главное
Если нейросеть выдала слишком длинный список, можно попросить выделить главное
Аватар автора

Медредакция

на страже здоровья

Чек-лист от ИИ — удобный способ подготовиться к посещению врача

Нет ничего плохого в использовании модели для составления чек-листов: иногда это может подсветить какой-то аспект подготовки к приему, о котором пациент мог забыть.

Не стесняйтесь заглядывать в список вопросов. Врачи обычно относятся к такому поведению с терпением и уважением: они понимают, что из-за стресса на приеме пациент может забыть спросить о чем-то важном. Если смотреть в приложение чат-бота неудобно, список рекомендованных вопросов можно переписать в блокнот, распечатать или сохранить в файл на телефон.

А еще можно заранее договориться с врачом, чтобы он разрешил вам делать заметки во время приема — тогда вы точно не забудете ничего важного и получите от приема у врача максимум пользы.

Что в итоге

Разработчики нейросетей говорят, что ИИ может быть помощником в вопросах здоровья, но не врачом. Его задача — структурировать информацию, объяснять термины и помогать готовиться к приему, а не ставить диагнозы.

Врачи признают пользу медицинских моделей, особенно специализированных, но указывают, что без медицинского образования корректно пользоваться такими инструментами невозможно.

Пользователи часто консультируются по медицинским вопросам с обычными чат-ботами вроде ChatGPT. На практике ИИ выдает общие или неполные рекомендации, а иногда галлюцинирует. Если доверять таким ответам, можно навредить себе.

Консультироваться с нейросетью — это примерно то же самое, что спросить совета у случайного прохожего. Советы могут оказаться полезными, но полагаться на них в вопросах здоровья небезопасно.

Катя ЛебедеваА вы пробовали получать медицинские консультации у нейросетей? Поделитесь опытом: