Можно ли консультироваться с ChatGPT по медицинским вопросам?
Можно ли использовать ChatGPT с моделью GPT-5 как медицинского консультанта? Например, показать ему результаты анализов, попросить поставить диагноз по моим симптомам? И насколько можно доверять его ответам?
На презентации GPT-5 OpenAI показала, как новая модель помогает разбираться в вопросах здоровья: ChatGPT изучал симптомы и задавал уточняющие вопросы. Но разработчики подчеркивают: нейросеть не ставит диагнозы и не заменяет врача. Она может работать как ассистент — помочь с терминами и подготовиться к приему.
Расскажу, что на самом деле могут нейросети в медицинской сфере.
О чем вы узнаете
Что говорят разработчики нейросетей
Сами создатели нейросетей осторожны: никто не обещает, что чат-бот может заменить врача. Глава OpenAI Сэм Альтман даже заявлял, что не доверил бы ChatGPT свое здоровье без контроля врача. Но практика показывает, что с медицинскими вопросами к чат-ботам обращаются часто. Причем не к специализированным, а к популярным большим языковым моделям.
Официальные позиции основных компаний-разработчиков — это баланс между возможностями нейросетей и рисками, которые с этим связаны. Единого решения пока нет, проблему активно обсуждают, а правила поведения моделей регулярно меняют.
OpenAI официально заявляет, что ChatGPT не предназначен для предоставления рекомендаций о здоровье — нельзя полагаться на него как на источник медицинской информации.
Например, чат-бот хорошо разбирается в медицинских терминах, а вот симптомы верно определяет примерно в половине случаев. Плюс время от времени в ответах бывают галлюцинации, что особенно опасно в вопросах о здоровье.
Anthropic отмечает, что Claude категорически отказывается ставить диагнозы и рекомендует обращаться к врачам. Иногда можно добиться диагноза от нейросети, но в целом в тестах Claude оказался самым осторожным среди популярных чат-ботов. Доля небезопасных ответов у него составила всего 5%.
Google рассматривает использование ИИ в здравоохранении как средство для спасения жизней, особенно когда нет доступа к врачам. Но речь идет о специализированных инструментах и моделях для медработников. А обычный чат-бот Gemini не предназначен для консультаций или постановки диагнозов.
Например, Gemini может помочь разобраться с медицинскими терминами, объяснить результаты исследований простыми словами или дать общую справочную информацию. Но ответы нейросети могут быть неточными и не должны использоваться как профессиональные медицинские советы.
Специализированные медицинские чат-боты для пациентов только появляются. Пока основных направлений три:
- Модели, обученные на научных журналах и авторитетных источниках. Их задача — давать справочную информацию максимально корректно и без галлюцинаций.
- Приложения для первичного опроса. Такие боты помогают пройти опрос по симптомам и понять, срочная ли ситуация и к какому врачу идти.
- Узкоспециализированные решения. Например, чат-боты для поддержки онкопациентов в конкретном регионе или сервисы, которые отвечают только на вопросы о катаракте.
На практике пока ситуация такая: разработчики подчеркивают риски и вводят ограничения, а пользователи все равно обращаются к нейросетям с медицинскими вопросами — иногда успешно.
Что говорят врачи
Медицинские модели уже давно используют в реальной практике (сайт недоступен из РФ). Например, модель Viz.ai помогает американским реабилитологам быстро обнаружить признаки инсульта на медицинских изображениях и немедленно оказать пациенту необходимую помощь. Кроме того, уже существуют модели вроде ClosedLoop или похожих на нее российских моделей от SberMedAI, которые помогают выявлять людей из групп риска и рекомендовать им персонализированное лечение.
Исследования показывают, что правильное использование этих моделей специально обученными специалистами может ускорить диагностику и в некоторых случаях улучшить качество лечения.
Но даже у специализированных медицинских ИИ-моделей есть свои ограничения. Опубликованное в 2025 году американское исследование показало: хотя медицинские модели выдают хорошие результаты на профессиональных медицинских экзаменах, они по-прежнему не справляются со сбором важной медицинской информации при общении с пациентом и с постановкой точного диагноза. Поэтому применять их без помощи врача пока нельзя — и еще неизвестно, возможно ли это в принципе.
«Медицинские» ИИ-модели имеет смысл сравнивать не с ChatGPT или Gemini, а со специализированными медицинскими инструментами вроде скальпеля или стетоскопа. Чтобы получить к ним доступ и успешно их применять, как правило, необходимо медицинское образование. Если же речь заходит о самостоятельном использовании подобных инструментов неподготовленными пациентами, ситуация становится сложнее.
Многие пользователи применяют большие языковые модели, такие как ChatGPT, Claude и Gemini, для интерпретации медицинских записей из своих электронных медицинских карт — например, чтобы разобраться с результатами анализов или получить совет по лечению. Объяснения моделей не всегда бывают правильными с научной точки зрения. А некоторые могут просто выдумать бессмысленный, а иногда даже опасный для пациента наукообразный совет. Такие ответы принято называть галлюцинациями.
Один из самых ярких примеров «медицинской галлюцинации» — случай 60-летнего мужчины, который поступил в реанимацию с отравлением бромом. Он решил провести эксперимент по исключению из своего рациона хлорида — компонента хлорида натрия, или поваренной соли. Большинство клинических руководств рекомендует сокращать потребление натрия, а не хлорида, но в ответ на такой экзотический запрос ChatGPT посоветовал пациенту заменить хлорид натрия солью без хлорида — бромидом натрия, который привел к отравлению.
Хотя такие экстремальные галлюцинации — редкость, все равно есть риск, что пациент без медицинского образования не сможет правильно понять и применить даже научно обоснованный совет искусственного интеллекта. Поэтому многие врачи и медицинские эксперты считают, что появление широко доступных медицинских моделей и LLM автоматически увеличивает риски, связанные с самолечением.
Как люди используют ИИ в медицинских вопросах
На презентации GPT-5 разработчики показали, как модель может помогать в вопросах здоровья. По их словам, нейросеть:
- точнее отвечает на медицинские вопросы и реже галлюцинирует — об этом свидетельствуют результаты независимого теста HealthBench, созданного при участии 250 врачей;
- умеет подстраиваться под пользователя, учитывает его уровень знаний и ограничения, по-разному объясняет одно и то же врачу и пациенту;
- задает уточняющие вопросы, например про семейную историю болезней, прежде чем предложить сценарии;
- анализирует медицинские изображения — снимки МРТ или маммографии, — объясняя результаты простыми словами;
- может работать с врачом — например, структурировать информацию, искать исследования, составлять варианты для обсуждения.
Я разобрала пять самых популярных сценариев, чтобы показать, как GPT-5 справляется с ними на практике, а Медредакция прокомментировала каждый случай.
🌿 Спросить, что делать в несложной ситуации. К нейросети часто обращаются с тем, с чем обычно не идут к врачу: с простудой, болью после удаления зуба, ушибами. ИИ-ассистент помогает разобраться, что можно сделать самостоятельно, а когда нужна помощь врача.
Я обратилась с жалобами на повышенную температуру и ожидала, что нейросеть задаст уточняющие вопросы — как в анонсе. Но GPT-5 вела себя как и все предыдущие модели: выдала общие рекомендации. Я сама уточнила, что у меня есть хронические заболевания. Тогда нейросеть адаптировала советы, но только в конце ответа спросила, что это за болезни, для продолжения беседы.
Сильнее всего меня насторожило, как GPT-5 реагировала на мое замечание, что врач мне рекомендовала другое. Нейросеть продолжала настаивать на своей версии и адаптировать ее к новым вводным.
Если бы она резко изменила мнение и начала поддакивать, это тоже не внушало бы доверия. Но главное — GPT-5 не доказывала свою позицию никакими ссылками и не давала четкого предупреждения, что такие вопросы стоит обсуждать только с врачом.
Нейросеть не заменит проверенный источник медицинской информации
Медицинская грамотность экономит время и деньги: во многих распространенных случаях вроде простуды или головной боли напряжения человек действительно может помочь себе сам, не обращаясь к врачу.
Но мы рекомендуем не спешить доверять свое здоровье нейросети. Лучше прибегнуть к достоверной медицинской информации, специально адаптированной для неподготовленных людей. О том, где ее брать, Т—Ж рассказал в статье: «14 авторитетных медицинских источников».
👩🔬 Разобрать анализы и назначения врача. Пользователи загружают PDF с анализами, выписки после операций или расшифровки МРТ. Нейросеть объясняет, что означает каждый показатель, какие значения считают нормой и на что обратить внимание при разговоре с врачом.
Я сдала в лаборатории несколько анализов крови и загрузила результаты в чат с GPT-5. Описала кратко, зачем мне эти исследования, и спросила, надо ли мне о чем-то срочно беспокоиться. Чат-бот дал корректный ответ: указал на значения, которые вызывают тревогу, но подчеркнул, что ничего срочного нет. Плюс выделил блок с вопросами к врачу при плановом визите и подсказал, что стоит делать до этого.
ИИ не может качественно интерпретировать анализы
Если в этой ситуации пациент решит последовать совету модели, это вряд ли ему навредит. Но абсолютно точными и полезными эти рекомендации тоже не назовешь. Лабораторная диагностика и особенно интерпретация анализов — сложная медицинская задача, разрешить которую правильно без знания симптомов и другой медицинской информации о пациенте почти невозможно.
В качестве примера возьмем предложение модели обсудить уровень витамина D в крови.
Во-первых, у врачей до сих пор нет единого мнения о том, что такое норма витамина D. Например, некоторые специалисты считают, что его содержание в крови на уровне 20 нг/мл и выше (сайт недоступен из РФ) достаточно для хорошего здоровья — а другие полагают, что его должно быть больше 30 нг/мл, или не могут прийти к окончательному выводу. При этом из ответа модели можно заключить, что с этим вопросом все ясно.
А во-вторых, модель не сказала ни слова о том, что людям без факторов риска дефицита витамина D анализы на его содержание в крови сдавать не нужно. Добавку в рекомендованных дозах при желании можно принимать и так, если есть желание.
Если подытожить, в этой ситуации рекомендации модели скорее вызовут ненужную тревогу, чем принесут ощутимую пользу.
😰 Разобраться в симптомах и снизить тревожность. Иногда непонятно, насколько серьезны симптомы. Где-то сильно болит, появился странный узел или сыпь, воспалилась слизистая — в отличие от насморка или зубной боли, такие ситуации могут выглядеть опасными. Если врач недоступен, нужно понять, искать ли неотложную помощь или можно разобраться планово.
Я описала реальную ситуацию: однажды после завтрака я почувствовала тошноту и сильную боль в животе. Вызвала рвоту, но это не помогло, к тому же тревожили появившиеся красные точки по всему лицу. Симптомы могли означать что угодно.
В отличие от ситуации с легким недомоганием, GPT-5 мне помогла. Нейросеть четко и структурированно рассказала, что это может быть и что делать. Например, объяснила, как отличить микроразрывы капилляров из-за напряжения во время рвоты от инфекционной сыпи. Указала, что при повышении температуры, появлении крови или сильной слабости надо немедленно вызывать скорую.
Врачи скорой помощи сказали то же самое и пришли к таким же выводам, только это заняло гораздо больше времени. Более точный диагноз ни они, ни нейросеть поставить не могли бы: нужно было ехать в больницу.
Правильный медицинский ответ от нейросети — лотерея
Медицинские модели не всегда дают неправильные советы — в некоторых случаях их рекомендации могут быть научно обоснованными и полезными. Проблема только в том, что, в отличие от работников скорой помощи, никакой ответственности за неправильную рекомендацию ни сама модель, ни ее разработчики не понесут. Это примерно то же самое, что обратиться за советом к соседу или задать вопрос в интернете — ведь там тоже могут ответить верно.
В этой ситуации стоит повышать общую медицинскую грамотность и использовать информацию из заслуживающих доверия источников.
⚖️ Сравнить варианты лечения. Бывает, что врач предлагает несколько вариантов лечения или назначает разные препараты, и человек пытается понять, чем они различаются. Одно лекарство дороже, другое с побочками, у третьего противоречивые отзывы, а времени на приеме, чтобы все обсудить, не хватает.
Для примера я кратко описала одну проблему: небольшая доброкачественная опухоль — миома, — обильные менструации, врач предложила установку гормональной внутриматочной спирали. Но это не единственный вариант в таких ситуациях, и выбор лечения зависит от многих факторов:
- расположения и размеров миомы — иногда спираль нельзя установить;
- наличия проблем с сосудами — прием таблеток может спровоцировать тромбоз;
- планов относительно рождения детей.
Все это нужно учесть, а для этого — получить результаты осмотра, исследований и анализов.
ChatGPT пояснил мне логику выбранной тактики, а затем предложил ознакомиться с другими вариантами. Как между ними выбирать, я спросила сама, нейросеть не всегда включает в свои ответы этот раздел. Уточняющих вопросов о состоянии здоровья не было. Из-за этого я не могу доверять ответу чат-бота: кажется, что он просто поддакивает написанному врачом.
Доверяйте проверку диагноза только настоящим медработникам
Если есть сомнения в предложенном лечении, обращаться за дополнительной информацией можно и нужно. Но модели ИИ здесь будут такими же плохими советчиками, как и случайные люди в интернете.
Чтобы уточнить диагноз и перепроверить назначенное лечение, стоит получить второе мнение. Так называется практика посещения другого медицинского специалиста в той же области. Подробнее Т—Ж рассказал в статье «Что такое второе мнение в медицине и когда его стоит получить?».
🗒️ Подготовиться к консультации с врачом. Время приема ограничено, и чтобы использовать его эффективно, можно заранее собрать основные данные — например, вспомнить, какие лекарства принимаете, какие симптомы были раньше, что уже делали для лечения.
Нейросеть помогает структурировать то, что нужно будет рассказать, и сформировать список вопросов к врачу. Можно обратиться к чат-боту и перед первым визитом, и когда уже есть какие-то исследования и история болезни.
Я проверила этот сценарий на том же случае с тошнотой после завтрака. ChatGPT дал вполне корректный чек-лист для подготовки к разговору с гастроэнтерологом, это сэкономило время на этапе опроса.
Чек-лист от ИИ — удобный способ подготовиться к посещению врача
Нет ничего плохого в использовании модели для составления чек-листов: иногда это может подсветить какой-то аспект подготовки к приему, о котором пациент мог забыть.
Не стесняйтесь заглядывать в список вопросов. Врачи обычно относятся к такому поведению с терпением и уважением: они понимают, что из-за стресса на приеме пациент может забыть спросить о чем-то важном. Если смотреть в приложение чат-бота неудобно, список рекомендованных вопросов можно переписать в блокнот, распечатать или сохранить в файл на телефон.
А еще можно заранее договориться с врачом, чтобы он разрешил вам делать заметки во время приема — тогда вы точно не забудете ничего важного и получите от приема у врача максимум пользы.
Что в итоге
Разработчики нейросетей говорят, что ИИ может быть помощником в вопросах здоровья, но не врачом. Его задача — структурировать информацию, объяснять термины и помогать готовиться к приему, а не ставить диагнозы.
Врачи признают пользу медицинских моделей, особенно специализированных, но указывают, что без медицинского образования корректно пользоваться такими инструментами невозможно.
Пользователи часто консультируются по медицинским вопросам с обычными чат-ботами вроде ChatGPT. На практике ИИ выдает общие или неполные рекомендации, а иногда галлюцинирует. Если доверять таким ответам, можно навредить себе.
Консультироваться с нейросетью — это примерно то же самое, что спросить совета у случайного прохожего. Советы могут оказаться полезными, но полагаться на них в вопросах здоровья небезопасно.


























