Поделиться на Pinterest
Как ChatGPT Health повлияет на медицинские рекомендации и обсуждения с медицинскими работниками? Изображение предоставлено: Хэн Ю / Стокси

Open AI недавно представила ChatGPT Health, новую функцию в ChatGPT, предназначенную для ответа на вопросы о здоровье и благополучии. Запуск стал ответом на то, что чат-бот с искусственным интеллектом, как сообщается, получает миллионы вопросов, связанных со здоровьем, каждый день, что подчеркивает растущий общественный интерес к медицинской информации, основанной на искусственном интеллекте.

По данным OpenAI, цель ChatGPT Health — предоставить пользователям более целенаправленный опыт решения проблем со здоровьем, тем о здоровье и медицинских вопросов.

Очевидно, что существует растущий спрос на доступную и информативную медицинскую информацию. Однако, хотя эти инструменты могут расширить доступ к информации, обеспечение точности, справедливости и ответственного использования остается критической проблемой.

Разговаривая с Медицинские новости сегодняДэвид Либовиц, доктор медицинских наук, эксперт по искусственному интеллекту в клинической медицине Северо-Западного университета, делится своими мыслями о том, как ChatGPT Health может повлиять на отношения между пациентом и врачом и как медицинские работники (HCP) могут безопасно направлять правильное использование инструментов искусственного интеллекта для здоровья.

Будет ли этот инструмент полезен для медицинских работников и поможет улучшить уход за пациентами и взаимодействие с ними?

Либовиц: Да, с важными оговорками. ChatGPT Health может помочь пациентам прибыть лучше подготовленными благодаря обобщению лабораторных тенденций, организации вопросов и выявлению пробелов в уходе.

Это шаг вперед по сравнению с пациентами, предоставляющими фрагментированные результаты Google или вообще не подготовившимися. Для медицинских работников это может означать более продуктивное время посещения, потраченное на понимание ценностей и предпочтений пациента, поддержку совместного принятия решений и более быстрое устранение пробелов.

Риск – чрезмерная самоуверенность. Пациенты могут предположить, что информация, синтезированная ИИ, эквивалентна клиническому заключению или тщательному анализу. Медицинским работникам необходимо будет развивать новые навыки: проверять то, что приносят пациенты, исправлять заблуждения, созданные ИИ, и распознавать, когда инструмент упускает контекст, который полностью меняет клиническую картину.

Какой совет вы бы дали медицинским работникам при обсуждении ChatGPT с пациентами?

Либовиц: Признайте ценность инструмента, установив при этом соответствующие ожидания.

Я бы предложил сформулировать так: «Он полезен для организации ваших вопросов и понимания основных понятий, но он не знает вещей, которые могу оценить только я, таких как ваш медицинский осмотр, ваш тон во время разговора или то, как вы реагировали на лечение раньше».

Важно не сбрасывать со счетов пациентов, которые его используют. Это сигнализирует о том, что мы не слушаем (и эти инструменты становятся лучше). Вместо этого спросите, что они нашли и какие опасения это вызвало. Используйте его как трамплин. Если они приносят что-то неправильное, рассматривайте это как обучающий момент, а не как исправление.

Как медицинские работники могут посоветовать пациентам безопасно и правильно использовать инструменты искусственного интеллекта для здоровья?

Либовиц: Три принципа:

Подготовка, а не диагностика

Используйте его, чтобы систематизировать и предлагать вопросы, понимать терминологию или отслеживать закономерности.

Предложение полезных тем или вопросов для обсуждения во время визита является честной игрой, но, пожалуйста, не используйте это для того, чтобы сделать вывод о том, что не так, что произойдет в будущем, или принять решение о конкретном лечении.

В этих сценариях он не будет располагать всей необходимой информацией, но часто все равно будет предоставлять рекомендации, которые зачастую ошибочны или вызывают ненужное беспокойство.

Всегда проверяйте

Все, что меняет медицинское решение, следует рассматривать как мягкое предложение из неполного источника искусственного интеллекта, требующее подтверждения со стороны вашей лечащей команды.

С учетом вышесказанного, пробелы в медицинской помощи являются обычным явлением, и вполне могут быть полезные рекомендации, учитывая сложность диагностики и лечения в 2026 году, но, пожалуйста, поймите, что действительно полезные рекомендации, которые влияют на решения, могут не всегда присутствовать или могут также быть похоронены в шумных, неуместных предложениях.

Поймите компромиссы в отношении конфиденциальности

Данные о здоровье, передаваемые в ChatGPT, не защищены Законом о переносимости и подотчетности медицинского страхования (HIPAA).

В отличие от разговоров с врачами или терапевтами, здесь нет никаких юридических привилегий. Если речь идет о деликатных вопросах, таких как репродуктивное здоровье, психическое здоровье, употребление психоактивных веществ или другие личные проблемы, пожалуйста, осознайте потерю конфиденциальности, прежде чем использовать этот инструмент.

Как медицинские работники могут помочь уменьшить недопонимание при использовании медицинских рекомендаций, генерируемых ИИ?

Либовиц: Самое большое недоразумение заключается в том, что информация, генерируемая ИИ, эквивалентна второму мнению врача. Это не.

Большие языковые модели (LLM), такие как ChatGPT, прогнозируют правдоподобный текст; они не проверяют истину и не взвешивают клинический контекст, как это делает обученный профессионал. Специалисты здравоохранения могут помочь, если будут откровенны: «ChatGPT может обобщать информацию и выявлять закономерности, но он может галлюцинировать, упускать нюансы и не имеет доступа к вашему экзамену, вашей истории со мной и тому, что вы ему не рассказали».

Инструменты искусственного интеллекта также не взвешивают доказательства, предоставляя индивидуальные рекомендации в соответствии с предпочтениями конкретного пациента, как это делает опытный врач. Уверенность в использовании инструмента искусственного интеллекта не означает правильности. Ответы появляются с одинаковой достоверностью, независимо от того, точны они или опасно неправильны.

Заглядывая в будущее на 5 лет, как, по вашему мнению, ИИ изменит отношения пациента и врача?

Либовиц: Я ожидаю, что ИИ станет неотъемлемой частью большинства оперативных (и закулисных) взаимодействий, таких как обработка документации, выявление соответствующей истории или выявление потенциальных проблем.

Для пациентов такие инструменты, как ChatGPT Health, будут все чаще служить постоянным медицинским помощником/компаньоном, который помогает им отслеживать, интерпретировать и готовиться (включая выявление пробелов для обсуждения и полезные поведенческие подсказки в соответствии с предпочтениями пациента).

Ядро отношений с врачом, то есть доверие, суждение, совместное принятие решений, не будет автоматизировано.

Врачи, использующие ИИ, которые учатся работать с пациентами, использующими ИИ, а не против них, будут вести более глубокие беседы за меньшее время. Те, кто избегает использования ИИ лично и своими пациентами, обнаружат, что пациенты уходят в другое место или просто не говорят им, что сказал ИИ.

Почему запуск OpenAI ChatGPT Health важен именно сейчас, учитывая, что пациенты уже ищут медицинскую информацию в Интернете?

Либовиц: Потому что это формализует то, что уже происходило неформально.

Судя по всему, 40 миллионов человек в день уже задавали вопросы ChatGPT, включая загрузку результатов анализов, описание симптомов и поиск объяснений. OpenAI сейчас строит специальную инфраструктуру для такого поведения: зашифрованные пространства, подключенные медицинские записи и четкие ограждения.

Закон о лекарствах 21 века требует, чтобы системы здравоохранения предоставляли пациентам доступ к своим записям через стандартизированные API. ChatGPT Health — это один из первых крупных потребительских инструментов для агрегирования доступа в большом масштабе. Нравится это врачам или нет, но это меняет информационную асимметрию, которая десятилетиями определяла отношения между пациентом и поставщиком медицинских услуг, и тем самым ускоряет демократизацию здравоохранения.

Вы сказали, что это «значительный шаг вперед по сравнению с поиском в Google». Что конкретно делает его лучше, а в чем он все еще не дотягивает?

Что делает его лучше

Либовиц: ChatGPT синтезирует данные из разных источников и персонализирует их в соответствии с контекстом пользователя-пациента.

Вместо 10 синих ссылок с противоречивой информацией пациенты получают связное объяснение, основанное на их собственных данных, включая тенденции лабораторных исследований с течением времени, возможные взаимодействия лекарств, подготовку к приему, специфичную для их ситуации.

Где он терпит неудачу

Либовиц: Он все еще может галлюцинировать. Цитаты не заслуживают доверия. Ему не хватает доступа к физическому осмотру, клиническому гештальту, социальному контексту, который опытный врач собирает за 5 минут разговора.

Результаты LLM оптимизируются для обеспечения правдоподобия, а не точности. Из-за этого неправильные ответы часто звучат более уверенно, чем правильные. Важные детали, которые опытный врач знает о пациенте, могут отсутствовать. Наши системы данных не полностью интегрированы, и вполне вероятно, что ChatGPT будет иметь меньший доступ к полным картам, чем врачи.

Самый большой разрыв

Либовиц: Никакой ответственности. Когда я ошибаюсь, существуют механизмы, в том числе экспертная оценка, злоупотребление служебным положением, комиссии по лицензированию и моя профессиональная репутация. Если ChatGPT ошибается, вы можете подать отрицательный отзыв.

Как вы реально видите пациентов, использующих ChatGPT Health?

Либовиц: Я вижу пять сценариев с высокой ценностью:

  • Подготовка к визиту: «Помогите мне разобраться в моих последних лабораторных исследованиях и организовать вопросы для моего назначения. Обратите внимание на любые пробелы или просроченные вопросы».
  • Разъяснения после визита: «Мой врач упомянул X. Пожалуйста, объясните еще раз, что это значит и на что мне следует обратить внимание».
  • Заезды: «Пожалуйста, напоминайте мне еженедельно, есть ли что-нибудь в моем списке дел по здоровью или какие-либо конкретные здоровые привычки, на которые мне следует обратить внимание, исходя из моей истории.
  • Системная навигация: «Сравните мои варианты страхования для этой процедуры» или «Помогите мне обжаловать отказ в страховании».
  • Вопросы по основам здоровья: Если вы достаточно хорошо разбираетесь в базовых медицинских темах, есть вероятность расширенных вопросов/ответов по общим медицинским темам, хотя текущие симптомы следует затем направить в клиническую помощь с учетом ограничений, указанных выше.

Вы выразили обеспокоенность по поводу защиты HIPAA. Что большинство пациентов неправильно понимают в отношении конфиденциальности, когда используют инструменты искусственного интеллекта для здоровья?

Либовиц: Главное заблуждение состоит в том, что любой разговор о здоровье защищен, как разговор с врачом. Это не.

HIPAA распространяется только на «застрахованные организации», то есть планы медицинского страхования, информационные центры здравоохранения и поставщиков медицинских услуг, которые передают медицинскую информацию в электронном виде. Потребительские инструменты искусственного интеллекта не являются объектами страхования.

Таким образом, когда вы делитесь медицинской информацией с ChatGPT, эти данные теоретически могут быть вызваны в суд, доступны через юридические процедуры или, несмотря на заявленную политику OpenAI, использованы способами, которые вы не ожидали.

Нет ничего лучше привилегии пациента и врача. Это различие имеет значение для чувствительных вопросов здравоохранения, особенно проблем репродуктивного или психического здоровья в нынешней правовой среде.

Есть ли определенные области здравоохранения, такие как психическое здоровье или репродуктивная охрана, в которых вы хотели бы проявлять особую осторожность?

Либовиц: Абсолютно. Психическое здоровье несет в себе уникальные риски: чат-боты с искусственным интеллектом были замешаны во многих случаях самоубийств, когда они подтверждали вредные идеи, а не эскалировали их должным образом.

Исследование Университета Брауна, опубликованное в прошлом году, зафиксировало систематические нарушения этики, в том числе усиление негативных убеждений, создание ложной эмпатии и неправильное управление кризисными ситуациями. LLM не предназначены для распознавания декомпенсации.

Репродуктивная помощь несет в себе юридический риск в дополнение к клиническому риску. В штатах с ограничениями на аборты любая цифровая запись вопросов репродуктивного здоровья становится потенциальным доказательством.

В отличие от разговоров с вашим врачом, разговоры ChatGPT не защищены юридической привилегией. Я бы еще добавил: употребление психоактивных веществ, ВИЧ-статус, генетическая информация, все, что связано с судебными разбирательствами. Общей нитью являются сценарии, в которых раскрытие информации, даже случайное, влечет за собой последствия, выходящие за рамки клинической помощи.