Докторский алгоритм: что искусственный интеллект действительно может сделать в здравоохранении

Правительство

Докторский алгоритм: что искусственный интеллект действительно может сделать в здравоохранении

Деталь халата врача с деревянными палочками, стетоскопом и смартфоном с чат-ботом на дисплее

ИИ может превзойти врачей отделений неотложной помощи, но как только люди и машины начнут работать вместе, ситуация станет на удивление проблематичной.

Признаки в политике здравоохранения Германии указывают на экономию средств. Идея состоит в том, чтобы привлечь для этого искусственный интеллект. В этом контексте OpenAI запустила ChatGPT Health за пределами ЕЭЗ, Швейцарии и Великобритании.

Подробности читайте после объявления

ChatGPT Health теперь можно использовать напрямую. Единственными исключениями являются Европейская экономическая зона, Швейцария и Великобритания. Чего на самом деле могут достичь языковые модели? Где они уже используются и что ждет впереди?

Греция уже сделала еще один шаг вперед в интеграции ИИ

В последнюю неделю апреля на 11-м Международном экономическом форуме в Дельфах состоялось множество дискуссий о возможном использовании ИИ. Разрекламированные чат-боты у всех на слуху. Министр здравоохранения Греции Адонис Георгиадис воспользовался случаем, чтобы рассказать об интересном, на первый взгляд, безопасном использовании ИИ.

Электронная карта пациента (ePR) в Греции устроена таким образом, что вся информация доступна как пациентам, так и врачам в форме, похожей на базу данных. Сюда же входят назначенные лекарства. Электронные рецепты в Греции используются дольше, чем в Германии.

Георгиадис пояснил, что в будущем каждое назначение лекарства, включая повторные, будет подвергаться проверке с помощью искусственного интеллекта. ИИ проверяет, совместимы ли между собой отдельные лекарства пациента, прописанные одним или несколькими врачами. Если это не так, система подает сигнал тревоги.

Об этом информируются все участвующие стороны, чтобы аптека также могла быть последней инстанцией перед выдачей лекарства, чтобы предотвратить возможные ошибки лечения. Георгиадис подчеркнул, что это один из многих способов, с помощью которых ИИ может сделать здравоохранение более эффективным в будущем.

Подробности читайте после объявления

Использование ИИ в немецкой системе здравоохранения, скорее всего, потерпит неудачу только из-за этой задачи. На пресс-конференции 13 апреля под руководством Научного медиа-центра Германии модератор Хелена Саламун задала вопрос, в какой степени чат-бот может быть связан с ePA и таким образом способствовать облегчению нагрузки на систему здравоохранения.

Доктору Феликсу Мюлензипену из Бранденбургской медицинской школы пришлось ее разочаровать:

«Текущая ситуация такова, что ePA на самом деле представляет собой набор PDF-файлов. В зависимости от того, сколько в нем хранится, получить доступ к отдельной информации относительно сложно, поэтому при применении или использовании данных ePA, безусловно, было бы полезно иметь возможность осуществлять специальный поиск и, при необходимости, даже задавать вопросы. Но, конечно, все это должно быть абсолютно безопасно для данных. Я думаю, что есть соображения по разработке чего-то в этом направлении».

Он продолжил: он не знает, каково текущее состояние событий. Что было интересно, так это то, что у него также была идея о том, что можно «проверить, давались ли ему определенные лекарства».

Младший профессор, доктор Елена Линк, младший профессор научной коммуникации Университета Иоганна Гутенберга в Майнце, добавила:

«Я пока ничего об этом не знаю, но, конечно, я вижу большой потенциал в его использовании для дальнейшего развития ePA, а затем, возможно, смогу сделать следующий шаг к фактическому широкому использованию ePA, если новые опции все еще будут интегрированы».

Чат-боты с искусственным интеллектом как решение проблемы нехватки врачей?

Таким образом, на пресс-конференции, на которой также присутствовал профессор доктор Керстин Денеке из Бернского университета прикладных наук (BFH), состоялся очень интересный обмен мнениями о будущих возможностях, проблемах и опасностях. Эксперты обсудили возможность предоставления пациентам возможности задавать вопросы чат-ботам, когда прямой контакт с врачом невозможен.

Профессор Линк объяснил, что многие люди используют чат-боты, чтобы лучше объяснять результаты медицинских исследований. Она увидела опасность в том, что для людей с низкой медицинской грамотностью «вероятно выше риск того, что они также могут пострадать от использования ИИ».

Профессор Линк подозревает, что чат-боты с большей вероятностью будут использоваться теми, кто ранее исследовал информацию о своем здоровье через поисковые системы. Как и ожидалось, в ходе пресс-конференции стало ясно, что использование ИИ представляет большие риски для людей с меньшими возможностями написать соответствующую подсказку, чем для людей, имеющих близость к ИИ.

Поэтому доктор Мюлензипен выразил уверенность, что чат-боты не смогут заполнить пробелы в системе здравоохранения. «Чат-боты не заменяют врачей, медсестер, фельдшеров и т. д. Но они могут помочь навести мосты, если все будет сделано хорошо».

Наконец, возникает вопрос, как врачи реагируют, когда их пациенты приходят в практику с предыдущим диагнозом, полученным от чат-бота. Доктор Мюлензипен сослался на свои собственные исследования, которые выявили двойственную реакцию среди медицинских работников. Есть врачи, которые ценят мнение своих пациентов о собственном здоровье.

Но в то же время им также будет сложно распознать и оценить источник рассматриваемой информации.

Полезно в качестве второго мнения в отделении неотложной помощи.

Чат-боты полезны и в других местах. Текущее исследование в специализированном журнале Наука показывает, что современные языковые модели (LLM) могут не только не уступать врачам при постановке диагнозов, но даже превосходить их в определенных стрессовых ситуациях. Речь идет о скорой помощи.

Там каждая секунда на счету. Именно здесь, в первой точке контакта пациента и клиники, искусственный интеллект, похоже, проявляет свою наибольшую силу. Исследовательская группа из США исследовала производительность серии OpenAI-o1, используя сложные каталоги случаев и неструктурированные реальные данные из отделения неотложной помощи.

Результат: ИИ поставил диагнозы и планы лечения, которые в большинстве случаев были оценены как минимум столь же полезные, как и те, которые предоставили специалисты. Модели ИИ имели свою силу в ситуациях сортировки. В то время как врачи-люди в условиях нехватки времени и с ограниченной информацией склонны сразу же ставить предполагаемый диагноз, машина остается объективной.

«Языковые модели не подвергаются таким ситуационным влияниям, как усталость или эмоциональное взаимодействие», — объясняет профессор, доктор Феликс Ненса из Университетской клиники Эссена. ИИ может более последовательно учитывать закономерности и редкие диагнозы. Профессор доктор Томас Ноймут из Лейпцигского университета добавляет, что ИИ может «держать в уме множество возможных объяснений одновременно», что делает его идеальной системой безопасности.

На первый взгляд парадоксально: люди плюс машины хуже?

Несмотря на впечатляющие результаты исследования, есть один удивительный недостаток: отсутствие сотрудничества между людьми и машинами. Предыдущие исследования показали, что врачи, которые использовали GPT-4 в качестве вспомогательного средства, часто действовали не лучше, чем без посторонней помощи.

«Это предполагает проблему рабочего процесса и доверия, а не проблему моделирования».

Феликс Ненса

Эксперты говорят о «предвзятости автоматизации» — либо ИИ слепо доверяют, либо его предложения игнорируются.

Препятствия для практики: технологии, право и этика

Хотя исследование считается методологически обоснованным, существуют существенные ограничения для его применения на практике: необходимо тщательно прояснить вопросы этики и правовой основы. Кроме того, для врачей свою роль играет и человеческий фактор.

В реальной жизни они используют глаза, уши и, возможно, другие чувства. Модели исследовали только обработанный текст, а не рентгеновские снимки или внешний вид пациента.

Использование ИИ по-прежнему находится в «серой зоне» закона. В настоящее время ни в ЕС, ни в США не существует модели генеративного языка, одобренной в качестве медицинского продукта для диагностики.

Вопрос об ответственности в случае ошибок здесь остается столь же неясным, как и при консультировании пациентов. Эксперты сходятся во мнении: ИИ не заменит врача, но может служить обязательным вторым мнением для уменьшения человеческих ошибок.

Однако прежде чем «алгоритм коллеги» получит широкое распространение, исследователи призывают провести клинические исследования в реальных условиях. Затем ИИ должен проявить себя и обеспечить сокращение времени ожидания, снижение смертности, а также более высокую удовлетворенность пациентов.