ИИ и медицина в Германии: доверять ли чат–ботам при поиске информации о лекарствах
С развитием технологий искусственного интеллекта (ИИ) и появлением чат–ботов, таких как ChatGPT, все больше людей обращаются к ним за медицинской информацией, включая вопросы, связанные с лекарствами. Однако недавние исследования и публикации в немецких СМИ подчеркивают риски, связанные с использованием таких технологий. Могут ли чат–боты на самом деле заменить консультации врачей и насколько точны их ответы?
Сегодня многие ведущие немецкие издания, включая Der Spiegel и Frankfurter Allgemeine Zeitung, обсуждают проблему использования ИИ для поиска медицинской информации. Несмотря на удобство и скорость, которые предлагают такие системы, они могут вводить пользователей в заблуждение, создавая ложное ощущение безопасности. Кроме того, Süddeutsche Zeitung поднимает вопрос о правовой ответственности за возможные ошибки ИИ в медицине. В Европе уже активно обсуждаются меры по регулированию применения ИИ в медицинских целях, а также необходимость создания четких стандартов безопасности.
Ограниченная надежность
ChatGPT, разработанный компанией OpenAI, стал самым быстрорастущим приложением с момента его выпуска в ноябре 2022 года. За два месяца им начали пользоваться более 100 миллионов человек. Однако, несмотря на его популярность, исследователи из Университета Лонг–Айленда, включая Сару Гроссман, доцента кафедры фармацевтической практики, предупреждают, что полагаться на медицинские рекомендации, предоставляемые ChatGPT, может быть опасно.
В ходе исследования специалисты задали бесплатной версии ChatGPT 39 реальных вопросов на медицинскую тематику, которые ранее поступили в справочную службу фармацевтического колледжа. Ответы программы сравнили с рекомендациями, проверенными квалифицированными фармацевтами. Результаты оказались тревожными: только около четверти ответов (10) были точными, а остальные либо неполными, либо неточными. Например, на вопрос о взаимодействии препарата «Пакловид–19» с верапамилом (средство для снижения давления) ChatGPT дал неверный ответ, указав, что их совместный прием безопасен. На самом деле, такое сочетание может вызвать сильное снижение артериального давления.
Проблемы с качеством данных и правдоподобием ссылок
Опасность представляют также ложные ссылки, которые ChatGPT предоставляет для подтверждения своих рекомендаций. Когда ученые попросили программу привести научные источники, она сгенерировала вымышленные ссылки, которые выглядели правдоподобно, но в реальности не существовали. Это еще раз подчеркивает, что, несмотря на популярность технологий ИИ, они не могут заменить проверенные медицинские источники и консультации специалистов.
Искусственный интеллект в медицинских поисковых системах
Не менее важное исследование было проведено командой ученых под руководством Вахрама Андрикияна из Института экспериментальной и клинической фармакологии и токсикологии Университета Эрлангена. Целью их работы было выяснить, насколько точны ИИ–ассистированные поисковые системы, такие как Bing Copilot, при предоставлении информации о лекарственных препаратах.
В ходе эксперимента исследователи задали Bing Copilot 10 вопросов о 50 самых часто назначаемых рецептурных лекарствах в США. Вопросы касались правил приема, побочных эффектов и противопоказаний. Хотя в ряде случаев ответы были достаточно полными, значительное количество информации оказалось неточным или трудным для понимания. Результаты этого исследования были опубликованы в престижном журнале BMJ Quality & Safety.
Главной проблемой остается то, что пользователи, не имеющие медицинских знаний, часто не могут осознать, что ответы ИИ неполны или содержат ошибки. Это представляет серьезные риски, особенно в контексте приема лекарств, где точность информации критически важна.
Андрикиян подчеркивает: «Пациенты, не обладая медицинским образованием, не могут объективно оценить точность данных, предоставленных ИИ». Это создает угрозу, так как неверные или неполные рекомендации могут привести к серьезным последствиям для здоровья.
Риски для здоровья и рекомендации
С момента проведения этих исследований технологии ИИ, включая медицинские чат–боты, значительно продвинулись вперед. Однако ученые по–прежнему предупреждают, что даже с таким прогрессом ИИ не может полностью обеспечить безопасность пациентов. Одной из главных причин является то, что разные ИИ–системы обучаются на различных наборах данных, что влияет на качество и достоверность предоставляемой информации.
Сара Гроссман настоятельно рекомендует использовать ИИ–инструменты с осторожностью и сопровождать их четкими предупреждениями для пользователей о том, что предоставляемая информация не является заменой консультации врача. Особенно важно это в контексте назначения и приема лекарств, где даже небольшая ошибка может иметь серьезные последствия. Неправильная дозировка или неверное взаимодействие препаратов могут привести к тяжелым осложнениям, поэтому пользователи всегда должны обращаться к профессионалам перед принятием решений, связанных с лечением.
Об этом говорит Германия
Шпаргалка по обезболивающим: Когда, как часто и в каких дозах. Ибупрофен, Парацетамол или АСК — эксперты раскрывают секреты правильного выбора
Аневризма головного мозга: лечить или наблюдать
Взыскание долгов: что делать и как защитить свои права. Ваши действия, если вы получили письмо от коллекторской компании
Депутаты с двойным заработком: почти 50% парламентариев с побочными доходами
Стать гражданкой Германии: Будет ли препятствием потеря работы мужа. Может ли пособие супруга повлиять на ваше заявление на гражданство
Медицинская революция или катастрофа: доступ к лечению под вопросом. Вся правда о больничной реформе
Деньги под угрозой: мошенники обманывают клиентов Klarna
Цены на свет вырастут до 20%: где в Германии самая дорогая электроэнергия
Смерть мозга или остановка сердца — критерии для донорства органов
Приостановка выплаты пенсии в Германии
Гражданство РФ для детей, рожденных в Германии: что нужно знать
Авиакризис в Германии: Ryanair сокращает маршруты, Eurowings уходит