Ärzte glauben, dass künstliche Intelligenz eine Rolle im Gesundheitswesen spielen kann, aber einige Experten warnen davor, sich bei medizinischer Beratung ausschließlich auf Chatbots zu verlassen. Dr. Sina Bari, praktizierender Chirurg und Leiter für KI im Gesundheitswesen beim Datenunternehmen iMerit, teilte ein Beispiel dafür, wie ChatGPT einem Patienten ungenaue medizinische Informationen bezüglich potenzieller Nebenwirkungen eines Medikaments lieferte.
Laut Dr. Bari legte der Patient einen Ausdruck von ChatGPT vor, der behauptete, das Medikament habe eine Wahrscheinlichkeit von 45 %, eine Lungenembolie zu verursachen. Weitere Nachforschungen ergaben, dass die Statistik aus einer Studie stammte, die sich auf eine bestimmte Untergruppe von Tuberkulosepatienten konzentrierte, wodurch sie für den Fall des Einzelnen irrelevant war.
Trotz dieser Bedenken äußerte sich Dr. Bari optimistisch über die kürzliche Ankündigung von OpenAI bezüglich ChatGPT Health, einem speziellen Chatbot, der für gesundheitsbezogene Gespräche entwickelt wurde. Die neue Plattform zielt darauf ab, den Nutzern eine privatere Umgebung zu bieten, in der ihre Nachrichten nicht zum Trainieren des KI-Modells verwendet werden. "Ich finde es großartig", sagte Dr. Bari. "Es ist etwas, das bereits geschieht, daher wird die Formalisierung, um Patienteninformationen zu schützen und einige Schutzmaßnahmen einzuführen, die Nutzung für Patienten umso effektiver machen."
ChatGPT Health wird voraussichtlich in den kommenden Wochen eingeführt und den Nutzern eine personalisierte Beratung bieten. Die Entwicklung erfolgt inmitten des wachsenden Interesses an dem Potenzial von KI, den Zugang und die Effizienz im Gesundheitswesen zu verbessern. Experten betonen jedoch, wie wichtig es ist, KI-generierte medizinische Informationen von qualifizierten medizinischen Fachkräften überprüfen zu lassen. Der Vorfall mit dem Patienten von Dr. Bari verdeutlicht die potenziellen Risiken, sich auf unbestätigte KI-Ratschläge zu verlassen, insbesondere wenn es um Medikamente und Behandlungsentscheidungen geht. KI kann zwar ein wertvolles Werkzeug sein, sollte aber die Expertise und das Urteilsvermögen menschlicher Ärzte nicht ersetzen.
Discussion
Join the conversation
Be the first to comment