Laut OpenAI nutzen schätzungsweise 230 Millionen Menschen jede Woche ChatGPT, um gesundheitsbezogene Fragen zu stellen. Dieser Anstieg der KI-gestützten Gesundheitsanfragen erfolgt, nachdem OpenAI Anfang des Monats sein ChatGPT Health-Produkt auf den Markt gebracht hat, was Fragen nach den potenziellen Vorteilen und Risiken der Verwendung großer Sprachmodelle (LLMs) für medizinische Informationen aufwirft.
Seit zwei Jahrzehnten wenden sich Menschen mit neuen medizinischen Symptomen häufig an das Internet, um Informationen zu erhalten, eine Praxis, die oft als "Dr. Google" bezeichnet wird. Nun werden LLMs zunehmend zu einer Quelle für gesundheitsbezogene Anfragen, was eine Debatte darüber auslöst, ob die inhärenten Risiken der Verwendung von KI in diesem Kontext angemessen gemindert werden können.
Die Verwendung von KI für Gesundheitsinformationen birgt potenzielle Risiken, einschließlich der Erzeugung ungenauer oder irreführender Informationen. Experten betonen die Bedeutung einer sorgfältigen Bewertung der Zuverlässigkeit und Genauigkeit von KI-generierten Gesundheitsratschlägen.
In der Zwischenzeit sieht sich die Vereinigten Staaten mit zunehmenden internen Konflikten über die Regulierung künstlicher Intelligenz konfrontiert. Ende 2025 erreichten die Spannungen einen kritischen Punkt, als der Kongress kein Gesetz verabschiedete, das staatliche KI-Gesetze verbietet. Anschließend unterzeichnete der damalige Präsident Donald Trump am 11. Dezember 2025 eine Durchführungsverordnung, die darauf abzielte, die Bundesstaaten daran zu hindern, die schnell wachsende KI-Industrie zu regulieren, was den anhaltenden Kampf um die Etablierung eines einheitlichen Ansatzes zur KI-Governance im ganzen Land verdeutlicht. Die Durchführungsverordnung sollte verhindern, dass ein Flickenteppich von Vorschriften auf Landesebene Innovationen behindert und Compliance-Herausforderungen für KI-Unternehmen schafft. Der Schritt löste sofort Kontroversen aus, wobei einige Bundesstaaten schworen, die Anordnung vor Gericht anzufechten, da sie argumentierten, dass sie die bundesstaatliche Autorität überschreite und ihr Recht verletze, ihre Bürger vor potenziellen Risiken im Zusammenhang mit KI zu schützen.
Discussion
Join the conversation
Be the first to comment