Generative KI kommt ins Gesundheitswesen und nicht alle sind begeistert

Generative KI, die kann Bilder, Text, Audio, Videos und mehr erstellen und analysieren, hält zunehmend Einzug in das Gesundheitswesen, vorangetrieben sowohl von Big-Tech-Unternehmen als auch von Start-ups.

Google Cloud, die Abteilung für Cloud-Dienste und -Produkte von Google, arbeitet mit Highmark Health, einem gemeinnützigen Gesundheitsunternehmen mit Sitz in Pittsburgh, an generativen KI-Tools zur Personalisierung des Patientenaufnahmeerlebnisses zusammen. Die AWS-Abteilung von Amazon sagt, sie arbeite mit namentlich nicht genannten Kunden an einer Möglichkeit, generative KI für Analysen zu nutzen medizinische Datenbanken für „soziale Determinanten der Gesundheit“. Und Microsoft Azure hilft beim Aufbau eines generativen KI-Systems für Providence, das gemeinnützige Gesundheitsnetzwerk, um von Patienten gesendete Nachrichten an Leistungserbringer automatisch zu selektieren.

Zu den prominenten generativen KI-Startups im Gesundheitswesen gehören Ambience Healthcare, das eine generative KI-App für Ärzte entwickelt; Nabla, ein Umgebungs-KI-Assistent für Praktiker; und Abridge, das Analysetools für die medizinische Dokumentation entwickelt.

Die breite Begeisterung für generative KI spiegelt sich in den Investitionen in generative KI-Bemühungen im Gesundheitswesen wider. Insgesamt haben generative KI in Startups im Gesundheitswesen bisher Risikokapital in zweistelliger Millionenhöhe eingeworben, und die überwiegende Mehrheit der Gesundheitsinvestoren gibt an, dass generative KI dies getan hat maßgeblich beeinflusst ihre Anlagestrategien.

Doch sowohl Fachleute als auch Patienten sind sich uneinig darüber, ob die auf das Gesundheitswesen ausgerichtete generative KI für die Hauptsendezeit bereit ist.

Generative KI ist möglicherweise nicht das, was die Leute wollen

In einem aktuelle Deloitte-UmfrageNur etwa die Hälfte (53 %) der US-Verbraucher gaben an, dass sie glauben, dass generative KI die Gesundheitsversorgung verbessern könnte – beispielsweise indem sie sie zugänglicher macht oder die Wartezeiten bei Terminen verkürzt. Weniger als die Hälfte gaben an, dass sie erwarteten, dass generative KI die medizinische Versorgung erschwinglicher machen würde.

Andrew Borkowski, Chief AI Officer beim VA Sunshine Healthcare Network, dem größten Gesundheitssystem des US-Veteranenministeriums, hält den Zynismus nicht für ungerechtfertigt. Borkowski warnte davor, dass der Einsatz generativer KI aufgrund ihrer „erheblichen“ Einschränkungen – und der Bedenken hinsichtlich ihrer Wirksamkeit – verfrüht sein könnte.

„Eines der Hauptprobleme der generativen KI ist ihre Unfähigkeit, komplexe medizinische Fragen oder Notfälle zu bewältigen“, sagte er gegenüber Tech. „Seine begrenzte Wissensbasis – das heißt das Fehlen aktueller klinischer Informationen – und der Mangel an menschlichem Fachwissen machen es für die Bereitstellung umfassender medizinischer Ratschläge oder Behandlungsempfehlungen ungeeignet.“

Mehrere Studien deuten darauf hin, dass diese Punkte glaubwürdig sind.

In einem Artikel in der Zeitschrift JAMA Pediatrics wurde der generative KI-Chatbot ChatGPT von OpenAI beschrieben, den einige Gesundheitsorganisationen für begrenzte Anwendungsfälle getestet haben festgestellt, dass es Fehler macht Diagnose pädiatrischer Krankheiten in 83 % der Fälle. Und in testen Ärzte am Beth Israel Deaconess Medical Center in Boston stellten fest, dass das Modell mit GPT-4 von OpenAI als diagnostischem Assistenten in fast zwei von drei Fällen die falsche Diagnose als Top-Antwort einstufte.

Die heutige generative KI hat auch mit medizinischen Verwaltungsaufgaben zu kämpfen, die fester Bestandteil der täglichen Arbeitsabläufe von Ärzten sind. Beim MedAlign-Benchmark, um zu bewerten, wie gut generative KI Dinge wie das Zusammenfassen von Patientenakten und die Suche in Notizen leisten kann, GPT-4 schlug in 35 % der Fälle fehl.

OpenAI und viele andere Anbieter generativer KI warnen davor, sich bei der medizinischen Beratung auf ihre Modelle zu verlassen. Aber Borkowski und andere sagen, sie könnten mehr tun. „Wenn man sich im Gesundheitswesen ausschließlich auf generative KI verlässt, könnte dies zu Fehldiagnosen, unangemessenen Behandlungen oder sogar lebensbedrohlichen Situationen führen“, sagte Borkowski.

Jan Egger, der KI-gesteuerte Therapien am Institut für KI in der Medizin der Universität Duisburg-Essen leitet, das die Anwendungen neuer Technologien für die Patientenversorgung untersucht, teilt Borkowskis Bedenken. Er glaubt, dass der einzige sichere Weg, generative KI im Gesundheitswesen derzeit einzusetzen, unter der strengen, wachsamen Aufsicht eines Arztes liegt.

„Die Ergebnisse können völlig falsch sein und es wird immer schwieriger, das Bewusstsein dafür aufrechtzuerhalten“, sagte Egger. „Natürlich kann generative KI beispielsweise zum Vorabschreiben von Entlassungsbriefen eingesetzt werden. Aber es liegt in der Verantwortung der Ärzte, dies zu überprüfen und die endgültige Entscheidung zu treffen.“

Generative KI kann Stereotypen aufrechterhalten

Eine besonders schädliche Art und Weise, wie generative KI im Gesundheitswesen etwas falsch machen kann, ist die Aufrechterhaltung von Stereotypen.

In einer Studie von Stanford Medicine aus dem Jahr 2023 testete ein Forscherteam ChatGPT und andere generative KI-gestützte Chatbots auf Fragen zur Nierenfunktion, Lungenkapazität und Hautdicke. Die Co-Autoren stellten fest, dass die Antworten von ChatGPT nicht nur häufig falsch waren, sondern die Antworten auch mehrere seit langem verstärkte, unwahre Annahmen enthielten, dass es biologische Unterschiede zwischen Schwarzen und Weißen gebe – Unwahrheiten, die bekanntermaßen dazu geführt haben, dass medizinische Fachkräfte Gesundheitsprobleme falsch diagnostizierten.

Die Ironie besteht darin, dass die Patienten, die am wahrscheinlichsten durch generative KI im Gesundheitswesen diskriminiert werden, auch diejenigen sind, die sie am wahrscheinlichsten nutzen.

Menschen ohne Krankenversicherung – im Großen und Ganzen farbige MenschenLaut einer KFF-Studie sind sie eher bereit, generative KI für Dinge wie die Suche nach einem Arzt oder die Unterstützung bei der psychischen Gesundheit auszuprobieren, wie die Deloitte-Umfrage ergab. Wenn die Empfehlungen der KI durch Voreingenommenheit beeinträchtigt werden, könnte dies die Ungleichheiten in der Behandlung verschärfen.

Einige Experten argumentieren jedoch, dass die generative KI in dieser Hinsicht Fortschritte macht.

In einer Ende 2023 veröffentlichten Microsoft-Studie heißt es: Forscher sagten, sie hätten eine Genauigkeit von 90,2 % erreicht an vier anspruchsvollen medizinischen Benchmarks mit GPT-4. Vanilla GPT-4 konnte diese Punktzahl nicht erreichen. Die Forscher sagen jedoch, dass sie durch Prompt Engineering – das Entwerfen von Eingabeaufforderungen für GPT-4 zur Erzeugung bestimmter Ausgaben – die Punktzahl des Modells um bis zu 16,2 Prozentpunkte steigern konnten. (Es ist erwähnenswert, dass Microsoft ein wichtiger Investor in OpenAI ist.)

Jenseits von Chatbots

Aber einem Chatbot eine Frage zu stellen ist nicht das Einzige, wofür generative KI gut ist. Einige Forscher sagen, dass die medizinische Bildgebung stark von der Leistungsfähigkeit der generativen KI profitieren könnte.

Im Juli stellte eine Gruppe von Wissenschaftlern ein System namens c vorKomplementaritätsgetriebene Verschiebung des klinischen Arbeitsablaufs (CoDoC) in einer in Nature veröffentlichten Studie. Das System soll herausfinden, wann sich medizinische Bildgebungsspezialisten bei der Diagnose auf KI statt auf herkömmliche Techniken verlassen sollten. Laut den Co-Autoren schnitt CoDoC besser ab als Spezialisten und reduzierte gleichzeitig die klinischen Arbeitsabläufe um 66 %.

Im November, a Chinesisches Forschungsteam vorgeführt Panda, ein KI-Modell zur Erkennung potenzieller Pankreasläsionen im Röntgenbild. A Studie zeigte Panda kann bei der Klassifizierung dieser Läsionen, die oft zu spät für einen chirurgischen Eingriff erkannt werden, sehr genau sein.

Tatsächlich sagte Arun Thirunavukarasu, ein klinischer Forschungsstipendiat an der Universität Oxford, dass es „nichts Einzigartiges“ an der generativen KI gebe, was ihren Einsatz im Gesundheitswesen ausschließe.

„Profanere Anwendungen der generativen KI-Technologie sind machbar In „Die Lösungen sind kurz- und mittelfristig verfügbar und umfassen Textkorrekturen, automatische Dokumentation von Notizen und Briefen sowie verbesserte Suchfunktionen zur Optimierung elektronischer Patientenakten“, sagte er. „Es gibt keinen Grund, warum generative KI-Technologie – wenn sie effektiv ist – nicht eingesetzt werden könnte In Ich habe solche Rollen sofort übernommen.“

„Strenge Wissenschaft“

Aber während generative KI in bestimmten, begrenzten Bereichen der Medizin vielversprechend ist, weisen Experten wie Borkowski auf die technischen und Compliance-Hürden hin, die überwunden werden müssen, bevor generative KI als umfassendes unterstützendes Gesundheitsinstrument nützlich – und vertrauenswürdig – sein kann.

„Erhebliche Datenschutz- und Sicherheitsbedenken betreffen den Einsatz generativer KI im Gesundheitswesen“, sagte Borkowski. „Die Sensibilität medizinischer Daten und das Potenzial für Missbrauch oder unbefugten Zugriff stellen erhebliche Risiken für die Vertraulichkeit der Patienten und das Vertrauen in das Gesundheitssystem dar.“ Darüber hinaus entwickelt sich die regulatorische und rechtliche Landschaft rund um den Einsatz generativer KI im Gesundheitswesen immer noch weiter, wobei Fragen zur Haftung, zum Datenschutz und zur Ausübung der Medizin durch nichtmenschliche Einheiten noch geklärt werden müssen.“

Sogar Thirunavukarasu, der generative KI im Gesundheitswesen optimistisch sieht, sagt, dass hinter patientenorientierten Instrumenten „strenge wissenschaftliche Erkenntnisse“ stecken müssen.

„Vor allem ohne direkte Aufsicht durch Ärzte sollte es pragmatische randomisierte Kontrollstudien geben, die den klinischen Nutzen belegen, um den Einsatz patientenorientierter generativer KI zu rechtfertigen“, sagte er. „Eine ordnungsgemäße Governance ist für die Zukunft von entscheidender Bedeutung, um unerwartete Schäden nach einer groß angelegten Bereitstellung abzuwehren.“

Kürzlich hat die Weltgesundheitsorganisation Richtlinien veröffentlicht, die sich für diese Art von Wissenschaft und menschlicher Aufsicht über generative KI im Gesundheitswesen sowie für die Einführung von Prüfungen, Transparenz und Folgenabschätzungen dieser KI durch unabhängige Dritte einsetzen. Das Ziel, das die WHO in ihren Leitlinien darlegt, besteht darin, eine vielfältige Kohorte von Menschen zur Teilnahme an der Entwicklung generativer KI für das Gesundheitswesen zu ermutigen und die Möglichkeit zu geben, Bedenken zu äußern und während des gesamten Prozesses Beiträge zu leisten.

„Solange die Bedenken nicht angemessen ausgeräumt und geeignete Sicherheitsvorkehrungen getroffen werden“, sagte Borkowski, „könnte die weit verbreitete Implementierung medizinischer generativer KI … potenziell schädlich für Patienten und die Gesundheitsbranche insgesamt sein.“

tch-1-tech