Die WHO hat eine „Gesundheitswarnung“ zu ChatGPT und Google Bard

Die WHO hat eine „Gesundheitswarnung zu ChatGPT und Google Bard
Die Weltgesundheitsorganisation (WER) fordert Vorsicht beim Einsatz künstlicher Intelligenz (KI) generierte Large Language Model Tools (LLMs) zum Schutz und zur Förderung des menschlichen Wohlbefindens, der menschlichen Sicherheit und Autonomie sowie zur Erhaltung der öffentlichen Gesundheit. Zu den LLMs gehören einige der am schnellsten wachsenden Plattformen wie z ChatGPTBard, Bert und andere, die das Verstehen, Verarbeiten und Produzieren menschlicher Kommunikation nachahmen.
„Es ist unbedingt erforderlich, die Risiken sorgfältig zu prüfen, wenn LLMs zur Verbesserung des Zugangs zu Gesundheitsinformationen, als Entscheidungshilfeinstrument oder sogar zur Verbesserung der Diagnosekapazität in unterfinanzierten Umgebungen eingesetzt werden, um die Gesundheit der Menschen zu schützen und Ungleichheit zu verringern“, hieß es in ein Statement.
Das UN-Gremium sagte, es sei zwar begeistert von der angemessenen Nutzung von Technologien, einschließlich LLMs, zur Unterstützung von Gesundheitsfachkräften, Patienten, Forschern und Wissenschaftlern, „besteht jedoch die Sorge, dass die Vorsicht, die normalerweise bei neuen Technologien geboten wäre, nicht gewahrt wird.“ wird im Einklang mit LLMs ausgeübt. Dazu gehört die weit verbreitete Einhaltung der Schlüsselwerte Transparenz, Inklusion, öffentliches Engagement, fachkundige Aufsicht und strenge Bewertung.
5 Dinge, die der WHO in Bezug auf LLMs Sorgen bereiten
* Die zum Training der KI verwendeten Daten können verzerrt sein und irreführende oder ungenaue Informationen generieren, die ein Risiko für Gesundheit, Gerechtigkeit und Inklusivität darstellen könnten.
* LLMs generieren Antworten, die für einen Endbenutzer maßgeblich und plausibel erscheinen können; Diese Antworten können jedoch völlig falsch sein oder schwerwiegende Fehler enthalten, insbesondere bei gesundheitsbezogenen Antworten.
* LLMs können auf Daten trainiert werden, für die zuvor möglicherweise keine Einwilligung für eine solche Verwendung erteilt wurde, und LLMs schützen möglicherweise keine sensiblen Daten (einschließlich Gesundheitsdaten), die ein Benutzer einer Anwendung zur Generierung einer Antwort bereitstellt.
* LLMs können missbraucht werden, um äußerst überzeugende Desinformationen in Form von Text-, Audio- oder Videoinhalten zu generieren und zu verbreiten, die für die Öffentlichkeit nur schwer von zuverlässigen Gesundheitsinhalten zu unterscheiden sind. Und
* Die WHO ist zwar bestrebt, neue Technologien, einschließlich KI und digitale Gesundheit, zur Verbesserung der menschlichen Gesundheit zu nutzen, empfiehlt jedoch, dass politische Entscheidungsträger die Sicherheit und den Schutz der Patienten gewährleisten, während Technologieunternehmen an der Kommerzialisierung von LLMs arbeiten.

toi-tech