WERBUNG

Generative Künstliche Intelligenz (KI): Die WHO gibt neue Leitlinien zur Governance von LMMs heraus

WHO hat neue Leitlinien zur Ethik und Governance großer multimodaler Modelle (LMMs) für deren angemessene Nutzung zur Förderung und zum Schutz der Gesundheit der Bevölkerung herausgegeben. LMMs sind eine Art schnell wachsender generativer Typ künstliche Intelligenz (KI)-Technologie, die fünf breite Anwendungen für die Gesundheit hat in 

1. Diagnose und klinische Betreuung, z. B. Beantwortung schriftlicher Anfragen von Patienten; 

2. Patientengesteuerter Einsatz, etwa zur Untersuchung von Symptomen und Behandlung; 

3. Büro- und Verwaltungsaufgaben, wie z. B. die Dokumentation und Zusammenfassung von Patientenbesuchen in elektronischen Gesundheitsakten; 

4. Medizinische und pflegerische Ausbildung, einschließlich der Bereitstellung simulierter Patientenbegegnungen für Auszubildende, und; 

5. Wissenschaftliche Forschung und Arzneimittelentwicklung, einschließlich der Identifizierung neuer Verbindungen. 

Allerdings besteht bei diesen Anwendungen im Gesundheitswesen das Risiko, dass falsche, ungenaue, voreingenommene oder unvollständige Aussagen gemacht werden, die Menschen schaden könnten, die solche Informationen bei Gesundheitsentscheidungen verwenden. Darüber hinaus können LMMs anhand von Daten geschult werden, die von schlechter Qualität oder voreingenommen sind, sei es aufgrund von Rasse, ethnischer Zugehörigkeit, Abstammung, Geschlecht, Geschlechtsidentität oder Alter. Es bestehen auch umfassendere Risiken für die Gesundheitssysteme, etwa die Zugänglichkeit und Erschwinglichkeit der leistungsstärksten LMMs. LMMs können auch eine „Automatisierungsverzerrung“ durch medizinisches Fachpersonal und Patienten fördern, wodurch Fehler übersehen werden, die andernfalls erkannt worden wären, oder schwierige Entscheidungen fälschlicherweise an ein LMM delegiert werden. LMMs, wie andere Formen von AI, sind auch anfällig für Cybersicherheitsrisiken, die Patienteninformationen oder die Vertrauenswürdigkeit dieser Algorithmen und die Bereitstellung von Gesundheitsversorgung im Allgemeinen gefährden könnten. 

Um sichere und wirksame LMMs zu schaffen, hat die WHO daher Empfehlungen für Regierungen und Entwickler von LMMs ausgesprochen. 

Die Hauptverantwortung liegt bei den Regierungen, Standards für die Entwicklung und den Einsatz von LMMs sowie deren Integration und Nutzung für öffentliche Gesundheits- und medizinische Zwecke festzulegen. Regierungen sollten in gemeinnützige oder öffentliche Infrastruktur investieren oder diese bereitstellen, einschließlich Rechenleistung und öffentliche Datensätze, die Entwicklern im öffentlichen, privaten und gemeinnützigen Sektor zugänglich sind und von den Benutzern die Einhaltung ethischer Grundsätze und Werte verlangen Austausch gegen Zugang. 

· Nutzen Sie Gesetze, Richtlinien und Vorschriften, um sicherzustellen, dass LMMs und Anwendungen im Gesundheitswesen und in der Medizin verwendet werden, unabhängig von den damit verbundenen Risiken oder Vorteilen AI Technologie, erfüllen ethische Verpflichtungen und Menschenrechtsstandards, die beispielsweise die Würde, Autonomie oder Privatsphäre einer Person berühren. 

· Beauftragen Sie eine bestehende oder neue Regulierungsbehörde mit der Bewertung und Genehmigung von LMMs und Anwendungen, die für den Einsatz im Gesundheitswesen oder in der Medizin vorgesehen sind – sofern die Ressourcen dies zulassen. 

· Einführung obligatorischer Post-Release-Audits und Folgenabschätzungen, auch in Bezug auf Datenschutz und Menschenrechte, durch unabhängige Dritte, wenn ein LMM in großem Maßstab eingesetzt wird. Die Prüfungen und Folgenabschätzungen sollten veröffentlicht werden 

und sollte Ergebnisse und Auswirkungen umfassen, aufgeschlüsselt nach der Art des Benutzers, einschließlich beispielsweise nach Alter, Rasse oder Behinderung. 

· LMMs werden nicht nur von Wissenschaftlern und Ingenieuren entworfen. Potenzielle Nutzer und alle direkten und indirekten Interessengruppen, einschließlich medizinischer Anbieter, wissenschaftlicher Forscher, medizinischem Fachpersonal und Patienten, sollten bereits in den frühen Phasen einbezogen werden AI Entwicklung eines strukturierten, integrativen und transparenten Designs und gegebene Möglichkeiten, ethische Fragen anzusprechen, Bedenken zu äußern und Beiträge für die zu leisten AI Antrag in Betracht gezogen. 

LMMs sind darauf ausgelegt, genau definierte Aufgaben mit der notwendigen Genauigkeit und Zuverlässigkeit auszuführen, um die Kapazität von Gesundheitssystemen zu verbessern und die Interessen der Patienten voranzutreiben. Entwickler sollten auch in der Lage sein, potenzielle sekundäre Ergebnisse vorherzusagen und zu verstehen. 

*** 

Quelle: 

WHO 2024. Ethik und Governance künstlicher Intelligenz für die Gesundheit: Leitlinien zu großen multimodalen Modellen. Verfügbar um https://iris.who.int/bitstream/handle/10665/375579/9789240084759-eng.pdf?sequence=1&isAllowed=y 

***

SCIEU-Team
SCIEU-Teamhttps://www.ScientificEuropean.co.uk
Scientific European® | SCIEU.com | Bedeutende Fortschritte in der Wissenschaft. Auswirkungen auf die Menschheit. Inspirierende Köpfe.

Abonnieren Sie unseren Newsletter

Aktualisierung mit den neuesten Nachrichten, Angeboten und Sonderankündigungen.

Beliebteste Artikel

Künstliches sensorisches Nervensystem: Ein Segen für die Prothetik

Forscher haben ein künstliches sensorisches Nervensystem entwickelt, das...

Varianten des Coronavirus: Was wir bisher wissen

Coronaviren sind RNA-Viren, die zur Familie der Coronaviridae gehören. Diese Viren zeigen bemerkenswert hohe...

Abell 2384: Die neue Wendung in der Geschichte der Fusion zweier "Galaxienhaufen"

Röntgen- und Radiobeobachtung des Galaxiensystems Abell 2384...
- Werbung -
94,471LüfterLike
47,679FollowerFolgen Sie uns
1,772FollowerFolgen Sie uns
30AbonnentenAbonnieren