July 29, 2021

Künstliche Intelligenz kann also die Voreingenommenheit im Gesundheitswesen ausbügeln

Der Einsatz von KI im Gesundheitswesen kann jahrzehntelang bestehende Vorurteile und Diskriminierung in der Branche neutralisieren, muss dafür aber durch spezielle Algorithmen weiter verbessert werden

Der Einsatz von Künstlicher Intelligenz im medizinischen Bereich verspricht, Ärzte und Techniker zu entlasten, zahlreiche Verfahren zu beschleunigen und die Ressourcen eines Krankenhaussystems zu optimieren. Der Einsatz von KI im Gesundheitswesen birgt nach Ansicht von immer mehr Experten jedoch ein weiteres nicht zu unterschätzendes Potenzial: die Neutralisierung von Vorurteilen und Diskriminierung, die in der Branche seit Jahrzehnten vorhanden sind.

Risiken und Chancen
Eines der Risiken, die mit dem wahllosen Einsatz von Techniken der künstlichen Intelligenz im medizinischen Bereich verbunden sind, besteht darin, dass diese Modelle Ergebnisse liefern, die von Vorurteilen oder Verzerrungen beeinflusst sind. Das Problem ist in der gesamten KI-Branche bekannt: Die Datenbanken, mit denen algorithmische Modelle trainiert werden, können für das menschliche Auge kaum sichtbare Diskriminierungsspuren verbergen, die unsichtbar bleiben und von Systemen vererbt werden, mit denen dann Probleme aller Art gelöst werden. .

Das Thema wurde auch auf einer kürzlich von der Radiological Society of North America organisierten Konferenz diskutiert, bei der eine klare Schlussfolgerung gezogen wurde: Eine sorgfältig verbesserte und überwachte Ai kann nicht nur das Risiko schädlicher Vorurteile überwinden, sondern auch glätten traditionell im medizinischen Bereich präsent.

Rezept
Der erste Schritt – so stellte sich auf der Konferenz heraus – ist natürlich ein genaues Verständnis der Ungleichheiten, die sich in der Behandlung von Patienten in Kliniken und Krankenhäusern ausdrücken: Menschen aus unterschiedlichen sozialen Schichten haben Zugang zu unterschiedlichen Versorgungsformen, und auch deshalb haben sie klagen über verschiedene Arten von Problemen. Um wirklich robuste Algorithmen zu bauen, müssen diese Unterschiede in allen Entwicklungsstadien berücksichtigt werden.

Es ist auch wichtig, diese Werkzeuge zu verfeinern, indem die Fehler auch nach dem Start der Aktivität analysiert werden, beispielsweise durch das Betrachten der richtigen und falschen Diagnosen: Alle richtigen haben etwas gemeinsam, genauso wie die falschen; das Finden des roten Fadens kann deutlich machen, in welche Richtungen die bereits im Einsatz befindlichen Systeme unausgeglichen sind.

Schließlich ist es wichtig, den Patienten zuzuhören. Laut einer in Nature veröffentlichten Studie können programmierte Algorithmen, die die Patienteneingaben im Zentrum halten, unabhängig von der behandelten Person realitätsnähere Ergebnisse liefern und diskriminierende Phänomene wie das zwischen Menschen verschiedener ethnischer Gruppen berichtete Schmerzgefälle neutralisieren.

Vielversprechende Ergebnisse
Die Radiologieprofessorin Constance Lehman und die MIT-Forscherin Regina Barzilay stellten auf der Konferenz einen nach diesen Kriterien entwickelten Algorithmus vor, mit dem das Brustkrebsrisiko allein anhand der Mammographien der Patientinnen – ohne Anamnese oder Biopsien – beurteilt werden kann.

Das Modell wurde auf Datenbanken von Bevölkerungsgruppen verschiedener ethnischer Gruppen und sozialer Schichten trainiert und liefert zuverlässigere Ergebnisse als andere Modelle, ohne zu diskriminieren, dass in diesem Sektor farbige Frauen statistisch benachteiligt werden und die Inklusivität und Genauigkeit erhöht werden.

In den von Lehman betreuten Strukturen wurde diese Art von Algorithmus verwendet, um in einer Zeit knapper Ressourcen die zu untersuchenden Patienten stärker zu priorisieren: der Covid-Pandemie, die mit ihren Einschränkungen zur Streichung von Millionen von Mammographien geführt hat nur in den USA. Mithilfe von Algorithmen gingen die verfügbaren Heilmittel an diejenigen, die sie wirklich am dringendsten benötigten.