Vertrauen in Künstliche Intelligenz kann das Gesundheitswesen transformieren

Auf der CES 2021 haben Experten darüber beraten, wie man die Skepsis gegenüber KI-Software überwinden kann und damit gleichsam, wie man etwas vertrauen kann, das schwer zu verstehen und zu visualisieren ist.

Bereits heute werden künstliche Intelligenz und maschinelles Lernen von Gesundheitsorganisationen in fast allen Aspekten der Pflege eingesetzt. Von der Unterstützung klinischer Entscheidungen bis zur Automatisierung des Umsatzzyklus ist KI zu einem wichtigen Instrument im Gesundheitswesen geworden.

Es bleibt das Problem, wie Mediziner, Mitarbeiter und Patienten Vertrauen in etwas haben können, das sie nicht sehen und oft nicht verstehen können. Gesundheitsexperten haben dieses Problem jetzt während einer virtuellen Podiumsdiskussion auf der CES 2021 Anfang Januar angesprochen.

WOHER DIE VERTRAUENSPROBLEME KOMMEN

Christina Silcox, Policy Fellow für digitale Gesundheit im Duke-Margolis Zentrum für Gesundheitspolitik, erklärte, dass Benutzer bei vielen Algorithmen für maschinelles Lernen Benutzer nicht sehen können, was auf der Dateneingabeebene vor sich geht. Dies mache es schwierig zu verstehen, wie die Software ihre Empfehlungen erstellt.

„Kommunikation ist der Schlüssel“, sagte sie während der Diskussion. „Sie können jemandem nicht einfach Software vorsetzen und sagen „Vertrauen Sie darauf“, insbesondere wenn derjenige Entscheidungen auf der Grundlage der erhaltenen Informationen treffen muss, die für den Patienten wirklich wichtig sind.“

Auf behördlicher Ebene wird KI manchmal von wichtigen Genehmigungsprozessen ausgeschlossen, um das Vertrauen der Verbraucher zu stärken.

„Nicht alle dieser Produkte gelten als Medizingeräte“, sagte Silcox. „Daher stehen sie nicht unter der Autorität der FDA und erhalten nicht unbedingt das FDA-Gütesiegel noch werden sie durch vertrauenswürdige Gutachter von Drittanbietern überprüft.“

Silcox wies auch darauf hin, dass Software nicht immer patentiert werden kann, was dazu führen kann, dass sich Hersteller auf das Geschäftsgeheimnis verlassen.

„Das bedeutet, dass sie möglicherweise eher zögern, Details weiterzugeben, als dies sonst der Fall wäre, wenn sie diese patentierte Software hätten“, sagte sie.

Werden Informationen über ein Produkt verborgen, erfährt die Öffentlichkeit keine Details, durch die Vertrauen in das Produkt geschaffen werden könnte.

Laut Silcox können diese vertrauensbildenden Informationen zum Beispiel unabhängige Leistungsdaten sein sowie Daten darüber, für welche Population die Software bestimmt ist und wie sie verwendet werden sollte, Erklärungen, warum und wie das Produkt seine Entscheidungen trifft, Details zu den Daten, mit denen der Algorithmus trainiert wurde, welche Anforderungen an die Eingaben gestellt werden und wie die Software im Laufe der Zeit bewertet und aktualisiert wird.

WIE MAN VERTRAUEN IN KI AUFBAUT

Laut Pat Baird, dem leitenden Regulierungsspezialisten bei Philips, muss das Vertrauen in Künstliche Intelligenz auf drei Ebenen aufgebaut werden: das zu erzielende Vertrauen sollte sowohl in technischer, behördlicher als auch menschlicher Hinsicht bestehen.

Die erste Ebene befasst sich damit, ob der Algorithmus das tut, wofür er entwickelt wurde. „Also handelt es sich, rein aus intellektueller Sicht, um eine solide Anwendung oder nicht?", sagte Baird.

Auf behördlicher Ebene muss die Software in der Lage sein, den Erwartungen und Anforderungen verschiedener Behörden gerecht zu werden, sagte Baird weiter.

Aber schlussendlich muss das Produkt der Kontrolle durch die Anwender standhalten.

„Wir sprechen hier auch über die Interaktion mit Menschen und manchmal folgen diese nicht unbedingt nur dem technischen Vertrauen und dem behördlichen Vertrauen. Sie werden einige Fragen haben“, sagte Baird. „Wenn Ihr Produkt eine schlechte Benutzeroberfläche hat, werden die Leute es nicht mögen und sie werden ihm möglicherweise nicht vertrauen.“

(…)
 

Um den vollständigen Artikel im englischen Original zu lesen, klicken Sie bitte HIER.

##
Dies ist eine Übersetzung eines englischsprachigen Artikels von Mallory Hackett, erschienen auf MobiHealthNews.

Auch für Sie interessant

Your search returned no results.