Spracherkennung im Gesundheitswesen verbesserungswürdig

Neue Studie zeigt: Siri, Alexa & Co. benötigen mehr R&D

Eine Studie zum Verständnis von Sprachassistenten zeigt, dass Plattformen wie Google Assistant, Apples Siri und Amazons Alexa die Genauigkeit ihrer Technologie für Anwendungen im Gesundheitswesen verbessern müssen.

46 Teilnehmer sollten bei der Anwendung von Google Assistant, Siri und Alexa die Namen gebräuchlicher Medikamente aussprechen. Die Ergebnisse waren unterschiedlich. Experten meinen nun, dass mehr Forschung und Entwicklung notwendig ist.

WARUM DIES WICHTIG IST

Die von Klick Health durchgeführte und in Nature Digital Medicine veröffentlichte Studie ergab, dass das Verständnis von Google für die in den USA am häufigsten verwendeten Medikamentennamen im Durchschnitt fast doppelt so präzise war wie das von Alexa und Siri.

Für die Studie wurden Alexa, Google Assistant und Siri Sprachaufzeichnungen von 46 Teilnehmern, darunter 12 mit ausländischem Akzent im Englischen, über Markennamen und Allgemeinbezeichnungen der 50 am häufigsten ausgegebenen Medikamente in den USA vorgespielt.

Google Assistant erzielte die Bestnote im Gesamtverständnis mit einer Genauigkeit von fast 92 Prozent bei Markennamen von Medikamenten und 84 Prozent bei deren Allgemeinbezeichnungen.

Im gleichen Test hatte Siri nur eine Genauigkeit von 58 Prozent bei Markennamen und 51 Prozent bei Allgemeinbegriffen, wobei Alexa, die digitale Stimmassistenz von Amazon, mit einer Genauigkeit von 54,6 Prozent bei Markennamen und weniger als der Hälfte (45 Prozent) bei Allgemeinbezeichnungen noch etwas schlechter abschnitt.

Obwohl alle drei Plattformen insgesamt ein gutes Verständnis der rezeptfreien Schmerzmittel Aspirin und Tylenol (90 Prozent oder höhere Genauigkeitsraten) zeigten, stellte die Studie fest, dass Alexa Medikamentennamen wie Advil mit nur 2 Prozent und Ibuprofen mit nur 4 Prozent deutlich schlechter erkannte.

Siri und Alexa erzielten auch niedrigere Gesamtverständnisraten für Forschungsteilnehmer mit hörbaren ausländischen Akzenten, während Google Assistant von Akzenten anscheinend nicht beeinträchtigt wurde.

DER ALLGEMEINE TREND

„Angesichts des multikulturellen Aufbaus Nordamerikas war dies eine wichtige Erkenntnis, und es ist wahrscheinlich, dass viele Menschen Probleme haben, genaue medizinische Informationen von Sprachassistenten zu erhalten, wenn sie diese zum Erhalten gesundheitsbezogener Daten verwenden“, so Adam Palanica, Verhaltensforscher bei Klick und Co-Autor der Studie, gegenüber Healthcare IT News.

Yan Fossat, Vizepräsident von Klick Labs und Co-Autor der Studie, erklärte gegenüber Healthcare IT News, dass die Studie ergab, dass Unternehmen, die digitale Sprachassistenten entwickeln, mehr Forschung und Entwicklung zur Erkennung dieser Art von Sprache benötigen, um ihre Fähigkeiten in Richtung künstlicher Intelligenz zu verbessern.

„Die Technologie wird immer besser, daher ist es nur eine Frage der Zeit, aber die Arbeit im Back-End muss erledigt werden, um die Algorithmen zu verbessern“, sagte er.

Fosset erklärte, dass es im Hinblick auf die Auswirkungen in der Praxis entscheidend sei, genaue Spracherkennungsfähigkeiten für medizinische Informationen zu entwickeln.

Obwohl durch einige der Ergebnisse ermutigt, betonte Fossat, dass mehr Arbeit erforderlich sei, um sicherzustellen, dass Sprachassistenten verstehen, was man zu ihnen sagt, insbesondere bei wichtigen Angelegenheiten wie der eigenen Gesundheit.

OFFIZIELLE STELLUNGNAHMEN

„Wenn Ihnen ein Sprachassistent irrelevante oder potenziell gefährliche Informationen zu einem Medikament gibt, nach dem Sie gerade gefragt haben, könnten die Folgen schwerwiegend sein, möglicherweise sogar tödlich“, erklärte Fossat.

„Da diese Sprachassistenten in erster Linie für nicht-medizinische Zwecke entwickelt wurden“, schloss er, „zeigt diese Studie, dass mehr Forschung und Entwicklung erforderlich ist, um die Spracherkennungsfähigkeiten dieser Plattformen speziell für medizinisch relevante Informationen zu verbessern.“


###
Dies ist eine Übersetzung eines Artikels von Nathan Eddy, erschienen auf Healthcare IT News.

 

eNotfallmedizin ist Modell der Zukunft

Universität Bern errichtet Professur für Telenotfallmedizin

Algorithmus übertrifft Ärzte

Wissenschaftler des DKFZ, der Universitäts-Hautklinik und des NCT haben gemeinsam einen Algorithmus entwickelt.

Warnung vor Nierenversagen mittels KI

Eignet sich Google DeepMind Algorithmus für deutsche Kliniken?