Psychologische und soziale Implikationen von KI- Ansätzen in der Medizintechnik

Technologien im Bereich Künstlicher Intelligenz verändern sich immer schneller. Bei der Frage von Vertrauen in bzw. Akzeptanz von neuen Technologien, wie Big Data, Deep Learning - insbesondere im Bereich Medizintechnik - liegt der Fokus auf der menschlichen Perspektive von Innovation: wie Nutzer mit KI-erweiterten medizinischen Produkten interagieren wollen und können. Dabei ist einerseits zwischen drei Nutzertypen zu unterscheiden: Professionelle Nutzer (medizinisches Personal), nicht professionelle Nutzer (Patient als Nutzer) und Patienten. Andererseits müssen die verschiedenen Ansätze der KI betrachtet werden, wie Big Data, Deep-Learning, Predictive Analytics u.a.m.

Mit Ansätzen der Vertrauens- und Akzeptanzforschung werden neue KI-Technologien und Innovationen analysiert, vom robotischen Transport im Krankenhaus bis hin zum digitalen Assistenten am Krankenbett. Dabei wird mit den Methoden der Systemischen Analyse, nicht nur die KI, sondern die jeweiligen sozio-technischen Systeme ("HOT" – Human-Organization-Technology) untersucht. Es werden Fragen analysiert, wie z.B.:

  • Passen die Erwartungen der professionellen Anwender mit den Möglichkeiten der KI zusammen?
  • Kann das Potenzial von KI-erweiterten medizinischen Produkten unter den gegebenen organisatorischen Bedingungen entfaltet werden?

Das Ziel ist es, die Einführung und Nutzung von KI- Ansätzen besser zu gestalten, indem die menschlichen Bedürfnisse und Erwartungen so früh wie möglich in die technologische Entwicklung und Anwendung der Innovationen einbezogen werden.
Um die psychologischen und sozialen Implikationen innovativer KI-Ansätze angemessen berücksichtigen zu können, muss ein Verständnis für die bewussten und unbewussten Gründe entwickelt werden, aus denen potenzielle Nutzer KI-erweiterte medizinische Produkte akzeptieren oder ablehnen. Daraus lässt sich neben dem Potenzial von KI-Technologien auch ableiten, wovon das Vertrauen und die Akzeptanz genau abhängt und wie sich diese positiv beeinflussen lässt.
Im Rahmen des Vortrages wird diskutiert, wie Vertrauen und Akzeptanz in die Nutzung aktueller und zukünftiger KI-erweiterter Medizinprodukte erfasst und verbessert werden kann. 

 

Was lernen die Zuhörer in dem Vortrag:

Wie kann Vertrauen und Akzeptanz in die Nutzung aktueller und zukünftiger KI-erweiterter Medizinprodukte erfasst und verbessert werden.

 

Referenten: Prof. Dr. Harald Schaub und Andreas Schmitt, IABG GmbH

Umfangreiche Kenntnisse im Bereich Ergonomie, Mensch-System-Integration, Human Factors und Safety/Security
Ausbildungsplanung/-durchführung für die Bw/NATO, öAG, Industrie, Wissenschaft; Bewertung und Gestaltung von Mensch-System/Maschine Schnittstellen, Ausbildung und Training, Gefährdungsanalysen im Bereich Mobilität, Waffensysteme, Prozesse, Informationstechnologie

Nach dem Studium der Psychologie, Informatik und Biologie war er wissenschaftlicher Mitarbeiter bei der Max-Planck-Gesellschaft und Professor an den Universitäten Jena, Erfurt und Chemnitz. Seine Forschungsaufenthalte führten in nach Japan, Australien, USA und Indien.

Neben der Leitung einer Vielzahl von Projekten für die EU, NATO, Bundeswehr, DFG und für die Industrie hatte und hat er Leitungsfunktionen verschiedener operativer Einheiten in der IABG inne. Er ist aktuell Leiter der Safety & Security Academy bei der IABG in Ottobrunn bei München und Professor für Psychologie und Statistik an der Otto-Friedrich-Universität Bamberg.

Andreas Schmitt: Studium Psychologie / Human Factors. Mitarbeiter im Innovationszentrum der IABG zu den Themen Safety, Human Factors, Ergonomie

Key Facts

Themengebiet: Künstliche Intelligenz in der Medizintechnik

Anspruch: Fortgeschrittene

Schlüsselwörer: KI, Vertrauen, Akzeptanz, Sozio-technisches System

Datum und Uhrzeit: 21. Oktober 2021, 14:35 bis 15:20

Raum: Rom

Copyright © 2021 HLMC Events GmbH