Künstliche Intelligenz in sicherheitskritischen Anwendungen – Effektive Strategien zur Sicherheitsargumentation

Künstliche Intelligenz (KI) ist branchenübergreifend in aller Munde. Den vielfältigen Möglichkeiten dieser Methoden stehen allerdings hohe Komplexität und Intransparenz gegenüber. Speziell in sicherheitskritischen Anwendungen der Medizintechnik ist eine der größten Herausforderungen ein glaubwürdiges Zuverlässigkeitsargument zu formulieren – das regulatorische Umfeld hat darauf noch keine Antwort. Mit zunehmend komplexeren Systemen werden in Zukunft die Anforderungen an Safety & Security weiter steigen:

  • Wie quantifiziert man Sicherheit?
  • Wie sicher ist sicher genug?
  • Mit welchen Mechanismen kann man KI-Systeme absichern?

Anhand ausgewählter Anwendungen der Medizintechnik und der Automobilindustrie zeigen wir Fallstricke auf und geben darauf aufbauend Empfehlungen für ein praktikables Vorgehen zur systematischen Absicherung von KI in sicherheitskritischen Systemen.

Dabei gehen wir exemplarisch auf folgende Anwendungen ein:

  • Klassifikationsalgorithmen automatischer externer Defibrillatoren
  • Sprachsteuerung im OP
  • Autonome Fahrzeuge

Unsere Praxiserfahrungen unterstützen dabei sowohl Assessoren und Auditoren als auch Ingenieure und helfen die Sicherheitsargumentation zu verbessern.

Was lernen die Zuhörer in dem Vortrag?

Die Teilnehmer dieses Vortrags lernen Strategien zur Absicherung von KI-Systemen anhand von Beispielen aus Medizin- und Automobilindustrie kennen. Dabei legen wir besonderen Wert auf typische Fragestellungen und Fallstricke und helfen diese zu vermeiden.

Tim Jones
Tim Jones

Herr Tim Jones ist als Functional Safety Consultant bei der exida.com GmbH tätig. Er verfügt über mehr als 10 Jahre Erfahrung in den Bereichen Systems und...


Florian Bogenberger
Florian Bogenberger

Als Managing Safety Consultant leitet Florian Bogenberger ein Team von Technologie-Spezialisten bei der exida.com GmbH und berät führende Unternehmen bei der...

45 Minuten Vortrag

Fortgeschritten
Zeit

10:50-11:35
23. Oktober


Raum

Raum "Paris"


Schwerpunkt

Safety & Security


Zielpublikum

Safety-Ingenieure und -manager, Qualitätsingenieure und -manager, Projektleiter, Entwicklungsingenieure, Algorithmenentwickler


ID

Mi2.1

Zurück

Copyright © 2019 HLMC Events GmbH