KI-basierte Software-Systeme prüfen und validieren

Der Einsatz von Künstlicher Intelligenz beeinflusst bereits heute unser Leben:

Banken beurteilen unsere Kreditwürdigkeit mittels KI-basierter Software, Versicherungen kalkulieren Versicherungstarife KI-basiert auf Basis individueller Risiken, medizinische KI-Software unterstützt die ärztliche Diagnose, z.B. durch eine KI-basierte Analyse von Röntgenbildern.

Der Einsatz derartiger KI-basierter Software zur Entscheidungsunterstützung bietet enorme Vorteile: auch bei sehr hohen Fallzahlen und großen Datenmengen, kann die KI-Software jeden einzelnen Datensatz (z.B. den Versicherungsantrag des Kunden oder das Röntgenbild des Patienten) individuell analysieren und vollautomatisch eine Klassifizierung vornehmen. Das KI-System wird dabei auch nach tausenden Datensätzen nicht müde oder unaufmerksam und wendet stets dieselben Kriterien an.

Das Ergebnis solcher automatisierten Entscheidungen kann für den betroffenen Kunden oder Patienten gravierende Auswirkungen haben. Beispielsweise, wenn ein Versicherungsantrag abgelehnt wird, weil das KI-System ein hohes Schadensrisiko prognostiziert. Oder wenn eine medizinische Diagnose falsch gestellt wird, weil das KI-System das Röntgenbild falsch klassifiziert.

KI-basierte Entscheidungssysteme und autonome Systeme

Hersteller, aber auch Anwender von KI-basierten Entscheidungssystemen müssen sicherstellen, dass ihre KI-Software vertrauenswürdig ist!

Fehlerhafte Entscheidungen der KI können verschiede Ursachen haben:

  • die KI verarbeitet die zu prüfenden Daten falsch, weil (wie bei „normaler“ Software) ein Programmierfehler im Programmcode vorliegt,
  • die KI klassifiziert falsch, weil das anzuwendende Klassifikationsmodell unzureichend ist oder die KI dieses falsch oder unzureichend „gelernt“ hat,
  • die KI klassifiziert falsch, weil die Datengrundlage oder die Daten-Vorverarbeitung falsch, ungenau oder unvollständig ist.

Alle diese Aspekte müssen nicht nur einmalig (im Rahmen des Tests und der Validierung) des KI-basierten Entscheidungssystems) überprüft werden, sondern über den gesamten Lebenszyklus des Systems hinweg:

 

  • Die eingesetzten KI-Algorithmen müssen grundsätzlich geeignet und leistungsfähig genug sein, für die intendierte Anwendung.
  • Die verwendeten Trainingsdaten müssen repräsentativ und diskriminierungsfrei ausgewählt und verwendet werden.
  • Das System soll die Fähigkeit besitzen, seine Entscheidungen nachvollziehbar/erklärbar zu machen („explainable AI“). Je besser das System „begründen“ kann, warum eine Entscheidung so oder so ausgefallen ist, um so stärkeres kann der Anwender Vertrauen in die jeweilige Entscheidung haben.

Weitere Informationen dazu finden Sie in dem Artikel  "Warum KI intelligente Qualitätssicherung braucht" OBJEKTspektrum, Ausgabe 02/2020 und German Testing Magazin, Ausgabe 01/2020, S. 20-24 von Nils Röttger, Gerhard Runze und Verena Dietrich

Vertrauen in KI-basierte Systemen durch Qualitätssicherung

Damit KI-Systeme oder Software, die KI-Komponenten enthält, korrekt, zuverlässig, vertrauenswürdig und ethisch vertretbar funktioniert, ist es unerlässlich, dass die Entwicklung und der Betrieb solcher Systeme mit einem professionellen Qualitätssicherungsprozess flankiert sind.

Übrigens: Seit Mitte 2019 erarbeiten unsere imbus KI-Spezialisten sowie weitere Expertinnen und Experten aus Wirtschaft und Gesellschaft - unter Federführung des Deutschen Institut für Normung e.V. (DIN)und der Deutschen Kommission Elektrotechnik Elektronik Informationstechnik (DKE) in einem gemeinsamen Projekt mit dem Bundesministerium für Wirtschaft und Energie (BMWi) - eine Roadmap zu Normen und Standards im Bereich KI.

 

Das könnte Sie auch interessieren: