Current Location:Home > NEWS > Künstliche Intelligenz transparenter machen
Künstliche Intelligenz transparenter machen
share: Updated:2023-09-20 00:00:00

Das Thema Künstliche Intelligenz (KI) beschäftigt seit vielen Jahren Wissenschaft wie Wirtschaft. Mit der Anwendung von ChatGPT des US-amerikanischen Unternehmens OpenAI hat die Diskussion zur KI zusätzlich die breite Öffentlichkeit erfasst – international und national. Dabei zeigt sich, dass der KI auch mit Misstrauen begegnet wird. Das zentrale Stichwort ist hier die „Blackbox KI“, da vielfach unklar ist, wie KI- Anwendungen zu ihren Ergebnissen kommen, auf Basis welcher Quellen und ob die entstandenen Aussagen der Wahrheit entsprechen. Hier fehlten bisher Standards zur Erklärbarkeit von KI, die dafür sorgen, dass Vertrauen in die Anwendungen wachsen kann. Die neue DIN SPEC 92001-3 spezifiziert Kriterien zur Förderung der Erklärbarkeit von KI. Der 

Die Idee

Um sicherzustellen, dass KI-Systeme effizient, verantwortungsbewusst und vertrauenswürdig eingesetzt werden, sollten ihre Entwicklung und ihr Einsatz einschlägigen Qualitätskriterien genügen. „Der neue Standard soll dabei helfen, Vertrauen in die Nutzung und die Sicherheit durch Erklärbarkeit von KI-Anwendungen zu fördern und damit sichere Rahmenbedingungen für die Entwicklung der Zukunftstechnologie zu schaffen“, erklärt Annegrit Seyerlein-Klug, Standardization Manager / Product Management bei der neurocat GmbH und Leiterin des DIN-SPEC-Konsortiums das Ziel.

Die DIN SPEC 92001-3 als Leitfaden

Die neu entstandene DIN SPEC 92001-3 bietet einen Leitfaden für geeignete Ansätze und Methoden zur Förderung der Erklärbarkeit in allen Phasen des Lebenszyklus eines KI-Systems. Sie definiert und beschreibt die Quellen und Auswirkungen von Intransparenz in der heutigen KI. Dazu betrachtet der Standard die Art und Weise, wie Erklärungen eingesetzt werden können und sollten, um diese Auswirkungen für verschiedene Interessengruppen in unterschiedlichen Phasen des Lebenszyklus von KI-Systemen abzumildern.

Breite Abdeckung

Die beschriebenen Qualitätskriterien sind für alle Arten von KI-Systemen und für alle Bereiche, in denen solche Systeme eingesetzt werden, angelegt. Insbesondere gelten sie für KI-Systeme mit unterschiedlichem Grad an Intransparenz. So erleichtern diese Qualitätskriterien ein besseres Verständnis und eine effektivere Nutzung von erklärbarer KI. Außerdem ermöglichen sie es Organisationen, Prinzipien des Vertrauens und der Transparenz in ihre KI-basierten Anwendungen einzubetten. Sie bilden auch die konzeptionelle und prozedurale Grundlage für die Formulierung spezifischer Anforderungen an die Erklärbarkeit und den nachvollziehbaren Nachweis des technisch korrekten Betriebs.

Die DIN SPEC 92001-3 ist ein Ergebnis des KI.NRW Flagship-Projekts ZERTIFIZIERTE KI, welches das Fraunhofer IAIS gemeinsam mit dem Bundesamt für Sicherheit in der Informationstechnik (BSI) und dem Deutschen Institut für Normung (DIN) sowie weiteren wissenschaftlichen Partnern und assoziierten Industriepartnern durchführt. Gefördert wird es vom Ministerium für Wirtschaft, Industrie, Klimaschutz und Energie des Landes Nordrhein-Westfalen.

Dritter Teil einer Reihe

Die DIN SPEC schließt sich als dritter Teil einer Reihe von KI-Standards an, die bereits vor Beginn des Projektes ZERTIFIZIERTE KI entstanden sind. Die ersten beiden Dokumente in dieser Reihe – DIN SPEC 92001-1 und DIN SPEC 92001-2 – legen zum einen ein KI-Qualitäts-Metamodell und einen Lebenszyklus fest, um die allgemeinen KI-Qualitätskriterien Robustheit, Erklärbarkeit und Leistung hervorzuheben. Zum anderen werden Kriterien zur Sicherstellung der Robustheit von KI-Systemen spezifiziert. 


Friend Link
Ministry of Commerce of the people's Republic of China
State Administration for market Regulation
Standardization Administration of China
National Center of Standards Evaluation,SAMR
China National Institute of Standardization
China zhijian Publishing House
TechnicalSupport
国家市场监督管理总局国家标准技术审评中心 电话:010-65009141 转(121)