Cover VDE-AR-E 2842-61-6 Anwendungsregel:2021-06
größer

VDE-AR-E 2842-61-6 Anwendungsregel:2021-06

Entwicklung und Vertrauenswürdigkeit von autonom/kognitiven Systemen

Teil 61-6: Nach Freigabe der Solution; Text Englisch

Art/Status: Anwendungsregel, gültig
Ausgabedatum: 2021 -06
VDE-Artnr.: 0800732

Hinweis - Note:
Der Inhaltstext dieses Dokuments ist in englischer Sprache gehalten.
The content text of this document is in English.


Referenzmodell für eine vertrauenswürdige KI: Die neue VDE-Anwendungsregel VDE-AR-E 2842-61-6. Künstliche Intelligenz (KI) verfügt über das große Potenzial, die Gesellschaft, Wirtschaft und das Zusammenleben der Menschen nachhaltig zu verändern. Sie kann helfen, Emissionen zu verringern, Krankheiten zu entdecken, Menschen oder Güter zu transportieren oder Prozesse effizienter zu gestalten. Gleichzeitig stellt KI die Menschheit vor große Herausforderungen zu den Befugnissen eines KI-Systemen. Die Lösung dieser Fragen erfordert eine technische Umsetzung bei der Konzeption von KI-Systemen und -Algorithmen. Es müssen technische Regeln implementiert werden, die definieren, wie KI-Komponenten in Produkte integriert werden können und den vorgelagerten Entwurfsprozess beschreiben. Die Sicherheit von KI-Systemen und -Lösungen muss zu jeder Zeit gewährleistet sein, sobald diese im Markt zur Anwendung kommen. Die Besonderheit von KI-Systemen ist deren Komplexität: Funktionen können nicht einfach (durch den Menschen) geprüft werden. Das System muss die Sicherheit selbst gewährleisten und beispielsweise Anforderungen der funktionalen Sicherheit inhärent erfüllen. Diese VDE-Anwendungsregel wird auch Vorgaben zu Verifikation und Qualifikation solcher Systeme geben und somit den gesamten Lebenszyklus abbilden. Einen besonderen Schwerpunkt legt diese VDE-Anwendungsregel auf die Entwurfsphase (development): Die Abgrenzung im Vergleich zu den klassischen Grenzen einer Maschine wird weiter gefasst, da die Interaktion mit dem Menschen und die Interaktion mit der Umgebung mit spezifiziert werden muss. Insbesondere für KI-Systeme sind Vertrauenswürdigkeitsanforderungen (trustworthiness), wie physische Sicherheit (safety), Informationssicherheit (security), Gebrauchstauglichkeit (usability) oder ethische und regulatorische Fragestellungen, von elementarer Bedeutung. Das Modell der VDE-Anwendungsregel wird Anforderungen definieren, die zu Vertrauenswürdigkeit beitragen. Damit werden unter anderem Grundlagen für Qualifizierung und Zulassung gelegt, die über den weiteren Prozess nachverfolgt werden können. Diese VDE-Anwendungsregel wird verschiedene Entwicklungsschritte anhand des Lebenszyklus für KI-Systeme definieren. Hierzu gehören der Entwurf auf Systemebene (u. a. Vertrauenswürdigkeitsattribute), Komponentenebene (u. a. Hardware, Software und KI-Blaupausen zur Anwendung einer KI-Methodik), Integration, Verifikation und Validierung sowie Abnahme und Freigabe. Das Modell umfasst darüber hinaus auch Vorgaben zur Marktbeobachtung und korrigierende sowie schützende Maßnahmen (eng. Corrective And Preventive Action – CAPA).
Reference model for trustworthy AI: The new VDE application guide VDE-AR-E 2842-61-6. Artificial intelligence (AI) has the great potential to change society, the economy and the coexistence of people in the long term. It can help to reduce emissions, detect diseases, transport people or goods or make processes more efficient. At the same time, AI poses great challenges to humanity regarding the powers of an AI system. The solution of these questions requires a technical implementation in the design of AI systems and algorithms. Technical rules must be implemented that define how AI components can be integrated into products and describe the upstream design process. The security of AI systems and solutions must be guaranteed at all times, as soon as they are used in the market. The special feature of AI systems is their complexity: Functions cannot simply be tested (by humans). The system itself must guarantee safety and, for example, inherently fulfil functional safety requirements. This VDE application guide will also provide requirements for the verification and qualification of such systems and thus map the entire life cycle. This VDE application guide places particular emphasis on the design phase (development): the boundaries compared to the classic limits of a machine are broader, since interaction with humans and interaction with the environment must also be specified. Especially for AI systems, trustworthiness requirements, such as physical safety, information security, usability or ethical and regulatory issues are of fundamental importance. The model of this VDE application rule will define requirements that contribute to trustworthiness. Among other things, this will lay the foundations for qualification and approval, which can be followed up in the further process. This VDE application guide will define various development steps based on the life cycle for AI systems. These include the design at system level (including trustworthiness attributes), component level (including hardware, software and AI blueprints for the application of an AI methodology), integration, verification and validation, and acceptance and release. The model also includes market monitoring requirements and corrective and preventive action (CAPA).