Künstliche Intelligenz (KI) kann unserer Gesellschaft zahlreiche Vorteile bieten. Diese Systeme können unter anderem bei Vorhersagen über Klima und Finanzmärkte, automatisierten medizinischen Diagnosen und (teil-) autonomen Transportmitteln eingesetzt werden. Dazu müssen die Systeme aus Sicht des Bundesamtes für Sicherheit in der Informationstechnik (BSI) jedoch nicht nur sicher geplant und entwickelt, sondern auch sicher eingeführt und betrieben werden.
Das Dokument „Guidelines for Secure AI System Development“ der Partnerbehörden des BSI aus Großbritannien und den USA stellt einen Leitfaden zur Entwicklung sicherer KI-Systeme bereit. 23 internationale Cybersicherheitsbehörden aus 18 Ländern unterstützen den Leitfaden, an dem auch das BSI mitgewirkt hat. Die Guidelines sollen den Betreibern helfen, KI-Systeme zu entwickeln, die wichtige Anforderungen erfüllen: Die Systeme müssen jederzeit bei Bedarf verfügbar sein und dabei erwartungsgemäß und zuverlässig arbeiten. Außerdem dürfen sie keine sensiblen Daten preisgeben.
Die Veröffentlichung richtet sich in erster Linie an Betreiber von KI-Produkten. In Verbindung mit bestehenden Prinzipien wie „security-by-design“ und „security-by-default“ zeigt das Dokument, welche KI-spezifischen Schadensanfälligkeiten existieren und wie diese in der Entwicklung berücksichtigt werden können. Endnutzer haben meist keine Einblicke, um die Risiken, die mit KI verbunden sind, nachzuvollziehen. Die Cybersicherheitsbehörden fordern auch, dass Betreiber von KI-Systemen Anwenderinnen und Anwender zu möglichen Risiken informieren und aufzeigen, wie sie die Systeme sicher nutzen.
Die gemeinsame internationale Veröffentlichung verdeutlicht aus Sicht des BSI, dass Fragen der Sicherheit von KI-Systemen nur im Verbund mit gleichgesinnten internationalen Partnern gelöst werden können. Sie unterstreicht zudem die Bedeutung des Themas und den dringenden Handlungsbedarf.
Die Guidelines sind hier kostenlos zum Download verfügbar.