44
dungsfälle, wie etwa eine Liftsteuerung, bei denen
Sicherheit ganz klar als Anforderung definiert ist.
Diese geforderte Sicherheit muss man natürlich
auch in der Software umsetzen und beweisen,
dass sie tatsächlich funktioniert.“ Aber es gibt
eben auch ganz viele Bereiche, in denen das nicht
der Fall ist. Besonders im industriellen Umfeld
wird die Anzahl von Cyber-physischen Systemen
immer größer.
Die Menge an Maschinen mit softwaretechni-
schen Komponenten, die über Cloudlösungen
miteinander kommunizieren, nimmt kontinuier-
lich zu. „Diese Vernetzung führt zu immer hö-
heren Sicherheitsanforderungen, die nur mehr
durch eine Vielzahl von Maßnahmen erfüllt
werden können. Und in Bereichen wie Maschi-
nenbau oder im Automatisierungsumfeld gibt es
diese Maßnahmen noch nicht in einem ausrei-
chenden Umfang“, so Ziebermayr.
„Jedes Mal, wenn eine neue Maschine oder eine
neue Anlage in eine bestehende Fertigungsstraße
integriert wird, verändert sich das Kommunika-
tionsverhalten der Geräte und damit das gesamte
softwaretechnische Sicherheitsgefüge dieser Fer-
tigungsstraße – das eröffnet Sicherheitslücken.“
Die meisten Menschen denken beim Thema Soft-
waresicherheit an Verschlüsselung und das Ver-
hindern von Zugriffen. „Es gibt aber auch viel
subtilere Angriffe, die nicht darauf abzielen, sich
in die Software zu hacken, sondern das System
von außen lahmlegen wollen.“ Das Projekt Se-
CoMo widmet sich daher der Erforschung und
der Entwicklung von Software-Engineering-Me-
thoden, die Sicherheitsprobleme bereits während
der Implementierung einer neuen Softwarekom-
ponente in ein bestehendes System automatisch
erkennen können.
SPEZIALFALL
KÜNSTLICHE INTELLIGENZ
Bisher wird ein Großteil der Sicherheitsanalyse
von Software manuell durchgeführt. „Ein zweiter
Entwickler schaut sich das System an und macht
ein Code-Review. Natürlich ist das aber in einem
agilen Umfeld, wo man in immer kürzeren Ab-
ständen neue Funktionalitäten hinzubauen will,
nur noch schwer möglich. Hier werden automati-
sierte Systeme benötigt, die laufend sicherstellen,
dass trotz Erweiterungen die bisherige Architek-
tur immer noch einwandfrei funktioniert“, er-
klärt Ziebermayr.
Künstliche Intelligenz ist im Zusammenhang mit
der automatisierten Softwareanalyse ein beson-
ders schwieriger Fall. „Wir können die Analyse-
verfahren, die wir gerade entwickeln, nicht direkt
auf ein KI-System anwenden. Bei einem KI-Sys-
tem kann ich mir ansehen: Wie hat die KI ge-
lernt? Welche mathematischen Parameter wurden
verwendet? Und welche Daten liegen dem System
zugrunde? Ich kann mir also die Umgebung an-
sehen, aber nicht direkt in das System hinein-
schauen – wie bei einer Black Box.“ Eine Analo-
gie zum besseren Verständnis: Man kann nicht in
einen Menschen hineinsehen und seine Gedan-
ken erkennen. Man kann nur beobachten, wie
ein Mensch in bestimmten Situationen reagiert
Bevor man nicht
die fehlerfreie Funktion
von KI-basierten
Systemen nachweisen
kann, werden wir
kein
KI-System erleben,
das eine
Produktion
vollständig leitet.
Thomas Ziebermayr
Leiter, Bereich Software
Science am SCCH