44

dungsfälle, wie etwa eine Liftsteuerung, bei denen 

Sicherheit ganz klar als Anforderung definiert ist. 

Diese geforderte Sicherheit muss man natürlich 

auch in der Software umsetzen und beweisen, 

dass sie tatsächlich funktioniert.“ Aber es gibt 

eben auch ganz viele Bereiche, in denen das nicht 

der Fall ist. Besonders im industriellen Umfeld 

wird die Anzahl von Cyber-physischen Systemen 

immer größer.

Die Menge an Maschinen mit softwaretechni-

schen Komponenten, die über Cloudlösungen 

miteinander kommunizieren, nimmt kontinuier-

lich zu. „Diese Vernetzung führt zu immer hö-

heren Sicherheitsanforderungen, die nur mehr 

durch eine Vielzahl von Maßnahmen erfüllt 

werden können. Und in Bereichen wie Maschi-

nenbau oder im Automatisierungsumfeld gibt es 

diese Maßnahmen noch nicht in einem ausrei-

chenden Umfang“, so Ziebermayr. 

„Jedes Mal, wenn eine neue Maschine oder eine 

neue Anlage in eine bestehende Fertigungsstraße 

integriert wird, verändert sich das Kommunika-

tionsverhalten der Geräte und damit das gesamte 

softwaretechnische Sicherheitsgefüge dieser Fer-

tigungsstraße – das eröffnet Sicherheitslücken.“ 

Die meisten Menschen denken beim Thema Soft-

waresicherheit an Verschlüsselung und das Ver-

hindern von Zugriffen. „Es gibt aber auch viel 

subtilere Angriffe, die nicht darauf abzielen, sich 

in die Software zu hacken, sondern das System 

von außen lahmlegen wollen.“ Das Projekt Se-

CoMo widmet sich daher der Erforschung und 

der Entwicklung von Software-Engineering-Me-

thoden, die Sicherheitsprobleme bereits während 

der Implementierung einer neuen Softwarekom-

ponente in ein bestehendes System automatisch 

erkennen können.

SPEZIALFALL 
KÜNSTLICHE INTELLIGENZ

Bisher wird ein Großteil der Sicherheitsanalyse 

von Software manuell durchgeführt. „Ein zweiter 

Entwickler schaut sich das System an und macht 

ein Code-Review. Natürlich ist das aber in einem 

agilen Umfeld, wo man in immer kürzeren Ab-

ständen neue Funktionalitäten hinzubauen will, 

nur noch schwer möglich. Hier werden automati-

sierte Systeme benötigt, die laufend sicherstellen, 

dass trotz Erweiterungen die bisherige Architek-

tur immer noch einwandfrei funktioniert“, er-

klärt Ziebermayr. 

Künstliche Intelligenz ist im Zusammenhang mit 

der automatisierten Softwareanalyse ein beson-

ders schwieriger Fall. „Wir können die Analyse-

verfahren, die wir gerade entwickeln, nicht direkt 

auf ein KI-System anwenden. Bei einem KI-Sys-

tem kann ich mir ansehen: Wie hat die KI ge-

lernt? Welche mathematischen Parameter wurden 

verwendet? Und welche Daten liegen dem System 

zugrunde? Ich kann mir also die Umgebung an-

sehen, aber nicht direkt in das System hinein-

schauen – wie bei einer Black Box.“ Eine Analo-

gie zum besseren Verständnis: Man kann nicht in 

einen Menschen hineinsehen und seine Gedan-

ken erkennen. Man kann nur beobachten, wie 

ein Mensch in bestimmten Situationen reagiert 

Bevor man nicht 

die fehlerfreie Funktion 

von KI-basierten 

Systemen nachweisen 

kann, werden wir 

kein 

KI-System erleben, 

das eine 

Produktion 

vollständig leitet.

Thomas Ziebermayr 

Leiter, Bereich Software 

Science am SCCH