15 April 2026, 16:04

KI-generierte Softwarepakete: Wie Sprachmodelle Sicherheitslücken in Code einschleusen

Das Gesicht eines Hackers auf einem Computerbildschirm mit dem Wort "Hacker" und darum herum binärer Code.

KI-generierte Softwarepakete: Wie Sprachmodelle Sicherheitslücken in Code einschleusen

Eine neue Studie wirft Fragen zu den Sicherheitsrisiken beim Einsatz großer Sprachmodelle (LLMs) in der Softwareentwicklung auf. Forscher der USTA fanden heraus, dass diese KI-Tools gefälschte Softwarepakete erzeugen können – und damit potenzielle Einfallstore für schädlichen Code schaffen. Die Ergebnisse unterstreichen die wachsenden Herausforderungen, da immer mehr Unternehmen auf KI-gestützte Lösungen setzen.

Die Untersuchung zeigt, dass selbst fortschrittliche Modelle wie ChatGPT in über fünf Prozent der Fälle Fehler produzieren, wenn sie Paketnamen oder Abhängigkeiten generieren. Diese Ungenauigkeiten, in der Fachsprache als "Halluzinationen" bezeichnet, führen zu scheinbar plausiblen, aber erfundenen Softwarekomponenten. Bleiben sie unentdeckt, könnten solche falschen Pakete über Paketverwalter in Entwicklungsumgebungen eingeschleust werden.

Angreifer könnten diese Schwachstelle ausnutzen, indem sie schädlichen Code in KI-generierte Pakete einbetten. Sobald diese kompromittierten Komponenten integriert sind, könnten sie gesamte Systeme gefährden. Besonders tückisch wird das Problem in groß angelegten Projekten, in denen Entwickler stark auf automatisierte Tools angewiesen sind.

Cashback bei deinen
Lieblingsrestaurants und Services

Kaufe Gutscheine und spare in deinen Lieblingsorten in deiner Nähe

LiberSave App auf Smartphones

Die Forscher schlagen Gegenmaßnahmen vor, um die Bedrohung einzudämmen. Empfohlen werden unter anderem strengere Sicherheitsprüfungen bei der Paketinstallation sowie gezielte Schulungen für Entwickler. Ziel ist es, die Erkennungsrate zu verbessern und zu verhindern, dass falsche Pakete in Produktionsumgebungen gelangen.

Die Ergebnisse betonen, wie wichtig kontinuierliche Wachsamkeit in der Softwareentwicklung ist. Mit der zunehmenden Verbreitung von KI bleibt der Schutz der Code-Integrität und die Sicherheit von Bibliotheken entscheidend. Unternehmen müssen die Effizienzgewinne durch KI-Tools mit robusten Abwehrmechanismen gegen neue Bedrohungen in Einklang bringen.

Quelle