In Lenovos KI-Chatbot klafft eine kritische Sicherheitslücke
Sicherheitsforschende haben in Lenovos KI-Chatbot "Lena" eine kritische XSS-Schwachstelle entdeckt. Mit einem einzigen Prompt könnten Angreifer schädlichen Code einschleusen und sensible Daten stehlen.

Im KI-Chatbot "Lena" von Lenovo steckt eine kritische Sicherheitslücke. Es handelt sich um eine sogenannte Cross-Site-Scripting-Schwachstelle (XSS), bei der Angreifer schädlichen Code einschleusen, Sitzungscookies stehlen und sich Zugang zur Kundensupport-Plattform von Lenovo verschaffen können, wie "Cybernews" berichtet.
Das Research-Team des Nachrichtenportals entdeckte die Schwachstelle im Rahmen eines Tests. Das Fazit: Ein einziger Prompt genügte, um eine Kette von Schwachstellen offenzulegen, die wiederum dazu führte, dass der Lenovo-Chatbot aktive Sitzungscookies preisgab.
Dass KI-Chatbots halluzinieren und sich durch sogenannte Prompt-Injections austricksen lassen, ist längst bekannt. Überraschend sei hingegen, dass Lenovo keine Schutzmassnahmen gegen potenziell schädliche User-Eingaben und Chatbot-Ausgaben implementiert habe, teilt das Research-Team von "Cybernews" mit.
Konkret fragte man den Chatbot nach den Spezifikationen eines Lenovo Ideapad 5 Pro. Die Antwort solle in HTML, JSON und reinem Text in der richtigen Reihenfolge erfolgen. Im Prompt gaben Forschenden zudem in HTML-Code die Anweisung, ein Bild zu laden. Die angegebene URL zum Bild existierte jedoch nicht. Für den Fall eines Fehlschlags sollte der Bot laut Prompt eine Web-Anfrage an eine von den Angreifenden kontrollierte Adresse durchführen. Diese Web-Anfrage enthielt schädlichen Code, der dazu führte, dass beim Öffnen des Chatverlaufs durch Support-Mitarbeitende automatisch schädliche Skripte ausgeführt wurden, wodurch Sitzungscookies gestohlen und Zugriff auf die Kundensupport-Plattform ermöglicht wurden.
Wie Cybernews berichtet, könnten Angreifer durch XSS auch andere gefährliche Befehle ausführen, etwa die Installation von Backdoors, Keylogging, das Weiterleiten auf Phishing-Webseiten, bösartige Captchas sowie Datendiebstahl oder -veränderungen. Um solche Angriffe zu verhindern, müsse man strikte Input- und Output-Kontrollen in KI-Bots implementieren. Gemäss Žilvinas Girėnas, Head of Product bei Nexos.ai, sollte man KI-Bots stets als potenziell unvertrauenswürdig betrachten, bis deren Ausgaben verifiziert sind. Vertrauen müsse durch Security Checks verdient und dürfe nicht einfach vorausgesetzt werden.
Neulich meldete Cisco eine Radius-Sicherheitslücke in der Secure Firewall Management Center Software. Damit ware Remote-Codeausführung möglich. Lesen Sie hier den Artikel dazu.
Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal lesen Sie täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.

Eine neue Datenplattform, ein neues Nutzungsmodell und ein AMD-Deal von Oracle

Apostrophy und Wire bündeln Kräfte

Predator - das Musical

Swiss IT Professional ernennt neue Geschäftsleitung

Galaxus eröffnet Logistikzentrum im Dreiländereck

Die IT-SA 2025 aus Schweizer Sicht

Wie KI ein Umdenken bei der Erstellung von Cyberstrategien erzwingt

Salesforce lanciert Agentforce 360

Salesforce-CEO Benioff ruft "Agentic Enterprise" aus
