Das Bundesamt für Sicherheit in der Informationstechnik (BSI) entwickelt derzeit klare Sicherheitskriterien und Best Practices für die Absicherung von KI-Agenten, da diese Technologien sich ständig weiterentwickeln. Die Behörde warnt, dass KI-Agenten von Kriminellen für Cyberangriffe missbraucht werden könnten und hebt hervor, dass die Unterscheidung zwischen menschlichen Akteuren und KI-Bots zunehmend schwerer wird. In Bezug auf den neuen Dienst OpenClaw, der in Fachkreisen an Aufmerksamkeit gewinnt, empfiehlt das BSI eine Nutzung nur durch IT-Profis aufgrund potenzieller Sicherheitsrisiken. Besonders kritisch sieht das BSI den Austausch von „Skills“, da diese häufig mit Schadsoftware infiziert sind, was die Gefahr von Kompromittierungen erhöht.
Bonn () – Das Bundesamt für Sicherheit in der Informationstechnik (BSI) arbeitet intensiv an klaren Sicherheitskriterien und sogenannten „Best Practices“ für die Absicherung von „KI-Agenten“. Das sagte ein Behördensprecher am Dienstag der .
Das BSI geht demnach davon aus, dass sich KI-Systeme „stetig oder auch disruptiv“ weiterentwickeln werden. Mit dem Fortschreiten der Technologie werde es zunehmend schwerer, menschliche Akteure im Internet von KI-Bots zu unterscheiden, so der Sprecher. Daneben könnten KI-Agenten künftig von Kriminellen für Cyber-Angriffe instrumentalisiert werden, warnt die Behörde.
In Bezug auf den neuen Dienst OpenClaw, der in Fachkreisen seit wenigen Wochen für zunehmendes Aufsehen sorgt, empfiehlt das BSI derzeit nur eine Benutzung durch „IT-Profis“, die mit der Konfiguration und Absicherung von Servern vertraut seien. „Es empfiehlt sich, den Dienst auf einem eigenen System oder in einer Sandbox zu betreiben.“
Besonders kritisch sieht das BSI dabei auch den offenen Austausch der sogenannten „Skills“, über die die Interaktion der KI mit der Umgebung erfolgt und die unter anderem über Austausch-Portale geteilt werden. „Dabei wurden offenkundig vermehrt Skills identifiziert, die mit Schadsoftware kompromittiert waren“, so das BSI.
OpenClaw, auch unter den Namen ClawdBot und MoltBot bekannt, ist ein Open-Source-Framework für einen persönlichen KI-Assistenten. Der Bot kann von Nutzern beispielsweise über einen Messenger wie WhatsApp oder Telegram oder andere Kanäle bedient werden. Damit der Dienst funktioniert, muss ein Sprachmodell bereitgestellt und eingebunden werden, das entweder lokal oder in der Cloud läuft. Eine fehlerhafte Konfiguration könne schnell zu einer Übernahme des Servers durch Unbefugte führen, heißt es vom BSI.
Bist du ein guter Leser? 👍
Welcher Begriff kam im Artikel vor?
Bist du ein guter Leser? 👍
Welcher Begriff kam im Artikel vor?
Bist du ein guter Leser? 👍
Welcher Begriff kam im Artikel vor?
| Text-/Bildquelle: | Übermittelt durch www.dts-nachrichtenagentur.de |
| Bildhinweis: | Sitz von BSI und BMI (Archiv) |
Häufig gestellte Fragen (FAQ)
Wer wird in dem Artikel namentlich genannt?
Es sind keine vollständigen Namen von Personen im Artikel erwähnt. Der Artikel bezieht sich hauptsächlich auf Institutionen und Begriffe wie BSI, BMI, KI-Agenten und OpenClaw, enthält jedoch keine spezifischen personellen Nennungen.
Welche Organisationen oder Einrichtungen tauchen im Text auf?
BSI, BMI, OpenClaw, ClawdBot, MoltBot, WhatsApp, Telegram
Zu welchem Datum oder in welchem Zeitraum fand das Ereignis statt?
Nicht erwähnt
An welchem Schauplatz spielt sich das Geschehen ab?
Bonn
Was ist die zentrale Aussage des Artikels in einem Satz?
Das Bundesamt für Sicherheit in der Informationstechnik (BSI) entwickelt Sicherheitskriterien für KI-Agenten und warnt vor deren möglichen Verwendung durch Kriminelle, während es die Nutzung des neuen OpenClaw-Dienstes nur IT-Profis empfiehlt und auf Risiken durch unsichere Konfiguration und Schadsoftware hinweist.
Welcher Umstand führte zu dem Vorfall?
Der Hintergrund für das beschriebene Ereignis liegt in den zunehmenden Sicherheitsbedenken bezüglich Künstlicher Intelligenz (KI) und deren potenziellen Missbrauch durch Kriminelle für Cyber-Angriffe. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat die Notwendigkeit erkannt, klare Sicherheitskriterien und Best Practices zu entwickeln, um KI-Agenten abzusichern, insbesondere angesichts der Herausforderungen der Identifikation von menschlichen Akteuren versus KI-Bots und der Risiken bei der Nutzung von offenen KIs wie OpenClaw.
Wie fiel die Reaktion der Öffentlichkeit oder politischer Akteure aus?
Im Artikel wird beschrieben, dass das BSI angesichts der fortschreitenden Entwicklung von KI-Systemen klare Sicherheitskriterien und Best Practices entwickelt, um KI-Agenten abzusichern. Der Dienst OpenClaw wird besonders kritisch betrachtet, da er potenziell von Kriminellen missbraucht werden kann, wobei das BSI die Nutzung nur durch IT-Profis empfiehlt.
Welche Konsequenzen oder Auswirkungen werden beschrieben?
Die im Artikel erwähnten Folgen oder Konsequenzen sind:
1. Schwierigkeiten, menschliche Akteure im Internet von KI-Bots zu unterscheiden,
2. Möglichkeit der Instrumentalisierung von KI-Agenten durch Kriminelle für Cyber-Angriffe,
3. Empfehlungen für den Einsatz von OpenClaw nur durch IT-Profis,
4. Notwendigkeit, den Dienst auf einem eigenen System oder in einer Sandbox zu betreiben,
5. Identifizierung von Skills, die mit Schadsoftware kompromittiert waren,
6. Risiko einer Übernahme des Servers durch Unbefugte bei fehlerhafter Konfiguration.
Wurde bereits eine offizielle Stellungnahme veröffentlicht?
Ja, im Artikel wird eine Stellungnahme eines Behördensprechers des BSI zitiert. Er erklärt, dass das BSI intensiv an klaren Sicherheitskriterien und „Best Practices“ für die Absicherung von „KI-Agenten“ arbeitet und warnt, dass KI-Systeme zunehmend schwerer von menschlichen Akteuren zu unterscheiden sein werden, was Risiken birgt.
- Behörden warnen vor Hackerangriffen auf Politik, Militär und Presse - Februar 6, 2026
- EU-Kommission sieht Suchtgefahr bei Tiktok - Februar 6, 2026
- Fußgänger-Fachverband hält Blitzer-Apps für "pervers" - Februar 6, 2026

