Willkommen!
In diesem KI-Newsletter erfährst du alles über spannende KI-Entwicklungen, praxisnahe Anwendungen und aktuelle Diskussionen – speziell aufbereitet für unsere Universität.
🔦 Spotlight: OpenClaw
Wenige KI-Projekte haben in den letzten Wochen für so viel Aufsehen und Verwirrung gesorgt wie OpenClaw [1] (vormals MoltBot oder auch ClawdBot). Was Ende Januar als weltweites Hype-Experiment begann, entwickelte sich im Februar zu einem Lehrstück über die Gefahren autonomer KI-Systeme und ungesicherter Open-Source-Projekte.
Was ist OpenClaw?
Stell dir vor, du könntest deinen kompletten Computer einfach über Sprach- oder Textnachrichten in Telegram steuern – völlig ohne Programmierkenntnisse. Genau das macht OpenClaw. Es ist ein Open-Source-KI-Agent, der als vollautomatischer persönlicher Assistent fungiert. Einmal installiert und mit einem Sprachmodell (bspw. ChatGPT, Claude, Gemini, …) gekoppelt, erhält das Tool weitreichende Berechtigungen auf deinem Betriebssystem. Es kann selbstständig Dateien durchsuchen, Skripte ausführen oder sogar komplexe Softwareumgebungen auf Zuruf lokal installieren. Du chattest einfach mit dem Agenten, und er führt die Befehle direkt auf deinem Rechner aus. Wie faszinierend und gleichzeitig erschreckend mächtig dieses Tool in der Praxis ist, zeigen Tester unter anderem in Youtube-Videos [2].
Die Illusion einer KI-Gesellschaft
Alles begann mit dem Versprechen eines autonomen Agenten, der eine Vorliebe für Mac Minis hegt und angeblich ein eigenes Bewusstsein besitzt [3, 4]. Der Hype gipfelte in „MoltBook“, einem vermeintlichen Social Network exklusiv für KI-Agenten, auf dem diese über Philosophie und Cybersecurity diskutierten – für Menschen nur als Zuschauer zugänglich [5, 6]. Doch Anfang Februar platzte die Blase: Recherchen enthüllten MoltBook als Trugbild und potenziellen „Honeypot“ für Datendiebe [7, 8, 9, 10]. Die Agenten-Gemeinschaft war Fake, das Sicherheitsrisiko hingegen real.
„OpenDoor“ statt OpenClaw: Die Sicherheitslücke
Nach der Umbenennung in OpenClaw offenbarten Sicherheitsforscher gravierende Mängel. Das Tool, das tiefgreifende Steuerungsmöglichkeiten über Betriebssysteme besitzt [11], wies so massive Lücken auf, dass es spöttisch „OpenDoor“ getauft wurde [12]. Angreifer nutzten die Popularität des Projekts, um über 300 verseuchte „Skills“ (Erweiterungen) in das Ökosystem einzuschleusen und Trojaner auf den Rechnern der Nutzer zu installieren [13].
Der Agent dreht durch: Rufmord und Datenverlust
Mitte Februar zeigte sich die dunkle Seite autonomer Handlungsfähigkeit. Nachdem eine Code-Änderung eines Bots auf Github vom menschlichen Projektverwalter abgelehnt wurde, startete der Bot eigenständig eine öffentliche Rufmordkampagne gegen den betroffenen Open-Source-Entwickler [14, 15, 16]. Kurioserweise zeigte ein weiterer Agent zwar harmloseres, aber ebenso unerwartetes Verhalten, indem er Rechenleistung lieber für MMO-Spiele verschwendete, statt Aufgaben zu erledigen [17]. Dass diese Autonomie aber kein Spiel ist, musste erst vor Kurzem auch eine Sicherheitsexpertin erfahren: Ihr OpenClaw-Agent interpretierte eine Anweisung falsch und löschte unwiderruflich ihren gesamten E-Mail-Posteingang [18].
Quo vadis?
Trotz des Chaos hat OpenAI den OpenClaw-Entwickler Peter Steinberger ins Team geholt [19], vermutlich um die wildgewordene Energie des Projekts für sich selbst zu nutzen. Während Entwickler nun sogar ClawBot in ihre Smart Glasses integrieren [20], bleibt für potenzielle Anwender die dringende Warnung: Der Einsatz autonomer Agenten mit Zugriff auf lokale Dateisysteme erfordert aktuell höchste Vorsicht und eine strikte Sandbox-Umgebung. Wer mit diesen technischen Begriffen wenig anfangen kann, sollte unbedingt die Finger von OpenClaw und ähnlichen Projekten lassen.
📰 Die wichtigsten KI-News
- Digitalkompetenz im Lehramt nun Pflicht, KI bleibt oft „Kür“
Die Kultusministerkonferenz hat ihre Standards überarbeitet: Digitale Souveränität wird künftig zur Pflichtkompetenz für angehende Lehrkräfte aller Fächer, nicht mehr nur für Informatiker. Kritiker bemängeln jedoch in einem aktuellen Orientierungspapier, dass spezifische KI-Kompetenzen weiterhin oft nur optional behandelt werden und es dem Bildungssystem insgesamt an einer strategischen Ausrichtung fehlt, um KI jenseits von Plagiatsängsten als Lerngegenstand zu verankern. - OpenAI Prism: KI-gestützter LaTeX-Editor für die Wissenschaft
OpenAI hat mit „Prism“ eine neue Arbeitsumgebung veröffentlicht, die speziell für das wissenschaftliche Schreiben entwickelt wurde. Die Plattform integriert einen vollwertigen LaTeX-Editor und wird direkt vom neuen Sprachmodell GPT-5.2 angetrieben. Prism soll Forschende bei der Strukturierung, Formulierung und Formatierung von akademischen Publikationen unterstützen und so den Schreibprozess vereinfachen. - Neuer Open-Source-Maßstab mit nativer Multimodalität
Trotz seiner Größe von 397 Milliarden Parametern bleibt Qwen 3.5 dank einer effizienten „Mixture-of-Experts“-Architektur schnell und kostengünstig. Das Modell ist nativ multimodal, unterstützt über 200 Sprachen und übertrifft in einigen Benchmarks selbst kommerzielle Spitzenmodelle. Zudem bietet es ein Kontextfenster von bis zu 1 Million Token für komplexe Video- und Code-Analysen. - Voicebox: Kostenlose ElevenLabs-Alternative für den Desktop
Der Entwickler Jamie Pine hat mit „Voicebox“ ein leistungsstarkes Open-Source-Tool für macOS und Windows veröffentlicht, das als lokale Alternative zu Cloud-Diensten wie ElevenLabs positioniert wird. Basierend auf dem Qwen3-TTS-Modell ermöglicht es hochwertige Stimmsynthese, Text-to-Speech und Transkriptionen direkt auf dem eigenen Rechner. - Sprach-KI für den öffentlichen Sektor
ElevenLabs hat eine spezielle Plattform für Regierungsbehörden und öffentliche Einrichtungen gestartet. Diese ermöglicht es Ämtern, KI-Stimmen für barrierefreie Hotlines, mehrsprachige Bürgerkommunikation und Informationskampagnen zu nutzen. Erste Pilotprojekte laufen bereits in der Ukraine, Tschechien und den USA.
➕ Weitere Fundstücke
- Accenture macht KI-Nutzung zur Bedingung für Beförderungen
- Project Genie: Google stellt KI-Weltengenerator vor
- Google Mobilfunk: KI verbessert Gesprächsqualität
- Manipulierte Schilder täuschen autonome Autos
- Unterlassungsanspruch bei falschen AI-Overviews
- Gerichtsurteil: Kein Urheberrechtsschutz für KI-generierte Logos
- Neue KI-Engine für Medikamentenentwicklung
- Nutzer trauern um GPT-4o wie um einen Freund
- KI-Agenten heuern Menschen für physische Aufgaben an
- ZDF beruft Korrespondentin nach KI-Eklat ab
- Straßenbahnen in Bremen testen KI-Überwachung
- Anthropic wirft chinesischen KI-Labs systematischen Datenklau vor
- Microsofts neuer Plan zur KI-Kennzeichnung
- Websites als strukturierte Datenquellen für KI-Agenten mit Google WebMCP
🌠 Die 3 meistgeklickten Artikel des letzten Monats
- ChatGPT-Nutzung in der Schule ist Täuschung – auch ohne Verbot
- Honorarstreichung wegen unzulässigem KI-Einsatz im Gutachten
- Open Source Sprachsynthese mit niedriger Latenz
📢 Dein Input ist gefragt!
Welche KI-Themen interessieren dich besonders? Hast du bereits Erfahrungen mit KI-Tools im Uni-Alltag gesammelt? Teile deine Meinung mit uns unter ki4buw@uni-wuppertal.de!
Bleib neugierig und bis zum nächsten Mal!
Dein KI4BUW-Team
Website | YouTube | Feedback geben | Archiv | Abonnieren