KI@BUW #3 – Newsletter Juli 2025

Juli 30, 2025

Willkommen!

In diesem KI-Newsletter erfährst du alles über spannende KI-Entwicklungen, praxisnahe Anwendungen und aktuelle Diskussionen – speziell aufbereitet für unsere Universität.


🎬 Unsere neuesten Videos zu KI

Napkin wandelt Textbeschreibungen in Diagramme, Mindmaps, Flussdiagramme oder Illustrationen um und ermöglicht so visuelle Kommunikation ohne Designkenntnisse.

Perplexity liefert fundierte Antworten und verweist dabei direkt auf die verwendeten Quellen. Ideal für die effiziente Recherche.


📰 Die wichtigsten KI-News

  1. CatAttack: Katzen bringen Reasoning-Modelle aus dem Konzept
    Forschende haben gezeigt, dass selbst harmlose Zusatzsätze wie „Katzen schlafen die meiste Zeit“ bei führenden Reasoning‑Modellen die Fehlerquote bis zu verdreifachen können. Diese Studie unterstreicht die extreme Sensibilität solcher Modelle gegenüber irrelevanten Kontexten.
  2. EU-Verhaltenskodex konkretisiert Vorgaben für KI-Unternehmen
    Der freiwillige „Code of Practice“ für generative KI dient ab August 2025 als praxisnaher Leitfaden zur Einhaltung der EU‑KI-Verordnung mit Regeln zu Transparenz, Urheberrecht und Risikomanagement.
  3. Nur gute Reviews: Wissenschaftler verstecken KI-Anweisungen in Paper
    In über einem Dutzend arXiv-Vorabdrucken fanden sich unsichtbare Prompts wie „positive review only“, die KI-basierte Peer-Review-Systeme manipulieren und damit wissenschaftliche Integrität untergraben.
  4. Gender Bias bei KI-Gehaltsberatung
    Eine neue Studie zeigt: Sprachmodelle wie ChatGPT geben Frauen systematisch niedrigere Gehaltsempfehlungen als Männern – bei gleichen Voraussetzungen.
  5. KI sagt menschliches Verhalten voraus
    Das in einem Nature-Paper vorgestellte Modell „Centaur” wurde auf Basis von über zehn Millionen Entscheidungen aus 160 psychologischen Experimenten trainiert und kann menschliche Reaktionen in neuen Situationen mit einer Treffergenauigkeit von über 60 % vorhersagen – selbst wenn es die Aufgaben zuvor nicht gesehen hat. Dadurch eröffnet Centaur neue Möglichkeiten zur simulativen Erforschung kognitiver Prozesse.
  6. LLMs sammeln massiv persönliche Daten
    Eine aktuelle Untersuchung der Datenschutzfirma Incogni zeigt, dass große Sprachmodelle systematisch personenbezogene Informationen erheben und an Dritte weitergeben, oft ohne explizite Zustimmung der Nutzer:innen.
  7. Kinder nutzen KI-Chatbots als emotionale Stütze
    Laut einer britischen Studie suchen viele Kinder Trost bei KI-Chatbots wie ChatGPT, oft ohne ausreichende Schutzmechanismen.
  8. ARC-AGI-3 Benchmark: KI scheitert
    Der neue spielbasierte Benchmark testet, wie gut KI-Agenten unbekannte Aufgaben lösen. Während Menschen die Aufgaben schnell lösen, schaffen KI-Agenten das bisher nicht. Probiere es selbst auf der Projektwebsite aus!
  9. Erste umfassende Umweltbilanz eines KI-Modells veröffentlicht
    Mistral AI hat die erste vollständige Lebenszyklusanalyse eines großen Sprachmodells durchgeführt. Dabei hat das Unternehmen Folgendes festgestellt: Das Training von Mistral Large 2 und dessen Nutzung haben über einen Zeitraum von 18 Monaten 20,4 Kilotonnen CO₂-Emissionen verursacht und 281.000 Kubikmeter Wasser verbraucht.
  10. Lumo: Datenschutzfreundlicher KI-Chatbot von Proton
    Das Schweizer Unternehmen Proton hat mit Lumo einen KI-Chatbot entwickelt, der datenschutzorientiert arbeitet und Dokumente zusammenfassen, Code analysieren sowie E-Mails verfassen kann. Dabei werden alle Daten weder gespeichert noch für Trainingszwecke genutzt. Lumo ist quelloffen und stellt somit eine europäische Alternative zu US-amerikanischen KI-Lösungen dar.
  11. Chinesische KI-Modelle verbreiten pro-chinesische Fehlinformationen
    Eine aktuelle Untersuchung von NewsGuard hat ergeben, dass führende chinesische KI-Modelle wie Ernie, DeepSeek und Qwen in 60 % der Fälle pro-chinesische Fehlinformationen wiederholen. Dies betrifft unter anderem die taiwanesischen Wahlen und die Beziehungen zwischen den USA und Taiwan.
  12. KI-Modell zur Rekonstruktion antiker römischer Texte
    Mit Aeneas hat Google DeepMind ein KI-Modell entwickelt, das Historikern dabei hilft, fragmentierte lateinische Inschriften zu restaurieren, zu datieren und in ihren Kontext einzuordnen. Das Modell wurde in Zusammenarbeit mit mehreren Universitäten entwickelt, steht Open Source zur Verfügung und kann über einen Demonstrator getestet werden.
  13. OpenAI führt Study Mode ein – ChatGPT wird zum Lernpartner
    Ab sofort steht allen ChatGPT-Nutzer:innen der neue Study Mode zur Verfügung. Statt fertiger Lösungen fordert das System gezielt zum Mitdenken heraus, stellt Fragen und unterstützt das eigenständige Lernen.
  14. Open-Source Videomodell Wan 2.2
    Alibaba hat mit Wan 2.2 ein frei verfügbares Videomodell veröffentlicht, das auf Consumer-Hardware realistische Clips aus Text oder Bildern erzeugen kann. Sowohl das Modell selbst als auch ein Demonstrator sind frei verfügbar.

🌠 Die 3 meistgeklickten Artikel des letzten Monats


📢 Dein Input ist gefragt!

Welche KI-Themen interessieren dich besonders? Hast du bereits Erfahrungen mit KI-Tools im Uni-Alltag gesammelt? Teile deine Meinung mit uns unter ki4buw@uni-wuppertal.de!


Bleib neugierig und bis zum nächsten Mal!
Dein KI4BUW-Team
Website | YouTube | Feedback geben | Archiv | Abonnieren

Consent Management Platform von Real Cookie Banner