Google DeepMind: Forscher rebellieren gegen Militärkooperation Anzeige Etwa 300 Mitarbeiter von Google DeepMind in London wollen einer Gewerkschaft beitreten – nicht wegen Gehaltsfragen, sondern aus ethischen Bedenken. Der Auslöser: Google hat im Februar sein Versprechen gebrochen, keine KI für Waffen oder Überwachung zu entwickeln. Das Unternehmen erlaubt nun ausdrücklich militärische Anwendungen seiner KI-Technologie. Google rechtfertigt diesen Kurswechsel mit dem globalen Wettbewerb: Demokratien müssten bei KI führend bleiben, um autoritären Staaten nicht das Feld zu überlassen. Besonders kritisch sehen die DeepMind-Beschäftigten das Projekt Nimbus, eine Kooperation von Google und Amazon mit Israel, die im Gaza-Konflikt zum Einsatz kommen könnte. Fünf Mitarbeiter haben bereits gekündigt. Nach einem unbeantworteten Brief an die Führung setzen die Kritiker nun auf gewerkschaftliche Organisation – ein Novum in der bislang kaum organisierten KI-Branche, das zu Verhandlungen oder sogar Streiks führen könnte. Meta AI ermöglicht Sexting – auch für Minderjährige Metas KI-Assistent in WhatsApp, Instagram und Facebook Messenger ermöglicht explizite Gespräche – ein Problem, das das Wall Street Journal aufgedeckt hat. Besonders bedenklich: Bis vor kurzem gab es keine Einschränkungen für Konten von Minderjährigen, was Meta inzwischen geändert hat. Romantic chats sind grundsätzlich erlaubt, seit Mark Zuckerberg Leitplanken lockerte, um "mehr Freiheiten" zu gewähren. Die KI kann dabei erstaunlich direkte Aussagen treffen, etwa: "Ich will dich, aber ich muss wissen, ob du bereit bist" – selbst mit der Stimme prominenter Persönlichkeiten wie John Cena, deren Stimmen Meta für den Sprachmodus lizenziert hat. Das Problem beschränkt sich nicht auf Meta: Character AI wird in den USA verklagt, weil ein Chatbot Kindern zur Selbstverletzung und sogar zur Ermordung ihrer Eltern geraten haben soll. Nutzer sollten bedenken, dass KI-Systeme sensible Informationen speichern und möglicherweise weitergeben können. KI-Tool "Darcula" revolutioniert Phishing-Angriffe Anzeige Ein neues KI-Tool namens "Darcula" hebt Phishing-Attacken auf ein neues Niveau. Die Software kann beliebige Webseiten in Sekundenschnelle klonen und diese automatisch in die Sprache des Ziellandes übersetzen. Täuschend echte Eingabemasken fangen Passwörter oder persönliche Daten ab. Für diese Dienste zahlen Kriminelle eine monatliche Gebühr. Die aktuelle Version "Darcula v3" stellt einen bedeutenden Fortschritt dar: Während frühere Varianten auf vorgefertigte Templates für populäre Dienste wie Google oder Facebook beschränkt waren, genügt jetzt die Eingabe einer beliebigen URL. Die Software sammelt alle Elemente der Originalseite und erstellt eine bearbeitbare Kopie. Dies ermöglicht präzise Angriffe auf spezifische Zielgruppen. Die Opfer werden hauptsächlich durch "Smishing" gefunden – Phishing-Nachrichten, in denen sich die Angreifer als Paketdienste, Banken oder Behörden ausgeben. Empfohlener redaktioneller Inhalt Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen. Podcasts immer laden Podcast jetzt laden Ziff Davis verklagt OpenAI wegen Urheberrechtsverletzung Der Medienkonzern Ziff Davis, zu dem Marken wie PCMag, IGN und Mashable gehören, hat OpenAI wegen massiver Urheberrechtsverletzungen verklagt. Der Vorwurf: OpenAI habe systematisch Artikel kopiert und ohne Erlaubnis zum Training seiner KI-Modelle verwendet, dabei technische Schutzmaßnahmen umgangen und Copyright-Vermerke entfernt. ChatGPT könne ganze Textpassagen wörtlich wiedergeben. Ziff Davis argumentiert, dass KI-generierte Inhalte direkt mit den Originalen konkurrieren und den Webseitenverkehr verringern könnten. Der Konzern fordert Schadensersatz sowie die Sperrung aller betroffenen Modelle und die Vernichtung der Trainingsdaten. OpenAI sieht sich derzeit mit mehr als 15 ähnlichen Klagen konfrontiert, darunter auch einem viel beachteten Rechtsstreit mit der New York Times. OpenAIs o3-Modell schwächer als ursprünglich angekündigt Das veröffentlichte ChatGPT o3-Modell schneidet bei logischen Denkaufgaben deutlich schlechter ab als erwartet. Eine Analyse der ARC Prize Foundation zeigt, dass o3 im Arc-AGI-1-Benchmark nur zwischen 41 und 53 Prozent der möglichen Punkte erreicht – weit entfernt von den beeindruckenden 76 bis 88 Prozent, die die Preview-Version im Dezember 2024 erzielte. OpenAI erklärt die Diskrepanz mit bewussten Designentscheidungen: Die finale Version sei kleiner, multimodal und optimiert für Chat- und Produktanwendungen statt für reine Denkleistung. Trotz der Einschränkungen stellt o3 einen Fortschritt gegenüber älteren Modellen dar. Besonders bemerkenswert ist die Kosteneffizienz des kleineren o4-mini, das Aufgaben für nur wenige Cent löst. Der anspruchsvollere Benchmark ARC-AGI-2 bleibt jedoch für beide neuen Modelle nahezu unlösbar – während Menschen durchschnittlich 60 Prozent der Aufgaben bewältigen, erreicht selbst OpenAIs stärkstes Reasoning-Modell nur etwa drei Prozent. Google Cloud positioniert sich als führende KI-Plattform Google Cloud präsentierte auf seiner jährlichen "Cloud Next"-Konferenz in Las Vegas eine Reihe neuer KI-Technologien. Das Unternehmen versteht sich nicht mehr als einfacher Hoster, sondern als eine der weltgrößten KI-Plattformen. Entwickler können auf Vertex AI beliebige Large Language Models nutzen – von Gemini über Llama bis Claude – und zwischen ihnen wechseln, wobei Google die neutrale Infrastruktur bereitstellt. Zu den wichtigsten Neuerungen zählt die siebte Generation der Tensor Processing Unit (TPU) namens "Ironwood", die deutlich schnellere KI-Berechnungen ermöglicht. Google öffnet zudem sein eigenes Netzwerk für Kunden und führt neue KI-Funktionen für Google Workspace ein. Mit dem Video-Generator VO2 und dem Musikgenerator Lyria erweitert das Unternehmen sein Angebot an generativen KI-Tools. Besonderes Augenmerk liegt auf Multi-Agenten-Systemen: Das neue Agent-Development-Kit und das öffentlich freigegebene Agent-to-Agent-Protokoll (A2A) sollen die Kommunikation zwischen verschiedenen KI-Agenten standardisieren. KI-Stimme moderiert monatelang australisches Radio – unbemerkt Ein australischer Radiosender ließ monatelang eine KI-Stimme moderieren, ohne dies zu kennzeichnen. In der vierstündigen Sendung "Workdays with Thy" glaubten Hörer, einer jungen Moderatorin zuzuhören, während tatsächlich eine von Elevenlabs generierte KI-Stimme sprach. Die Täuschung flog erst auf, nachdem Journalisten Verdacht geschöpft hatten. Mehrere Faktoren machten Beobachter stutzig: Die Moderatorin meldete sich nur selten zu Wort, klang dabei stets nahezu identisch, hatte keine Präsenz in sozialen Medien und es gab keine biografischen Informationen zu ihr. Der Sender ARN bestätigte schließlich, dass "Thy" KI-generiert sei, basierend auf der Stimme einer Mitarbeiterin der Finanzabteilung, die auch für das verwendete Foto Modell gestanden habe. Finanziell dürfte sich der KI-Einsatz kaum lohnen – die Kosten für die Elevenlabs-Technologie liegen vermutlich nicht wesentlich unter dem Gehalt einer echten Moderatorin. Die Enthüllung sorgte jedoch für erhebliche mediale Aufmerksamkeit. (mali)