mysticfoxde

Microsoft Copilot - EchoLeak - kritische Sicherheitslücke - CVE-2025-32711 - Score 9.3

Moin Zusammen,

bei Microsofts Copilot ist die Tage eine sehr kritische Sicherheitslücke aufgetaucht.

thehackernews.com/2025/06/zero-click-ai-vulnerability-exposes.ht ...

The chains allow attackers to automatically exfiltrate sensitive and proprietary information from M365 Copilot context, without the user's awareness, or relying on any specific victim behavior," the Israeli cybersecurity company said. "The result is achieved despite M365 Copilot's interface being open only to organization employees.“

Die Ketten ermöglichen es Angreifern, automatisch sensible und geschützte Informationen aus dem M365 Copilot-Kontext zu exfiltrieren, ohne dass der Benutzer dies bemerkt oder sich auf ein bestimmtes Verhalten des Opfers verlässt", so das israelische Cybersicherheitsunternehmen. „Das Ergebnis wird erreicht, obwohl die Schnittstelle von M365 Copilot nur für Mitarbeiter des Unternehmens zugänglich ist.“
(Übersetzt mit DeepL.com)


Weitere Infos:
nvd.nist.gov/vuln/detail/CVE-2025-32711
msrc.microsoft.com/update-guide/vulnerability/CVE-2025-32711

😔😭

Gruss Alex
Share on Facebook
Share on X (Twitter)
Share on Reddit
Share on Linkedin

Content-ID: 673377

Url: https://administrator.de/info/microsoft-copilot-sicherheitsluecke-cve-673377.html

Printed on: July 25, 2025 at 04:07 o'clock

StefanKittel
StefanKittel Jun 12, 2025 at 18:55:06 (UTC)
<sarkasmus>Nein! Wie konnte das nur passieren? Gibt es da keine KI die so etwas verhindert?</sarkasmus>

Btw: Ich hatte neulich einen Kunden der mich gefragt hat warum er immer noch Spam bekommt obwohl er nun den 2 Euro KI-Antispam-Filter seines Providers gebucht hat...
GNULinux
GNULinux Jun 12, 2025 at 20:47:27 (UTC)
Die erste 0 click "KI" Sicherheitslücke, womit gleich alles aus der M365 Cloud exposed werden kann, worauf das Opfer Zugriff hat - Microsoft ist mal wieder führend bei der Unsicherheit. Das sind eine ganze Reihe an Sicherheitsmängeln in den M365 Clouddiensten, die sich verketten lassen. Die Primärquelle beschreibt ausführlich, wie sie vorgegangen sind. An manchen Stellen hatten sie die Auswahl zwischen mehreren Schwachstellen, das ist ein saftiger Totalschaden: aim.security/lp/aim-labs-echoleak-blogpost

Zeigt sehr deutlich die Sicherheitsprobleme von LLMs auf. Da kann man halt nicht relativ einfach filtern, wie prepared statements gegen SQL-Injections. Bin gespannt, wer die Nummer 2 wird. Bei dem "KI" Hype dürfte es nicht lange dauern, bis wir da noch weitaus größere Datenlecks sehen werden. Hier hat MS Glück gehabt, weil es keine beweisbare Ausnutzung gab und es ihnen mal jemand gemeldet hat. Vielleicht wurden ja wieder mal die Logs versehentlich gelöscht? face-wink
Malsesto
Malsesto Jun 16, 2025 at 12:20:05 (UTC)
Interessant wäre es noch zu wissen, wie gut der Exploit funktioniert, wenn die schadhafte Email in einem Chat ohne nennenswerte Secrets geladen wird.
Also ob Copilot dann einfach mal alle Dateien nach den besten Secrets durchsucht, ohne dass man das überhaupt mitbekommt.