OpenAI, der Entwickler hinter dem KI-Assistenten ChatGPT, steht vor einem Vertrauensproblem. Eine kürzlich entdeckte Sicherheitslücke in der ChatGPT-App für macOS hat Fragen zum Umgang des Unternehmens mit sensiblen Nutzerdaten aufgeworfen. Bis vor wenigen Tagen speicherte die Anwendung sämtliche Konversationen unverschlüsselt und leicht zugänglich auf den Rechnern der Nutzer. Diese nachlässige Handhabung persönlicher Daten steht in Gegensatz zu den hohen Sicherheitsstandards, die Nutzer von einer KI-Plattform erwarten – insbesondere im Apple-Ökosystem.
ChatGPT Sicherheitslücke entdeckt
Der Entwickler Pedro José Pereira Vieito deckte letzte Woche auf, dass die ChatGPT-App für Mac Chatverläufe unverschlüsselt auf dem Gerät speicherte. Dies ermöglichte potenziell unbefugten Zugriff auf sensible Gesprächsinhalte, ohne die App selbst zu öffnen.
Obwohl der Zugriff auf diese Daten Zugang zum Mac und dem betreffenden Benutzerkonto erfordert, birgt diese Schwachstelle Risiken. Nicht nur Personen mit physischem Zugang zum Gerät, sondern auch Schadsoftware könnten diese Inhalte theoretisch auslesen.
OpenAI reagierte prompt mit einem Update und einer knappen Stellungnahme. Gegenüber The Verge betonte eine Sprecherin das Bestreben, eine hilfreiche Benutzererfahrung bei gleichzeitiger Wahrung hoher Sicherheitsstandards zu bieten. Diese Sicherheitslücke dürfte bei Apple für Unmut sorgen. Der Tech-Gigant ist für seinen Fokus auf Datenschutz bekannt und sieht es sicher nicht gerne, dass enge Partner wie OpenAI potenzielle Schwachstellen in ihren Produkten aufweisen.
Interessanterweise vertreibt OpenAI die ChatGPT-App für Mac nicht über den App Store, sondern direkt über die eigene Webseite. Dadurch werden Apples Standard-Sicherheitsmaßnahmen wie das Sandbox-System umgangen, die einen unbefugten Zugriff auf sensible Daten erschweren würden. Für Apple bedeutet dies möglicherweise, den Druck auf Partner wie OpenAI erhöhen zu müssen, um sicherzustellen, dass deren Produkte den hohen Sicherheitsstandards des Unternehmens entsprechen.
Es kann sich hier nur um FakeNews handeln. Apple passieren keine Fehler 😂