Technischer Datenschutz und vertrauenswürdige KI

Vertrauenswürdige Medientechnologien

Das Fraunhofer IDMT konzentriert sich auf die Entwicklung, den Einsatz und die Integration von Werkzeugen, die Datenschutz, Sicherheit, Robustheit, Transparenz, Erklärbarkeit und Fairness in datengesteuerten Anwendungen fördern – insbesondere im Umgang mit Medientechnologien und Medieninhalten. Unser Ziel ist es, eine Technologie-Toolbox bereitzustellen, die unseren Partnern und Kunden hilft, Vertrauen und leistungsfähige Analyse in ihre Anwendungen und Produkte miteinander zu vereinbaren.

Aktuelles

 

Auszeichnung / 11.10.2024

IEEE Best Poster Award

Wir gratulieren Kay Fuhrmeister und seinen Kollegen zum Best Poster Award zum verbesserten Datenschutz bei Federated Learning Aufgaben.

 

Projekt

Verbundtreffen AVATAR

Das AVATAR Projektkonsortium und assoziierte Verbundprojekte treffen sich zum jährlichen Verbundtreffen im Fraunhofer-Forum Berlin.

 

Neues Projekt / 9.5.2024

Datenschutz für Biosignale

Projekt »NEMO« erforscht Anonymisierungsverfahren für Medizinische Daten am Beispiel des Elektroenzephalogramms (EEG)

Forschung

Vertrauen und Datenanalyse im Einklang

Privacy Enhancing Technologies (PET) und vertrauenswürdige KI sind für den Schutz personenbezogener und geschäftskritischer Daten, für die Einhaltung rechtlicher Vorgaben und um Fairness, Transparenz, Robustheit und Sicherheit von datengestützten Anwendungen und Systemen zu gewährleisten, von entscheidender Bedeutung.

Manche denken, dass Vertrauen und Datenanalyse grundsätzlich unvereinbar sind; dass Regulierung allein ausreicht, um alle Probleme zu lösen – oder umgekehrt, dass Regulierung überhaupt nicht sinnvoll oder notwendig ist.

Wir denken, dass beides benötigt wird: Regulierung und Innovation, und dass man für viele Anwendungen Lösungen entwickeln kann, die Vertrauenswürdigkeit und leistungsfähige Analyse miteinander kombinieren. Um dies zu erreichen, versuchen wir

  • die spezifischen Anforderungen für eine bestimmte Anwendung im Detail zu verstehen,
  • etwaige Trade-offs zwischen Nützlichkeit und Vertrauensaspekten zu erkennen und zu gewichten,
  • und Technologien einzusetzen, um eine optimale Vereinbarkeit von Nützlichkeit und Vertrauen zu gewährleisten.

Privatsphäre und Vertrauen im Zeitalter der KI

Für den Schutz der Privatsphäre bei der Datenanalyse spielen Werkzeuge für sog. Privacy-Preserving Data Publishing (PPDP) nach wie vor eine Schlüsselrolle. Dazu gehören z. B. die Datenanonymisierung und Pseudonymisierung, die auf der Entfernung oder Veränderung von Daten (z. B. durch Unterdrückung oder Verallgemeinerung) beruhen.

Darüber hinaus haben der Bedarf, große Datenmengen mit hoher Dimensionalität und Komplexität zu verarbeiten sowie fortschrittliche Analysefähigkeiten in den letzten Jahren dank KI zugenommen. Dies hat zur Entwicklung von Werkzeugen für Privacy-Preserving AI (PPAI) geführt, um den erhöhten Risiken einer unbeabsichtigten Preisgabe sensibler Daten im Kontext der KI zu begegnen. Zu diesen Risiken gehören vor allem Inference Attacks (Angriffe, die darauf abzielen, Daten zu analysieren, um Wissen über ein Subjekt/ein Thema zu erlangen) und Model Poisoning Attacks (Angriffe, die Daten manipulieren, um das KI Modell zu manipulieren). Zu diesen Werkzeugen gehört beispielsweise Differential Privacy, eine Technik, die zu Eingabe- oder Ausgabedaten Rauschen hinzufügt, um sensible Daten mit entsprechenden mathematischen „Garantien“ zu schützen; Homomorphe Verschlüsselung, die Berechnungen von verschlüsselten Daten ermöglicht und so eine Datenverarbeitung in nicht vertrauenswürdigen Umgebungen ermöglicht; Secure Multi-party Computation, die es mehreren Parteien ermöglicht, gemeinsame Berechnungen durchzuführen, ohne dabei eigenen Daten preiszugeben; und Secure Federated Learning, einem dezentraler Ansatz für Maschinelles Lernen, bei dem mehrere Parteien zusammen ein gemeinsames Modell trainieren, ohne ihre Rohdaten zu teilen oder kritische Daten über das gemeinsam trainierte Modell preiszugeben.

Neben technischem Datenschutz beschäftigen wir uns mit folgenden weiteren Aspekten bzgl. vertrauenswürdiger KI im Medienkontext:

  • Sicherheit und Robustheit gegenüber Angriffen: Resilienz von KI-Werkzeugen gegenüber betrügerischen Eingaben sowie die Gewährleistung von Authentizität (dies ist eng mit dem Thema Medienforensik verbunden)
  • Transparenz und Erklärbarkeit: Eingabedaten und KI-Prozesse nachvollziehbar machen und dadurch Vertrauen und sinnvolle Interaktion fördern
  • Bias und Fairness: Verringerung von Stichprobenverzerrungen (Sample Bias) und anderer Verzerrungen, wobei man sich entsprechende Trade-offs bewusst sein muss (die Verringerung einer Art von Bias kann oft andere Arten von Bias verstärken); dazu gehört auch die Interaktion zwischen maschinellen und menschlichen Biases bei der Anwendung von Technologien, z. B. die Frage, wie sich Filterblaseneffekte vermeiden lassen, die durch Empfehlungssysteme entstehen und Bestätigungsfehler (sog. Confirmation Bias) weiter verstärken können.

Methodik

Das Verständnis der spezifischen Anforderungen für eine bestimmte Anwendung, die Auswahl und Anpassung der erforderlichen Werkzeuge und eine systematische Bewertung sind der Schlüssel zur Erreichung der oben genannten Ziele. Wir verfolgen einen "by-design"-Ansatz: Überlegungen zu Datenschutz, Sicherheit, Transparenz, Fairness und Robustheit werden von Anfang an und während des gesamten Entwicklungsprozesses berücksichtigt. Dies führt zu deutlich verminderten Kosten und besseren Ergebnissen.