Für den Schutz der Privatsphäre bei der Datenanalyse spielen Werkzeuge für sog. Privacy-Preserving Data Publishing (PPDP) nach wie vor eine Schlüsselrolle. Dazu gehören z. B. die Datenanonymisierung und Pseudonymisierung, die auf der Entfernung oder Veränderung von Daten (z. B. durch Unterdrückung oder Verallgemeinerung) beruhen.
Darüber hinaus haben der Bedarf, große Datenmengen mit hoher Dimensionalität und Komplexität zu verarbeiten sowie fortschrittliche Analysefähigkeiten in den letzten Jahren dank KI zugenommen. Dies hat zur Entwicklung von Werkzeugen für Privacy-Preserving AI (PPAI) geführt, um den erhöhten Risiken einer unbeabsichtigten Preisgabe sensibler Daten im Kontext der KI zu begegnen. Zu diesen Risiken gehören vor allem Inference Attacks (Angriffe, die darauf abzielen, Daten zu analysieren, um Wissen über ein Subjekt/ein Thema zu erlangen) und Model Poisoning Attacks (Angriffe, die Daten manipulieren, um das KI Modell zu manipulieren). Zu diesen Werkzeugen gehört beispielsweise Differential Privacy, eine Technik, die zu Eingabe- oder Ausgabedaten Rauschen hinzufügt, um sensible Daten mit entsprechenden mathematischen „Garantien“ zu schützen; Homomorphe Verschlüsselung, die Berechnungen von verschlüsselten Daten ermöglicht und so eine Datenverarbeitung in nicht vertrauenswürdigen Umgebungen ermöglicht; Secure Multi-party Computation, die es mehreren Parteien ermöglicht, gemeinsame Berechnungen durchzuführen, ohne dabei eigenen Daten preiszugeben; und Secure Federated Learning, einem dezentraler Ansatz für Maschinelles Lernen, bei dem mehrere Parteien zusammen ein gemeinsames Modell trainieren, ohne ihre Rohdaten zu teilen oder kritische Daten über das gemeinsam trainierte Modell preiszugeben.
Neben technischem Datenschutz beschäftigen wir uns mit folgenden weiteren Aspekten bzgl. vertrauenswürdiger KI im Medienkontext:
- Sicherheit und Robustheit gegenüber Angriffen: Resilienz von KI-Werkzeugen gegenüber betrügerischen Eingaben sowie die Gewährleistung von Authentizität (dies ist eng mit dem Thema Medienforensik verbunden)
- Transparenz und Erklärbarkeit: Eingabedaten und KI-Prozesse nachvollziehbar machen und dadurch Vertrauen und sinnvolle Interaktion fördern
- Bias und Fairness: Verringerung von Stichprobenverzerrungen (Sample Bias) und anderer Verzerrungen, wobei man sich entsprechende Trade-offs bewusst sein muss (die Verringerung einer Art von Bias kann oft andere Arten von Bias verstärken); dazu gehört auch die Interaktion zwischen maschinellen und menschlichen Biases bei der Anwendung von Technologien, z. B. die Frage, wie sich Filterblaseneffekte vermeiden lassen, die durch Empfehlungssysteme entstehen und Bestätigungsfehler (sog. Confirmation Bias) weiter verstärken können.