Wie sicher ist Maschinelles Lernen?
Welchen Stellenwert Sicherheit und Privatsphäre bei Maschinellen Lernverfahren haben, untersuchen Wissenschaftlerinnen und Wissenschaftler der Freien Universität Berlin, des Fraunhofer-Instituts für Angewandte und Integrierte Sicherheit AISEC, des Fraunhofer-Instituts für Sichere Informationstechnologie SIT und des Nationalen Forschungszentrums für angewandte Cybersicherheit ATHENE in einer gemeinsamen Studie. Für das Forschungsprojekt werden noch Teilnehmerinnen und Teilnehmer gesucht, die beruflich oder privat mit Maschinellen Lernverfahren arbeiten.
Um eigene Arbeitsprozesse zu optimieren oder Kundinnen und Kunden mithilfe von Empfehlungssystemen neue Services anzubieten, setzen Unternehmen zunehmend auf Maschinelles Lernen und Künstliche Intelligenz. »Solche neuen Tools werden oft schnell konzipiert und umgesetzt. Sicherheitsaspekte kommen dabei oft zu kurz«, sagt die Statistikerin Verena Battis vom Fraunhofer SIT. Sie erforscht dort im Rahmen des ATHENE-Projekts Privacy-Risks and Safety in Machine Learning (PRisMa), welche Bedrohungen von maschinellen Lernverfahren für die Privatheit des Einzelnen ausgehen. Bedrohungsszenarien sind der Statistikerin zufolge zum Beispiel Datenklau und die Manipulation von verwendeten Algorithmen und Daten.
Besondere Vorsicht sei zudem bei datenschutzrechtlichen Aspekten geboten, erklärt die Informatikerin Franziska Boenisch vom Fraunhofer AISEC: »Für das Training von Modellen Maschinellen Lernens oder Künstlicher Intelligenz werden oft Nutzerdaten verwendet. Dabei fehlt jedoch das Wissen insbesondere darüber, wie individuelle Datenpunkte ein Modell beeinflussen und inwieweit diese Datenpunkte von Angreifern wieder aus einem trainierten Modell extrahiert werden können.« Ziel des Forschungsprojekts ist es, Erkenntnisse darüber zu gewinnen, inwieweit Aspekte der Sicherheit und Privatsphäre bei Verfahren Maschinellen Lernens in der Praxis berücksichtigt und umgesetzt werden.
Praktiker für Umfrage gesucht
Haben Sie in Ihren beruflichen oder privaten Projekten mit maschinellem Lernen (ML) zu tun? Dann nehmen Sie an unserer kurzen Umfrage teil. Sie soll das Bewusstsein für die Implementierung sicherer ML-Systeme bewerten. Mit 15 Minuten Ihrer Zeit können Sie ein wichtiges Forschungsprojekt dabei unterstützen, auf dem Gebiet der Sicherheit für ML voranzukommen.
Kontakt
- Prof. Dr. Marian Margraf, Fachbereich Informatik, Freie Universität Berlin, E-Mail: marian.margraf@fu-berlin.de
- Franziska Boenisch, Fraunhofer-Institut für Angewandte und Integrierte Sicherheit AISEC, E-Mail: franziska.boenisch@aisec.fraunhofer.de
- Verena Battis, Nationales Forschungszentrum für angewandte Cybersicherheit ATHENE | Fraunhofer-Institut für Sichere Informationstechnologie SIT, E-Mail: verena.battis@sit.fraunhofer.de
- Oliver Küch, Nationales Forschungszentrum für angewandte Cybersicherheit ATHENE | Fraunhofer-Institut für Sichere Informationstechnologie SIT, oliver.kuech@sit.fraunhofer.de