Digitalisierung und Datenschutz


Datenschutz als verlässliche Basis in allen Anwendungen nötig
Sommerakademie "Herausforderung "Informationelle Nichtbestimmung" - Privacy by Default für Technik, Wirtschaft und Politik" des ULD am 18. September 2017 in Kiel



Experten diskutierten mit den mehr als 400 Teilnehmenden die heutige Technik-Nutzung, Effekte der Digitalisierung und die neue Welt des "Internet of Things", wenn alle Geräte miteinander vernetzt sein können und sich austauschen, ohne einzelne Entscheidungen ihrer Nutzer abzuwarten. Wie viel Datenschutz muss im Smart Car oder in der Smart City vorkonfiguriert sein? Bestimmen die Hersteller über die Datenschutz-Voreinstellungen? Muss sich der Staat einmischen?

Die Veranstaltung begann mit dem Grußwort von Dr. Ulf Kämpfer, Oberbürgermeister der Landeshauptstadt Kiel, der herausstellte, wie wichtig das Zusammenspiel von Digitalisierung und Datenschutz sei. Die Wichtigkeit des für den Datenschutz zentralen Bundesverfassungsgerichtsurteils von 1983, in dem das Recht auf informationelle Selbstbestimmung begründet wurde, sei ihm schon als Kind deutlich geworden; später im Berufsleben gehörte Datenschutz natürlich auch dazu. Als Begründer der Digitalen Woche Kiel sei er begeistert von dem Engagement so vieler Akteure. Das ULD mit 15 eigenen Veranstaltungen – neben der Sommerakademie – gehöre auch dazu.

Die Leiterin des ULD und Landesbeauftragte für Datenschutz Schleswig-Holstein, Marit Hansen, leitete in das Thema ein: Viele Gründe könnten zu einer faktischen "informationellen Nichtbestimmung" führen: Überlastung, Bequemlichkeit, zu hoher Aufwand, Hilflosigkeit oder Resignation. Sie stellte die heutige Situation des "eingebauten Datenschutzes" dar: leider keineswegs eine Selbstverständlichkeit, stattdessen seien Verkettbarkeit und Identifizierbarkeit in der Technik implementiert, gegen die sich Nutzende kaum wehren könnten. Als Beispiele nannte sie die "yellow dots" (gelbe Punkte), die von den meisten Farbkopierern ohne Wissen der Nutzenden in die gedruckten Seiten eingefügt werden und Informationen über Datum, Zeit und Seriennummer des Geräts enthalten. Obwohl dies schon im Jahr 2005 von der Bürgerrechtsorganisation Electronic Frontier Foundation (EFF) bekannt gemacht worden sei, habe bisher niemand etwas dagegen unternommen.

Im Sommer dieses Jahres sei bekannt geworden, dass diese gelben Punkte dazu beigetragen haben sollen, eine Whistleblowerin zu enttarnen. Eine Rechtsgrundlage für das Eincodieren dieser Informationen sei nicht bekannt – die Hersteller seien vermutlich einem Wunsch der US-amerikanischen Sicherheitsbehörden nachgekommen. Ein Beispiel, in dem Nutzende gar nicht bestimmen könnten – und die meisten von diesen kennzeichnenden Punkten wohl noch nicht einmal wüssten. Ähnliches gelte für Metadaten in Office-Dateien und in Fotos, bei denen unwissentlich sensible Informationen weitergegeben werden könnten.

Marit Hansen kritisierte außerdem die Zumutung des Prinzips "Take it or leave it" ("Nimm es, wie es ist, oder lass es bleiben"), mit dem datenhungrige Apps auf dem Smartphone alle möglichen Zugriffsberechtigungen begehrten. Sich gegen zu weitgehende Zugriffe der Apps zu wehren, funktioniere allenfalls eingeschränkt – oft könne man die App dann nicht nutzen. Dies muss sich nach Auffassung der Landesdatenschutzbeauftragten dringend ändern: im Sinne einer fairen Digitalisierung und spätestens ab dem 25.05.2018 auch wegen der Anforderungen der Europäischen Datenschutz-Grundverordnung, die eingebauten Datenschutz und datenminimierende Voreinstellungen verlangt.

Peter Schaar, Vorsitzender der Europäischen Akademie für Informationsfreiheit und Datenschutz und Bundesbeauftragter für den Datenschutz und die Informationsfreiheit a. D., beschäftigt sich seit Jahrzehnten mit der Entwicklung des Datenschutzes. Er knüpfte an Erwartungen aus der Vergangenheit an den Datenschutz an: "Datenschutz soll sexy sein!", kam aber zu dem Schluss, dass der Sex-Appeal des Datenschutzes immer noch begrenzt sei. Viele Nutzerinnen und Nutzer machten sich mit der Installation von mit Mikrofonen ausgestatteten Lautsprecherboxen freiwillig zu Opfern großer Lauschangriffe – dies sei eine bereitwillige Selbst-Verwanzung der Privaträume. Ähnlich wie beim Umweltschutz gehe es auch beim Datenschutz um Nachhaltigkeit: Zivilisatorische Werte und Prinzipien, Demokratie, Freiheit des Individuums, verbriefte Grund- und Menschenrechte ließen sich in der Informationsgesellschaft nur bewahren, wenn wir ihre Durchsetzung als persönliche, technologische und gesellschaftliche Aufgabe begreifen, die sich nicht auf eine Behörde oder einen Datenschutzbeauftragten delegieren lassen.

Die Forscherin Lorena Jaume-Pasalí von AlgorithmWatch wies darauf hin, dass Datenschutz als Individualrechtsschutz bei Algorithmen nicht wirke, um Diskriminierungen und andere unerwünschte Effekte zu verhindern. Vielmehr wäre ein kollektiver Ansatz erforderlich, der jedoch rechtlich und gesellschaftlich heutzutage unterentwickelt sei. Auch seien die Datenschutzbehörden nicht die richtigen Akteure, um Fairness der technischen Systeme zu gewährleisten. Selbst wenn kein Personenbezug vorläge, könnten Algorithmen gesellschaftlich wesentliche Auswirkungen haben.

Susanne Dehmel vom Bitkom e.V. stellte aus Sicht der Wirtschaft drei Thesen auf: Erstens könne Datenschutz durch Voreinstellung die Selbstbestimmung des Nutzers nicht ersetzen. Zweitens kaufe niemand ein Produkt, nur weil der Datenschutz so gut sei – allerdings könnten Konsumenten durchaus auf ein Produkt verzichten, wenn IT-Sicherheits- und Datenschutzmängel bestünden. Drittens gelte das Prinzip "Viel hilft viel" nicht für Datenschutzerklärungen. Sie wünsche sich Best-Practice-Beispiele für Datenschutz durch Technik.

Frank Wagner, Deutsche Telekom AG, gab einen Einblick in die Datenschutz-Entwicklungen bei dem Telekommunikationsunternehmen. Datenschutz gehöre einfach dazu – wie bei einem Neuwagen, bei dem auch ein bestandener TÜV eine Selbstverständlichkeit sei. "Privacy by Design" müsse schon am Anfang einer Entwicklung stehen. Wichtig seien nicht nur die Voreinstellungen – "Privacy by Default" käme zu spät, wenn nicht schon die richtigen Design-Entscheidungen getroffen seien. Dazu solle man auch "out of the box" denken.

Zwei Beispiele illustrierten dies: Statt einen Dienstleister einzuschalten, der bei verlorenen Handys eine Lokalisierung oder eine Löschung ermöglichen würde und dafür jederzeit auch bei der berechtigten Nutzung den Aufenthaltsort sehen und speichern könne, wäre dies auch möglich ohne Einbindung eines Dienstleisters: So hätten sie eine Lösung entwickelt, bei der im Fall des Verlusts des Handys eine Fernsteuer-SMS mit einem Kennwort von einem anderen Gerät abgesandt werden könne, um die Lokalisierung vorzunehmen. Ein anderes Beispiel zeigte, dass im Falle einer Wetter-App nicht die exakten Ortsdaten, sondern zufällig in gewissen Grenzen verfremdete Geoinformationen ausreichen würden.

Paul Nemitz, Leitender Beamter in der Generaldirektion für Justiz und Verbraucher der Europäischen Kommission, richtete seinen Appell zunächst an die Wirtschaft, weil seiner Ansicht nach mit Datenschutz viel Geld zu verdienen sei. Zudem gebe es aber auch viel Potenzial bei Anwendungen, die ohne personenbezogene Daten auskommen würden. Für die Umsetzung der Datenschutz-Grundverordnung könnten mit unternehmerischer Offenheit insbesondere zwei Arten von IT-Lösungen entwickelt werden: zum einen Lösungen für Anwender, beispielsweise Dashboards für Unternehmen, um festzustellen und zu visualisieren, wo welche personenbezogenen Daten verarbeitet würden, zum anderen Prüftechniken für Behörden und die Zivilgesellschaft, um die Einhaltung der Datenschutzregeln überprüfen zu können. Alle, die sich mit Datenschutz beschäftigten, seien Agenten der Demokratie und der Freiheit.

In der anschließenden Podiumsdiskussion, die von Barbara Körffer, der stellvertretenden Landesbeauftragten für Datenschutz Schleswig-Holstein, moderiert wurde, ging es um die Erwartungen an die Wirtschaft und an Datenschutzbehörden. Alle müssten nun die neuen Spielregeln, die sich mit der Datenschutz-Grundverordnung ändern würden, verwenden. Es böte sich an, dass Anwender ebenso wie Entwickler gleichzeitig "Security by Design" und eingebauten Datenschutz voranbrächten. Transparenz sei auch bei Algorithmen vonnöten; die Datenschutz-Grundverordnung sehe aussagekräftige Informationen über die Logik vor. (ULD: ra)

eingetragen: 22.09.17
Home & Newsletterlauf: 17.10.17

ULD: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>


Meldungen: Markt / Unternehmen

  • Regeln zum "exekutiven Fußabdruck" einhalten

    Das neue Medizinforschungsgesetz (MFG) wurde laut Angaben von Transparency möglicherweise zugunsten der Pharmaindustrie angepasst - und zwar entsprechend der Forderung des amerikanischen Pharmakonzerns Eli Lilly. Transparency verweist auf Recherchen eines Teams von Investigate Europe, Süddeutscher Zeitung, NDR und WDR und interne Dokumente aus dem Bundesgesundheitsministerium, die diesen ungeheuerlichen Verdacht nahelegen sollen.

  • Elektronische Rechnungen

    Esker, Anbieterin von KI-gesteuerten Prozessautomatisierungslösungen für die Bereiche Finanzen, Einkauf und Kundenservice, gab bekannt, dass das Unternehmen offiziell von der französischen Generaldirektion für öffentliche Finanzen (Direction Générale des Finances Publiques, DGFiP) als Partner-Digitalisierungsplattform (Plateforme de Dématérialisation Partenaire, PDP) für elektronische Rechnungen registriert wurde.

  • ESG mit Esker

    Nachhaltigkeit steht in der Politik weiter weit oben auf der Prioritätenliste. Die Europäische Union verabschiedete Ende 2022 neue Gesetze zur nichtfinanziellen Berichterstattung, die die bestehenden Regelungen für Konzerne Non-Financial Reporting Directive (NFRD) auf weitere Unternehmen und mit neuen Rahmenbedingungen erweitern.

  • Diversity, Equity, Inclusion, Belonging - DEIB

    Ingram Micro hat ihren Environmental, Social and Governance (ESG)-Report für das Kalenderjahr 2023 veröffentlicht, der Einblicke in wichtige ESG-Themen wie die Verringerung der Kohlenstoffemissionen, die Gesundheit und Sicherheit der Arbeitnehmer sowie Vielfalt, Gerechtigkeit, Integration und Zugehörigkeit (Diversity, Equity, Inclusion, Belonging - DEIB) und Unternehmensführung bietet.

  • Hashthink Technologies steigt als Gesellschafter

    Das deutsche Legal/RegTech Startup LEX AI GmbH und der Kanadische KI- und Daten- Spezialist Hashthink Technologies Inc. kooperieren bei der Entwicklung und Globalisierung der "LEX AI"-SaaS-Plattform.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen