Chancen und Risiken von Big Data

Ob wir Auto fahren, im Internet surfen, Fotos oder Videos mit dem Smartphone machen oder auf der Arbeit Maschinen bedienen: Es fallen Daten an. Die Menge ist so gigantisch, dass Experten von "Big Data" sprechen. Bei einer Podiumsdiskussion am Fraunhofer-Institut in Bayreuth war Professor Dirk Heckmann dabei. Im Kurier-Interview sprach der Experte für Internet-Recht anschließend über die Chancen und Risiken, die in den schier unendlichen Datenweiten stecken.

Dieser Tage erst wurde aufgedeckt, dass sich vermeintlich anonym im Internet gesammelte Daten sehr leicht wieder einem konkreten Nutzer zuordnen lassen. Wo bucht jemand eine Reise, schaut er sich vielleicht Schmuddelseiten an? Das alles kann wieder sichtbar gemacht werden. Was sind aus Ihrer Sicht die größten Risiken von Big Data?

Prof. Dirk Heckmann: Big Data bietet zunächst einmal große Chancen. Es können damit sinnvolle Ziele verfolgt werden. Im Bereich des Gesundheitswesens können zum Beispiel Krankheiten besser erkannt und neue Therapien gefunden werden. In der Industrie kann Big Data Produktionsprozesse optimieren. Das ist alles wunderbar. Bei Big Data ist das Problem nicht der normale Gebrauch der Daten, sondern der Missbrauch. Zum Beispiel, wenn man Systeme angreift und Produktionsprozesse lahmlegt. Denkbar ist auch, durch Big Data Nutzerprofile zu erstellen, um Menschen damit zu durchleuchten – sei es relativ harmlos für Werbezwecke oder aber kriminell, um Menschen zu erpressen.

Wie verhindert man solchen Missbrauch?

Heckmann: Es ist notwendig, Daten bei Big-Data-Prozessen so weit es irgend geht, zu anonymisieren. Das muss auf einer sicheren Basis geschehen für einen besseren Schutz. Die Herausforderung ist aber, dass es manche Big-Data-Anwendungen gibt, die man nicht anonymisieren kann. Ein Beispiel aus dem Gesundheitswesen: Wenn man dem Patienten Informationen zurück spielen will – zum Beispiel über individuelle Therapie- und Diagnosemöglichkeiten. Dann muss man anderweitig sicherstellen, dass nicht Unbefugte Zugriff auf die Daten haben. Krankenkassen sind also gut beraten, Big-Data-Analysen in einer optimal geschützten Umgebung durchzuführen. Das kann etwa gelingen, wenn man vertrauenswürdige Dritte einschaltet.

Nur die Krankheitsmuster sind erkennbar, nicht die Personen hinter den Ziffern

Vertrauenswürdige Dritte?

Heckmann: Das wäre ein Dienstleister, der zertifiziert ist und hohe Qualitätsstandards für den Schutz der Daten erfüllt. Dieser könnte die Re-Identifizierung der Daten organisieren, ohne dass er selbst den Inhalt der damit verknüpften Daten kennt, weil diese wiederum verschlüsselt sind. Wenn ein Big Data Prozess über einen vertrauenswürdigen Dritten läuft, kennt die Krankenkasse zwar ihre Kunden (die Patienten), nicht aber die Analyseergebnisse des Big Data Dienstleisters. Dieser wiederum kennt nur die Krankheitsmuster, nicht aber die Personen hinter den Ziffern. Das wäre ein System des verteilten Wissens. Und damit gibt es eine bessere Chance, dass die Daten nicht missbraucht werden.

Es kommen gerade erste Modelle auf, die uns schmackhaft machen wollen, unsere Daten zur Verfügung zu stellen. Zum Beispiel für die Kranken- oder Kfz-Versicherung. Wenn wir uns konform verhalten, soll es dafür einen Bonus geben. Sehen Sie da eine Gefahr, dass wir uns mit Big Data vom gesellschaftlichen Solidaritätsgedanken verabschieden?

Heckmann: Das Risiko besteht. Wir müssen hier aber unterscheiden. Es gibt die Telematiktarife im Kfz-Wesen. Die sind nicht ganz so problematisch. Das ist eine Frage der Akzeptanz am Markt. Es darf nur keine Mogelpackung werden, in der Form, dass man am Ende nicht wirklich spart, weil diejenigen, die nicht mitmachen, einfach übertariflich zahlen müssen. Bei den Krankenversicherungen steht das Solidaritätsprinzip im Vordergrund. Menschen müssen es sich noch leisten können, krank zu werden. Man darf Menschen nicht zwingen, einen standardisierten Lebensstil zu pflegen, der sie optimal gesund hält. Zur menschlichen Freiheit gehört auch, sich zuweilen unvernünftig zu verhalten. Das ganze natürlich in einem gewissen Rahmen. Hier muss man mehr auf Anreizmodelle setzen. Es darf nicht zum gläsernen Patienten kommen. Unter diesen Bedingungen können Big-Data-Analysen auch für die Krankenkassen und uns alle sehr nützlich sein.

Big Data kennt keine nationalen Grenzen. Sind nationale Rechtssystem gegen die globale Nutzung von Daten chancenlos?

Heckmann: Natürlich haben wir im internationalen Bereich unterschiedliche Rechts- und Datenkulturen. Nehmen wir nur Europa auf der einen und die USA auf der anderen Seite. Wir müssen damit umgehen, dass Daten international zirkulieren und unterschiedliche Maßstäbe gelten. Dafür müssen wir Lösungen finden. Eine ist zum Beispiel die europäische Cloud, in der Daten gespeichert werden und die so konfiguriert ist, dass amerikanische Geheimdienste darauf keinen Zugriff bekommen. Wir haben das Dilemma, dass wir ein Datenschutzdenken haben, das regional durch unsere Kultur begrenzt ist. Aber wir haben ein Internet, das keine Grenzen kennt. Da wird man nur immer wieder sensibilisieren und neu verhandeln können. Das ist ein schwieriger politischer Prozess.

Spürbare Sanktionen für große Firmen

Es gibt die europäische Datenschutzgrundverordnung. Ist diese ein effektives Instrument, um Datenmissbrauch zu verhindern?

Heckmann: Die Verordnung ist insoweit kein per Se effektives Instrument. Aber sie hat Teilaspekte einer Verbesserung des Datenschutzes, weil nunmehr wirksame Strafen normiert wurden. Das war früher anders. Da waren die Strafen gegen Datenschutzverstöße so niedrig, dass große Firmen das aus der Portokasse bezahlt haben. Heute sind das spürbare Sanktionen.

Ich behaupte, meine Daten gehören mir. Aber andere machen damit Geld. Ist Big Data gerecht?

Heckmann: Big Data ist ein so komplexer Begriff, dass Attribute wie gerecht oder ungerecht sehr schnell missverstanden werden. Big Data ist erst einmal weder gerecht noch ungerecht. Das können nur einzelne Anwendungen und Analysen sein. Ich kann aber eine provozierende Gegenfrage stellen: Ist es denn gerecht, Big Data nicht einzusetzen, obwohl wir damit jeden Tag Hunderte Menschenleben retten könnten? Ist es denn gerecht, autonomes Fahren nicht zu initiieren, das ja auf Big Data basiert, obwohl wir damit die Zahl der Verkehrsopfer, der schwer Verletzten, die Zahl der Unfälle signifikant reduzieren könnten? Ist es denn gerecht, dass im Gesundheitsbereich täglich Menschen unter den Folgen von Informationsunterversorgung leiden? Es gibt Informationen in den Datenbeständen von Krankenkassen, die die Datenschützer aber nicht freigeben wollen, obwohl man damit sehr viel Gutes tun könnte. Es kommt immer auf den Zweck an. Das können sehr gerechte sinnvolle Ziele sein.

Sie wollen also sagen, dass jeder von uns auch ein Stück weit in der Pflicht ist, seine Daten zur Verfügung zu stellen, damit die Allgemeinheit davon profitiert?

Heckmann: Ja. Und das lässt sich auch datenschutzkonform gestalten. Natürlich brauche ich auch Ihre und meine Daten. Es ist nicht wichtig, dass das die Daten von Moritz Kircher oder Dirk Heckmann sind. Das sind beispielsweise anonymisierte Daten einer männlichen Person einer bestimmten Altersstufe. Hauptsache die Information ist da und kann verwertet werden. Die Herausforderung ist wie gesagt: Wie kann man aus den Daten gewonnene Informationen wieder ohne Missbrauchsgefahr an die Betroffenen zurück spielen, damit diese auch davon profitieren?

Der Mensch als entscheidende Instanz

Was darf Big Data niemals dürfen?

Heckmann: Big Data darf niemals dazu führen, dass menschliches Handeln komplett oder weitestgehend durch Maschinen gesteuert wird. Der Mensch muss immer die Instanz sein, die über die Lebensverhältnisse entscheidet. Maschinen dürfen nur unterstützend tätig sein, um die Verhältnisse zu verbessern. Aber sie dürfen nicht die Datenherrschaft übernehmen.


ZUR PERSON: Professor Dirk Heckmann

Dirk Heckmann, geboren am 15. September 1960 in Remscheid, ist seit 1996 als Juraprofessor an der Universität Passau tätig. Kurz nach seiner Berufung legte er den Schwerpunkt seines Lehrstuhls für Öffentliches Recht unter anderem auf das Internetrecht. Seit 2003 wird er vom Bayerischen Landtag regelmäßig zum nebenamtlichen Richter am Bayerischen Verfassungsgerichtshof gewählt. Seit dem Jahr 2014 ist Heckmann Vorsitzender der Deutschen Gesellschaft für Recht und Informatik, der er seit 2007 als Vorstandsmitglied angehört. Als Sachverständiger in Netzfragen arbeitete er an Gutachten für den Deutschen Bundestag mit. Außerdem ist er netzpolitischer Berater der CSU.

 

0 Kommentare

Kommentieren

  1. Passwort vergessen?
  2. * = Pflichtfeld
Sie haben noch keinen Benutzer-Zugang? Jetzt registrieren!

Wenn Sie einen Kommentar verfassen, so wird dieser unter Ihrem Klarnamen, also dem von Ihnen angegebenen Vor- und Nachnamen veröffentlicht. Sollte Ihr Kommentar nicht sofort erscheinen, bitten wir Sie um etwas Geduld. Wir behalten uns vor, Kommentare vor der Veröffentlichung zu prüfen. Bitte beachten Sie hierzu auch unsere Netiquette.

loading