Blogbeitrag Philosophie aktuell

Überwachung in Krisenzeiten

Wie Philosophie uns Orientierung bieten kann

·

Die Angst und der Souverän

Krisenzeiten sind besonders anfällig für die Einschränkung von Grundrechten und -freiheiten. Krisen verursachen Angst und Unsicherheitsgefühle, die der ideale Nährboden für die Erweiterung von staatlichen Machtbefugnissen sind. Der englische Philosoph Thomas Hobbes hat dies Mitte des 17. Jahrhunderts durch das kraftvolle Bild des Leviathans veranschaulicht: Menschen, die sich um das Leben fürchten, opfern bereitwillig ihre Freiheit im Tausch gegen die Sicherheit, die ein mit absoluter Macht ausgestatteter Souverän (der Leviathan) ihnen zu garantieren verspricht.

 

Hobbes’ Theorie war jedoch nicht als kritische Warnung gemeint, sondern als Plädoyer für eine absolutistische Herrschaft. Hobbes war, nach eigenen Angaben, ein ängstlicher Mensch. Bei seiner Geburt, schrieb er, hatte seine Mutter Zwillinge zur Welt gebracht: ihn und die Angst. Dazu kam, dass er in harten Zeiten lebte: Zeiten eines andauernden Bürgerkrieges, in dem Menschen durch andere Menschen als ständige Bedrohung wahrgenommen wurden. Homo homini lupus: der Mensch als Wolf für den anderen Menschen – so bringt es Hobbes schonungslos auf den Punkt.

 

So sehr wir also die Gründe nachvollziehen können, die laut Hobbes dafürsprachen, Freiheit gegen ein Sicherheitsversprechen einzutauschen, wissen wir heute auch, welche Konsequenzen aus dem Ruf nach dem starken Souverän folgen können. Gerade vor 100 Jahren befand sich Europa in einer schwerwiegenden Krise: Es war mit den wirtschaftlichen Folgen des Ersten Weltkrieges konfrontiert und die Spanische Grippe wütete auf dem Kontinent. Die „starken Männer“ kamen und wurden mit absoluter Macht ausgestattet: Faschismus, Nationalsozialismus, Völkermorde und der Zweite Weltkrieg folgten. Aus dem Versprechen, nie wieder eine solche Vernichtung von Menschenleben und -würde zuzulassen, haben viele europäische Länder ihre post-bellische demokratische Ordnung aufgebaut, in der Grundrechte und individuelle Freiheiten besonders geschützt werden.

 

Wir erleben gerade eine umfassende Krise (die sog. Corona-Krise), die von einer gesundheitlichen Bedrohung ausgeht, zunehmend aber auch wirtschaftliche, politische, soziale und andere Dimensionen entwickelt. Die Social-Distancing-Maßnahmen – so sinnvoll sie medizinisch auch sein können – lehren uns, andere Menschen als eine potenzielle Bedrohung zu sehen, oder uns selbst als Bedrohung für die anderen. Jede*r könnte uns anstecken – oder wir könnten jede*n anstecken, mit potenziell tödlichen Folgen. Um möglichst viele Leben zu schützen, sind in den westlichen Demokratien bereits die weitreichendsten Einschränkungen der Grundrechte und -freiheiten seit Ende des Zweiten Weltkriegs beschlossen worden. In einem gewissen Sinne ist also der Hobbes’sche Mechanismus des Tausches von Freiheit gegen Schutz bereits eingetreten, unter der Voraussetzung und dem Versprechen, dass alles zur Normalität zurückkehren wird, sobald die Notlage vorbei ist.

 

 

Digitale Überwachung, oder das neue Schwert des hybriden Leviathans

Viele der freiheitseinschränkenden Maßnahmen sind sozusagen „traditioneller“ Art, in dem Sinne, dass sie auf Formen der Ausübung von Macht zurückgreifen, die dem Staat schon immer zur Verfügung standen. Dazu gehören zum Beispiel Ausgangsverbote oder Bewegungseinschränkungen. Andere knüpfen an relativ neue Instrumente an und können durch das Stichwort „digitale Überwachung“ gekennzeichnet werden. Ich denke, dass diese zweite Art von Maßnahmen besondere Aufmerksamkeit verdient, weil sie tiefgreifende und nachhaltige Folgen für den Schutz der Grundrechte und -freiheiten haben können. Sie scheinen mir aus den folgenden Gründen besonders kritisch zu sein.

 

Erstens hat die Nutzung von sozialen Medien und Internetplattformen dank der Social-Distancing-Maßnahmen massiv zugenommen. Da wir viele Aktivitäten nicht mehr persönlich durchführen können, sind wir auf digitale Surrogate umgestiegen: Skypen statt realer Treffen, Netflix statt Kino, Zoom statt Schule, und die Liste könnte noch viel länger werden. Dabei verstärkt sich eine Tendenz, die gewiss schon vor längerer Zeit angefangen hat, aber nun einen Aufschwung erlebt, von dem Facebook, Amazon & Co. vor wenigen Monaten nur geträumt hätten – und der ihnen zunächst technische und logistische Schwierigkeiten bereitet hat, mit diesem Aufschwung Schritt zu halten. Seit Jahren zunehmend, ob wir es wollen oder nicht, produzieren wir ständig Daten, die erfasst, gespeichert, aufgewertet und weitergegeben werden. Die Quantität dieser Daten ist während der Krise enorm gestiegen – sowie unsere Abhängigkeit von digitalen Mitteln, um früher (mehrheitlich) analog durchgeführte Aktivitäten weiterhin ausführen zu können.

 

Zweitens sind diese Daten extrem begehrt: Wie die Harvard-Professorin Shoshana Zuboff überzeugend dargelegt hat, lässt sich aus diesen Daten immenser ökonomischer Wert schöpfen. Die Dienstanbieter eignen sich diese Daten – die wir durch unsere Internetaktivitäten produzieren – an und verkaufen sie weiter. Zuboff nennt das „Überwachungs­kapitalismus“, aber das gleiche Konzept – allerdings ohne die kritische Deutung von Zuboff – hat bereits die deutsche Kanzlerin Angela Merkel zum Ausdruck gebracht, als sie feststellte, dass Daten „die Rohstoffe des 21. Jahrhunderts“ sind. Es ist also anzunehmen, dass die Provider der Onlinedienste, die wir benutzen, den Anstieg an Datenproduktion nicht einfach nur unproduktiv geschehen lassen werden, sondern so viel Kapital wie möglich daraus zu schöpfen versuchen werden. Auf die Frage, wie genau sie Wert daraus schöpfen, werde ich unten zurückkehren.

 

Der dritte Grund hat mit einem Phänomen zu tun, das die kanadische Journalistin Naomi Klein „Schock-Strategie“ nannte. Klein hat gezeigt, wie Wirtschaftskrisen oder Naturkatastrophen benutzt wurden, um (ökonomische) Maßnahmen relativ reibungslos durchzusetzen, die unter normalen Zuständen einen großen Widerstand ausgelöst hätten. Aber ähnliche Phänomene sind auch außerhalb der wirtschaftlichen Sphäre zu beobachten: Paradigmatisch dafür sind die – bereits geplanten, aber nicht durchsetzungsfähigen – Sicherheitsmaßnahmen, die nach einem Terroranschlag plötzlich doch durchgewunken werden.

 

Ein jüngeres Beispiel auf unserem Kontinent ist die Fluggastdatenrichtlinie (auch als PNR-Richtlinie bekannt), die nach den Anschlägen von 2015 in Paris eingeführt wurde. Nach der Richtlinie müssen seit Mai 2018 Fluggesellschaften und Reisebüros die Buchungsdaten der Flugpassagiere an die Sicherheitsbehörden weitergeben, die diese dann analysieren und eine Profilierung der Fluggäste vornehmen, die sie in Risikokategorien einteilt. Die Fluggastdatenrichtlinie wurde lange vom EU-Parlament wegen Grundrechtsbedenken blockiert, die dann aber angesichts der emotionalen Folgen der terroristischen Anschläge von Paris ihre Kraft verloren hatten. Und das obwohl die Anschläge von Menschen (meistens europäischen Bürger*innen) begangen wurden, die nicht per Flug nach Europa eingereist waren und dementsprechend nicht durch die Analyse der Fluggastdaten hätten vermieden werden können.

 

Eine Krise schafft also die Voraussetzungen, um bedenkliche Maßnahmen durchzuführen, die sich dann aber nachhaltig etablieren und über die Krise hinaus bestehen bleiben. Am Beispiel der PNR-Richtlinie lässt sich auch die Verschränkung zwischen privaten Anbietern (Fluggesellschaften und Reisebüros) und öffentlichen Institutionen (Sicherheitsbehörden) beobachten, die sich bereits seit Jahrzehnten etabliert und nun einen Aufschwung erleben könnte. Die Macht liegt sozusagen nicht mehr in den Händen eines staatlichen Leviathans, sondern wird zunehmend von diesem auf private Akteure übertragen oder von außen durch zunehmenden Einfluss privater Akteure erodiert.

 

Vor diesem Hintergrund sind meines Erachtens die bereits eingeführten (wie etwa in Österreich) oder aktuell diskutierten (wie etwa in Deutschland) Maßnahmen des Contact Tracing zu betrachten. Das von Google und Apple angekündigte System für die Verfolgung sozialer Kontakte, um das Infektionsrisiko zu überwachen, ist sozusagen die Apotheose der oben beschriebenen Mechanismen. Die gegenwärtige Krise stellt sich als einmalige Gelegenheit dar, aus den (in immer größeren Mengen) vorhandenen Daten zusätzlichen Wert zu schöpfen und gleichzeitig Menschen freiwillig dazu zu bringen, eine Form der Überwachung zu akzeptieren (die Verfolgung ihrer sozialen Kontakte, nicht nur online wie bereits bei den sozialen Medien, sondern auch im echten Leben), die unter normalen Umständen die meisten Menschen abgelehnt hätten.

 

 

Nun, dieses Argument kann einem wie eine zynische Unterstellung vorkommen. Denn die Situation kann auch aus einer anderen Perspektive gesehen werden: Google und Apple wollen ja nur ihren Beitrag zur Bewältigung der Krise und zur Rettung von Menschenleben leisten, und der Verzicht auf ein bisschen Privatheit scheint dabei ja nur ein winziger Nachteil im Vergleich zu den enormen Vorteilen, welche die App bringen könnte. Steckt vielleicht nicht auch ein bisschen Egoismus darin, auf dem Schutz der eigenen Daten zu beharren, wenn es darum geht, das Leben anderer zu retten?

 

 

Der Schutz der Privatheit: keine private Angelegenheit

Hinter dieser Darstellung – die im Grunde die philanthropische Selbstdarstellung der großen Tech-Unternehmen widerspiegelt – steckt die Idee, dass Privatheit „nur“ einen Wert für das einzelne Individuum besäße. Es wäre sozusagen ein individuelles Gut, das im Zweifelfall für den gemeinschaftlichen Nutzen geopfert werden sollte. Dagegen, wie schon die US-amerikanische Politologin Priscilla Regan in den 1990er Jahren aufgezeigt hat, ist Privatheit ein interpersonelles, öffentliches und kollektives Gut. Im Grunde geht es bei Privatheit nicht darum, was jede*r Einzelne vor den anderen schützen will, sondern um etwas, das nur dann wirklich in Anspruch genommen werden kann, wenn für alle ein gewisser Standard garantiert wird. Der Schutz der Privatheit definiert außerdem das Kräfteverhältnis zwischen individueller Autonomie und (öffentlicher) Macht und ist dabei alles andere als nur eine private Angelegenheit.

 

Ein Vergleich mit dem Wahlgeheimnis kann die Bedeutung der kollektiven Dimension der Privatheit verdeutlichen. Wenn das Wahlgeheimnis nicht gesetzlich geschützt wäre, sondern jeder bzw. jedem Einzelnen überlassen würde, den Wahlzettel anonym oder mit Namensangabe abzugeben, wäre auch die Anonymität derjenigen, die ihren Wahlzettel anonym abgeben würden, nicht mehr vollständig gewährleistet. Und das umso weniger, desto höher die Anzahl der Menschen, die freiwillig – oder unter politischem Druck – auf ihre Anonymität verzichten. Je kleiner der Kreis derjenigen, die auf Anonymität bestehen, desto größer die Möglichkeit, Rückschlüsse auf ihre Wahlentscheidungen zu ziehen. Auch der Rechtfertigungsdruck steigt, parallel zu der Vermutung: Wer geheim wählen will, hat etwas zu verbergen.

 

Das ist ein rein theoretisches Beispiel, denn meines Wissens ist in unseren gegenwärtigen Demokratien noch niemand auf die Idee gekommen, ernsthaft und öffentlich das Wahlgeheimnis infrage zu stellen. Anders beim Recht auf Privatheit: Wer nichts zu verbergen hat – so eine breit geteilte Überzeugung –, muss sich vor Überwachung nicht fürchten. Dagegen möchte ich nun einige Argumente und Beispiele anführen, welche die Risiken der Überwachung und die Wichtigkeit des Schutzes der Privatheit verdeutlichen, und zwar für uns alle, unabhängig davon, ob wir etwas zu verbergen haben oder nicht.

 

 

Der gläserne Mensch: Autonom oder Automat?

Ich fange mit einem Beispiel an, das zeigt, wie auch aus sehr harmlosen Daten Wert geschöpft werden kann. Aus diesen scheinbar harmlosen, nicht sensiblen Daten können sehr sensible Informationen abgeleitet werden, mit denen sich unser Verhalten auf subtile Weise steuern lässt.

 

Viele Einkaufsketten teilen ihren Kund*innen eine Identifikationsnummer oder eine Kundenkarte zu, womit Transaktionen wie Einkäufe, Rückgaben, Zahlungsarten usw. verfolgt und registriert werden können. Wie aus einem Report des österreichischen IT-Spezialisten Wolfie Christl und der deutsch-österreichischen Wirtschaftsinformatikerin Sarah Spiekermann hervorgeht, war die US-amerikanische Einkaufskette Target bei der Nutzung dieser Daten besonders erfinderisch. Um Zeitpunkte im Leben ihrer Kund*innen zu entdecken, zu denen neue Einkaufsgewohnheiten eintreten können, führte sie eine umfangreiche Profilierung ihrer Kund*innen durch. Solche Zeitpunkte sind zum Beispiel der Abschluss des Studiums, die Eheschließung oder – wie im vorliegenden Beispiel – die Geburt eines Kindes. Frische Eltern sind bekanntlich im besten Falle nicht nur höchstglücklich, sondern häufig auch von der neuen Situation überfordert. Wer zu ihnen im richtigen Moment mit dem passenden Angebot kommt, kann gute Geschäfte machen, zur großen Freude der frischgebackenen Eltern, die sich von der Qual der Wahl befreit fühlen. Um die werdenden Eltern so früh wie möglich abzufangen, hatte die Marketingabteilung von Target ein „pregnancy prediction score“ entwickelt, um schwangere Frauen an ihrem Kaufverhalten zu erkennen und ihnen gezielt maßgeschneiderte Werbung zu senden.

 

Dafür hatten sie das Kaufverhalten anderer Kund*innen auswertet, die ein Kind bekommen hatten, um dadurch statistische Zusammenhänge zwischen Schwangerschaft und Einkäufen zu erkennen. Diese erfassten nicht nur typische Baby- und Schwangerschaftsartikel, sondern etwa auch herkömmliche Produkte wie Körperlotionen, Seifen, Handdesinfektionsmittel, Wattebällchen und Nahrungsergänzungsprodukte. Wenn das Kaufverhalten einer Frau dem Profil einer Schwangeren entsprach, sendete Target ihr entsprechende Sonderangebote, Rabattcoupons etc. zu. Die Anekdote, wonach ein Vater Target vorwarf, seine Tochter zum Schwangerwerden motivieren zu wollen, weil sie entsprechende Werbung zugeschickt bekam, spricht Bände über die möglichen Implikationen solcher Profilierungen. Denn die Tochter war eigentlich schon schwanger, nur Target hatte es vor ihrem Vater erfahren.

 

Die Pointe dieses Beispiels ist folgende: Mittels digitaler Überwachung können sehr sensible Informationen über eine Person aus ihrem Verhalten geschlossen und für andere Menschen zugänglich gemacht werden, unabhängig davon, ob diese Person selbst die Informationen preisgeben wollte. Zudem können sensible Informationen (das Bestehen einer Schwangerschaft) aus anderen, sehr mondänen Informationen abgeleitet werden. Die betroffene Person würde im Normalfall wohl kaum damit rechnen, dass das Preisgeben von scheinbar harmlosen Einkaufsinformationen Rückschlüsse auf sensiblere Zustände ermöglicht. Schließlich werden diese Rückschlüsse und der Informationsvorsprung benutzt, um das (Kauf-)Verhalten der betroffenen Person zu steuern, ohne diesen Hintergrund für die betroffene Person transparent zu machen.

 

Solche Profilierungsverfahren stellen im Grunde unsere Fähigkeit, autonome Entscheidungen zu treffen, infrage. Wir können nicht selbst bestimmen und nachvollziehen, wer was über uns weiß. Andere aber wissen sehr viel über uns und steuern dank dieser Informationen unsere Entscheidungen. Kurz: Unsere informationelle Selbstbestimmung und unsere Fähigkeit, autonome Entscheidungen über uns selbst zu treffen, sind gefährdet. Digitale Überwachung setzt unsere Autonomie aufs Spiel: die Autonomie, zu entscheiden, mit wem wir private Informationen teilen wollen, und die Autonomie, Entscheidungen aus Gründen zu treffen, die wir nachverfolgen können.

 

Dieses Beispiel hat zudem die oben offen gelassene Frage, wodurch sich Wert aus Daten schöpfen lässt, beantwortet: Daten werden benutzt, um auf lukrative Weise menschliches Verhalten zu steuern. Das kann direkt geschehen oder durch Verkauf an den besten Anbieter, der wiederum das individuelle Verhalten zu kommerziellen Zwecken, aber auch zu Zwecken der governance analysiert und produktiv verwendet.

 

 

 

Objektive“ Algorithmen und diskriminierende Verfahren

Das zweite Beispiel soll zeigen, wie scheinbar neutrale mathematische Verfahren, die für die Auswertung der Daten benutzt werden, zu Diskriminierung und Ausgrenzung führen können. Dabei müssen die Daten über die von der Diskriminierung betroffene Person nicht einmal besonders detailliert oder präzise analysiert werden.

 

Große Arbeitgeber verwenden häufig algorithmische Verfahren, um Kandidat*innen für eine bestimmte Position im Vorfeld auszusortieren. Sie werten bestehende Datenbanken aus, um Profile für die idealen Kandidat*innen für eine bestimmte Position zu bestimmen. Wenn sie etwa eine Person für eine Führungsposition suchen, dann suchen sie automatisiert nach häufigen Merkmalen bereits angestellter Führungskräfte. Diese müssen nicht unbedingt in logischem Zusammenhang mit den Qualitäten einer Führungskraft stehen, ausschlaggebend ist vielmehr die Häufigkeit, mit der bestimmte Zusammenhänge auftreten. Wenn etwa die bereits eingestellten Führungskräfte besonders häufig auch Leistungssportler*innen oder Geigerspieler*innen sind, dann wird „Leistungssportler*innensein“ oder „Geigerspieler*innen sein“ als Eigenschaft betrachtet, welche die Wahrscheinlichkeit erhöht, eine gute Führungskraft zu sein. Im Umkehrschluss bedeutet dies aber, dass Kandidat*innen, die Charakteristiken mit Menschen teilen, die besonders selten als Führungskräfte eingestellt werden, aus dem Verfahren aussortiert werden. Wenn zum Beispiel in einer bestimmten Gesellschaft nur wenige Frauen Führungspositionen besetzen und die Einwohner*innen einer bestimmten Region normalerweise einen niedrigen Bildungsstand haben, wird eine Bewerberin aus dieser Region kaum Chancen haben, eine Führungsposition zu besetzen. Sie wird aufgrund von statistischen Inferenzen aussortiert, unabhängig von ihrer tatsächlichen Qualifikation und ihren anderen individuellen Eigenschaften. Die Frau bekommt die Stelle nicht nur nicht, sondern ihr Fall trägt außerdem dazu bei, dass in der nächsten Statistik Bewerberinnen aus ihrer Region noch schlechter abschneiden, was wiederum deren zukünftige Chancen, eine Führungsstelle zu besetzen, noch weiter verringert.

 

Wie auch im ersten Beispiel findet hier auf den ersten Blick keine (erhebliche) Privatheitsverletzung statt: Um die Frau aus dem weiteren Einstellungsverfahren auszuschließen, würde es schließlich vollkommen ausreichen, lediglich ihr Geschlecht und ihre Postleitzahl zu kennen – sonst könnte das Verfahren komplett anonym ablaufen. Trotzdem hat ein solches Verfahren gravierende diskriminatorische Effekte, die über den Einzelfall hinausgehen. Der kanadische Soziologe David Lyon bezeichnet daher digitale Überwachung als social sorting: Hauptfunktion von der gegenwärtigen, digital gestützten Überwachung sei es, Menschen auseinanderzusortieren und in verschiedene Gruppen einzuteilen, um dann jede Gruppe einer unterschiedlichen Behandlung zu unterziehen.

 

 

Schein- und Selbstüberwachung

Schließlich möchte ich am dritten Beispiel darstellen, dass Überwachung unser Verhalten beeinflussen kann, selbst wenn gar keine Daten gesammelt werden. Es reicht, zu wissen, dass Daten potenziell gesammelt werden könnten.

 

Manchmal werden Überwachungsmaßnahmen gezielt mit dieser Intention durchgeführt, also nicht um Informationen zu sammeln, sondern lediglich um den Eindruck davon zu erwecken. Kameraattrappen, die gegen Vandalismus installiert werden, sind ein deutliches Beispiel hierfür. Die Kameras haben nicht einmal die technische Ausstattung, um etwas aufzuzeichnen. Allein dadurch, dass sie sichtbar sind und wie „echte“ Kameras aussehen, sollen sie potenzielle Sachbeschädiger*innen von Vandalismus abhalten.

 

Der französische Philosoph Michel Foucault hat diesen Mechanismus für prä-digitale Zeiten am bekannten Beispiel des Panoptikums beschrieben. In einem panoptischen System können die vereinzelten Individuen potenziell immer beobachtet und überwacht werden, ohne dass es für diese möglich ist, zu wissen, ob und wann sie tatsächlich gesehen und überwacht werden. Unter diesen Umständen setzen Mechanismen der Selbstdisziplinierung ein, die Überwachungseffekte zeitigen und verstetigen, auch wenn die Überwachung selbst nicht wirklich stattfindet.

 

Ein solcher Mechanismus der Selbstdisziplinierung kann auch in Bezug auf harmloses, in einer Demokratie sogar wünschenswertes Verhalten einsetzen. Was heute unter der Bezeichnung chilling effect diskutiert wird, meint eine Art Abschreckung oder Hemmung, die Individuen von bestimmten Verhaltensweisen abhält, sobald sie wissen, dass sie überwacht werden können. Die Vermeidung von bestimmten Verhaltensweisen kann Individuen daran hindern, von deren Grundrechten Gebrauch zu machen, insbesondere von Rechten, die den Kern demokratischen Lebens ausmachen, wie die Glaubens-, Meinungs-, Informations-, Presse- und Versammlungsfreiheit. Solche Effekte können zum Beispiel dazu führen, dass Menschen davon absehen, an einer Demonstration teilzunehmen, weil sie wissen, dass sie dabei von den Behörden gefilmt werden könnten. Gleiches gilt für den Verzicht auf das Suchen bestimmter Inhalte im Internet, um nicht als potenziell verdächtig identifiziert zu werden und dadurch die Aufmerksamkeit der Behörden auf sich zu lenken. Empirische Studien haben belegt, dass solche Effekte das Verhalten von Internetbenutzer*innen durchaus beeinflussen können. Nachdem die NSA-Überwachungsaktivität durch die Enthüllungen von Edward Snowden bekannt wurde, ging zum Beispiel die Suche nach bestimmten Begriffen mit der Suchmaschine Google zurück. Interessanterweise betraf der Rückgang nicht nur Begriffe, die direkt mit Terrorismus in Verbindung gebracht werden können, sondern auch solche, die als „persönlich sensibel“ empfunden werden, wie etwa „Abtreibung“. Eine 2016 veröffentlichte Studie belegt ähnliche Effekte bei der Nutzung des Onlinelexikons Wikipedia, wonach die Häufigkeit zurückging, mit der Wikipedia-Nutzer*innen Artikel lesen, die als privatheitssensibel empfunden werden.

 

Je pervasiver das Überwachungsgefühl, so kann die Botschaft dieses Beispiels zusammengefasst werden, desto höher der Grad der Selbstzensierung bei der Ausübung von demokratisch und rechtsstaatlich vitalen Grundrechten und -freiheiten. Dabei ist der Selbstüberwachungseffekt unabhängig davon, wie viele Daten tatsächlich gesammelt und gespeichert werden.

 

 

Und nun? Oder: Philosophie = viele Zweifel, wenige Lösungen?

Der österreichische Philosoph Ludwig Wittgenstein hat die Aufgabe der Philosophie als ein „Zusammentragen von Erinnerungen zu einem bestimmten Zweck“ bezeichnet. Damit meinte er, dass Philosoph*innen keine fertigen Lösungen präsentieren sollen, sondern (mehr oder weniger) bekannte Argumente zusammentragen sollen, die zur Beurteilung eines bestimmten Problems oder einer bestimmten Situation beitragen können. So wollte ich in diesem Beitrag einige der Elemente zusammentragen, die mir wichtig für die Interpretation der Rolle und der Risiken der digitalen Überwachung, insbesondere in Krisenzeiten, scheinen. Dabei war meine Intention nicht ein Ja oder Nein, etwa für oder gegen social tracing, auszusprechen, sondern auf die möglichen Implikationen dieser und ähnlicher Überwachungsmaßnahmen hinzuweisen.

 

Es gibt keine Überwachung, die privatheits- und grundrechtsschonend ist. Die Implikationen und die Risiken der Überwachung, insbesondere in Krisenzeiten, sind massiv und häufig nicht unmittelbar evident. Dessen müssen wir uns bewusst sein, um entscheiden zu können, ob, und wenn ja, in welchem Umfang und wie lange wir bestimmte Maßnahmen akzeptieren wollen.

 

Jedoch: So durchdringend und subtil die Auswirkungen der Überwachung sind, so ist es nichtsdestotrotz möglich, diese zu minimieren. Einige Wissenschaftler*innen arbeiten schon länger daran, Alternativen zu den gängigen Systemen zu entwickeln, die eben diese Risiken auf ein Minimum reduzieren können. Beispielhaft hat eine Gruppe von europäischen Wissenschaftler*innen um die Ingenieurwissenschaftlerin und Professorin Carmela Troncoso ein System für social tracing namens DP^3T entwickelt. Eines der wichtigsten Merkmale dieses Systems ist die Dezentralisierung: Die Daten sollen nicht zentral (etwa auf einen behördlichen Server) gesammelt und gespeichert werden, sondern so viel und so lange wie möglich in den Händen der Betroffenen (sprich auf deren Geräten) bleiben und nur bei tatsächlichem Bedarf zentral analysiert werden. So klar und überzeugend diese Idee auch ist, ebenso ist klar, was sie für Konzerne und Behörden unattraktiv macht: Mit Daten, die bei den datasubjects verbleiben, lassen sich keine Geschäfte machen und keine Profile entwickeln. Schließlich würde selbst eine dezentralisierte Lösung die Risiken einer möglichen „Nebenüberwachung“ durch Google und Apple nicht vermeiden können. Die zwei Unternehmer würden die Betriebssysteme und, wenigstens in der in Deutschland aktuell diskutierten Version, die Krypto-Schlüssel für die Apps verwalten. Die Suche nach besseren Lösungen ist also noch nicht abgeschlossen.