Digitale Ethik

Cover

Hinweise zur E-Book-Ausgabe

Die E-Books des Reclam Verlags verwenden entsprechend der jeweiligen Buchausgabe Sperrungen zur Hervorhebung von Textpassagen. Diese Textauszeichnung wird nicht von allen Readern unterstützt.

Enthält das E-Book in eckigen Klammern beigefügte Seitenzählungen, so verweisen diese auf die Printausgabe des Werkes.

Fußnoten

  1. Heike Klovert / Anne Martin, »Emil und die nervigen Smartphones«, in: Spiegel Online, 7. 9. 2018 (www.spiegel.de/lebenundlernen/schule/hamburg-emil-macht-kinder-demo-gegen-nervige-smartphones-a-1226876.html. Stand aller im vorliegenden Band angegebenen URLs: 24. 6. 2019).

  2. Siehe ausführlicher zur Philosophie des Glücks Kap. 6.2.

  3. Rüdiger Funiok, »Wertorientierte Strategien zum Schutz der Privatheit in Sozialen Netzwerken«, in: Schöne neue Kommunikationswelt oder Ende der Privatheit? Die Veröffentlichung des Privaten in Social Media und populären Medienformaten, hrsg. von Petra Grimm und Oliver Zöllner, Stuttgart 2012, S. 97118, hier S. 98f.

  4. Siehe zum »Trolley-Problem« auch Kap. 13, S. 209.

  5. Siehe http://moralmachine.mit.edu/.

  6. Jürgen Habermas, Die Einbeziehung des Anderen. Studien zur politischen Theorie, Frankfurt a. M. 1996, S. 252 ff.

  7. Unbestimmte Rechtsbegriffe finden sich etwa im § 826 des Bürgerlichen Gesetzbuches, der für den Verstoß gegen die »guten Sitten« einen Schadensersatzanspruch vorsieht.

  8. Aus Gründen der besseren Lesbarkeit wird im Weiteren auf eine geschlechterspezifische Differenzierung verzichtet. Entsprechende Begriffe gelten im Sinne der Gleichbehandlung aller Geschlechter.

  9. Julian Nida-Rümelin, »Vorwort«, in: J. N.-R. / Nathalie Weidenfeld, Digitaler Humanismus. Eine Ethik für das Zeitalter der Künstlichen Intelligenz, München 2018, S. 11.

  10. Vgl. für das Beispiel zu »My friend Cayla«: Jannis Brühl, »So spioniert ›Cayla‹ Kinder aus«, in: SZ.de, 1722017 (www.sueddeutsche.de/digital/verbotenes-spielzeug-so-spioniert-die-puppe-cayla-kinder-aus-1.3383387).

  11. Immanuel Kant, Grundlegung zur Metaphysik der Sitte, hrsg. von Bernd Kraft und Dieter Schönecker, Hamburg 1999 [1796], S. 61.

  12. Kurt Imhof, »Die Verankerung der Utopie herrschaftsemanzipierten Raisonnements im Dualismus Öffentlichkeit und Privatheit. Einführung«, in: Die Veröffentlichung des Privaten – Die Privatisierung des Öffentlichen, hrsg. von Kurt Imhof und Peter Schulz, Opladen/Wiesbaden 1998, S. 1524, hier S. 16.

  13. Beate Rössler, Der Wert des Privaten, Frankfurt a. M. 2001.

  14. Rössler (s. Anm. 4), S. 23.

  15. Helen Nissenbaum, Privacy in Context. Technology, Policy, and the Integration of Social Life, Stanford 2010.

  16. Jeroen van den Hoven, »Privacy or Informational Injustice?«, in: Ethics and Electronic Information in the Twenty-First Century, hrsg. von Lester J. Pourciau, West Lafayette 1999, S. 139150, hier S. 144.

  17. Emily Glazer / Deepa Seetharaman / AnnaMaria Andriotis, »Facebook to Banks: Give Us Your Data, We’ll Give You our Users«, in: Wall Street Journal, 682018 (www.wsj.com/articles/facebook-to-banks-give-us-your-data-well-give-you-our-users-1533564049).

  18. Rainer Kuhlen, Informationsethik, Konstanz 2004, S. 193.

  19. Georg Simmel, »Das Geheimnis und die geheime Gesellschaft«, in: G. S., Gesamtausgabe, hrsg. von Otthein Rammstedt, Bd. 11: Soziologie. Untersuchungen über die Formen der Vergesellschaftung, Frankfurt a. M. 1992, S. 396.

  20. Beate Rössler, Autonomie. Ein Versuch über das gelungene Leben, Berlin 2017, S. 282.

  21. House of Commons: Digital, Culture, Media and Sport Committee, »Disinformation and ›Fake Fews‹: Interim Report. Fifth Report of Session 201719«, 2472018 (https://publications.parliament.uk/pa/cm201719/cmselect/cmcumeds/363/363.pdf).

  22. Vgl. Hannah Arendt, »Die Krise in der Erziehung«, in: H. A., Zwischen Vergangenheit und Zukunft. Übungen im politischen Denken I, hrsg. von Ursula Ludz, München 2016, S. 255276, hier S. 269.

  23. Cambridge Analytica hat über eine vermeintlich wissenschaftliche App unrechtmäßig persönliche Daten von etwa 87 Millionen Facebook-Nutzern ausgewertet, um US-Wähler mit zielgerichteten Botschaften zu manipulieren. Der Whistleblower Christopher Wylie spricht bei dem von ihm entwickelten System von einem »Werkzeug der psychologischen Kriegsführung«. Siehe Netzpolitik.org, »FAQ: Was wir über den Skandal um Facebook und Cambridge Analytica wissen [UPDATE]«, 2132018 (https://netzpolitik.org/2018/cambridge-analytica-was- wir-ueber-das-groesste-datenleck-in-der-geschichte-von-facebook-wissen/).

  24. Ein »Cookie« ist ein Datensatz, der von einem Webserver erzeugt und über den Webbrowser des Users als Cookie-Datei auf der Festplatte seines Rechners abgelegt wird.

  25. Vgl. dazu Datenschutz im Internet: Statista-Dossier zum Thema Datenschutz im Internet, Hamburg 2018, Folie 21: »Schutzmaßnahmen«.

  26. Vgl. »Whatsapp: Blaue Haken als Beziehungskiller«, in: Spiegel Online, 6112014 (www.spiegel.de/netzwelt/apps/whatsapp-blaue-haken-zeigen-an-wenn-nachricht-gelesen-wurde-a-1001311.html).

  27. Dieser Ausdruck wurde so u. a. vom ersten Bundesbeauftragten für den Datenschutz, Hans Peter Bull, formuliert.

  28. Der im Beispiel dargestellte »Bevolkingsregister« kann online eingesehen werden unter: https://archief.amsterdam/stukken/amsterdammers/bevolkingsregister/index.nl.html.

  29. Vgl. den Gastbeitrag von Shoshana Zuboff, »Wie wir Googles Sklaven wurden«, in: F.A.Z.net, 532016 (www.faz.net/aktuell/feuilleton/debatten/die-digital-debatte/shoshana-zuboff-googles-ueberwachungskapitalismus-14101816.html).

  30. Informationen dazu sind online beim Unternehmen abrufbar: www.johnhancockinsurance.com/vitality-program/apple-watch.html. In Deutschland wird eine abgeschwächte Variante des »Vitality«- Programms von den Generali Versicherungen angeboten.

  31. Vgl. hierzu die Überlegungen Helen Nissenbaums in ihrem Buch Privacy in Context (s. Anm. 6, Kap. 2).

  32. Vgl. das US-Supreme Court-Urteil zum Fall »Katz v. United States« vom 18121967, Azr. 389 U. S. 347.

  33. Die Auswertung der UNCTAD ist abrufbar unter: https://unctad. org/en/Pages/DTL/STI_and_ICTs/ICT4D-Legislation/eCom-Data- Protection-Laws.aspx.

  34. »M2M« steht für »Machine-to-Machine«.

  35. Ausschließliche Rechte erlauben es dem Begünstigten, eine vermögenswerte Position unter Ausschluss aller weiterer Personen zu nutzen. So kann der Eigentümer einer Sache nach Belieben mit dieser verfahren und andere von jeder Einwirkung ausschließen, soweit nicht das Gesetz oder die Rechte Dritter verletzt werden.

  36. Nach Locke legitimiert der Einsatz (kreativer) Arbeit die Begründung einer besonderen Rechtsposition. Locke schreibt: »Die Arbeit seines Körpers und das Werk seiner Hände sind, so können wir sagen, im eigentlichen Sinne sein Eigentum. Was immer er also dem Zustand entrückt, den die Natur vorgesehen und in dem sie es belassen hat, hat er mit seiner Arbeit gemischt und ihm etwas Eigenes hinzugefügt. Er hat es somit zu seinem Eigentum gemacht.« John Locke, Zwei Abhandlungen über die Regierung, übers. von Hans Jörn Hoffmann, hrsg. von Walter Euchner, 2. Buch, Kapitel 5, §27, Frankfurt a. M. 61995. [Originaltitel: Two Treatises of Government, 1689.]

  37. Die Studie des Weltwirtschaftsforums ist abrufbar unter: http://reports.weforum.org/global-competitiveness-report-2018/.

  38. Franz Kafka, Der Prozess, Köln 2006 [1925], S. 7.

  39. Vgl. Bernhard Frevel, Sicherheit. Ein (un)stillbares Grundbedürfnis, Wiesbaden 22016, S. 35.

  40. Vgl. Zygmunt Bauman / David Lyon, Daten, Drohnen, Disziplin. Ein Gespräch über flüchtige Überwachung, übers. von Frank Jakubzik, Berlin 2013, S. 2223.

  41. Vgl. Katrin Elger [u. a.], »Objekt fremder Mächte«, in: Der Spiegel 36 (2018) S. 4243.

  42. Kafka (s. Anm. 1), S. 107.

  43. Zum Aspekt der Menschenwürde siehe auch Kap. 2.1.

  44. Siehe ausführlich hierzu Kap. 2.3.

  45. Sophokles, Antigone, Stuttgart 2016, S. 39, V. 872875.

  46. George Orwell, Nineteen Eighty-Four, London [u. a.] 2008 [1949], S. 56.

  47. Vgl. für das Beispiel zu Dennetts und Roys Theorie: Daniel C. Dennett / Deb Roy, »Wie digitale Transparenz die Welt verändert«, in: Unsere digitale Zukunft. In welcher Welt wollen wir leben?, hrsg. von Carsten Könneker, Berlin 2017, S. 161172.

  48. Orwell (s. Anm. 9), S. 192.

  49. Vgl. zu den Angaben im Kasten: Stuart Dredge, »Mobile Phone Addiction? It’s Time to Take Back Control«, in: The Guardian Online, 2712018 (www.theguardian.com/technology/2018/jan/27/mobile-phone-addiction-apps-break-the-habit-take-back-control).

  50. Rümelin/Weidenfeld (s. Anm. 9, Kap. 1), S. 45.

  51. Vgl. für das folgende Beispiel über die »Snapchat-Dysmorphie«: Sam Wolfson, »Snapchat Photo Filters Linked to Rise in Cosmetic Surgery Requests«, in: The Guardian Online, 982018 (www.theguardian.com/technology/2018/aug/08/snapchat-surgery-doctors-report-rise-in-patient-requests-to-look-filtered).

  52. Beate Rössler (s. Anm. 4, Kap. 2), S. 393.

  53. Quelle des Beispiels: Sry bsy, Regie und Drehbuch: Verena Westphal, Deutschland 2015 (www.youtube.com/watch?v=ahBp-ynQVwM).

  54. Malte Hossenfelder, Antike Glückslehren. Quellen zur hellenistischen Ethik in deutscher Übersetzung, 2., aktual. und erg. Aufl., Stuttgart 2013, S. XXVI.

  55. Nach dem Fähigkeitenansatz sollten die politischen und wirtschaftlichen Verhältnisse derart gestaltet werden, dass sie Menschen zu einem guten und würdevollen Leben befähigen, auf das diese einen Anspruch haben.

  56. Das Zitat stammt von einem Schild in Albert Einsteins Büro an der Universität Princeton, auf dem steht: »Not everything that counts can be counted, and not everything that can be counted counts.« Der Ursprung dieser Aussage wird Albert Einstein zugesprochen. Vgl. Nils Pleier, Performance-Measurement-Systeme und der Faktor Mensch, Wiesbaden 2008, S. 1.

  57. Steffen Mau, Das metrische Wir: Über die Quantifizierung des Sozialen, Berlin 2017, S. 49.

  58. Vgl. Anna Shcherbina [u. a.], »Accuracy in Wrist-Worn, Sensor-Based Measurements of Heart Rate and Energy Expenditure in a Diverse Cohort«, in: Journal of Personalized Medicine 7 (2017) Nr. 2, S. 3, DOI:10.3390/jpm7020003.

  59. Vgl. Royal Society for Public Health, »#StatusOfMind. Social Media and Young People’s Mental Health and Wellbeing«, 2017 (www.rsph.org.uk/uploads/assets/uploaded/d125b27c-0b62-41c5-a2c0155a8887cd01.pdf).

  60. Andreas Reckwitz, Die Gesellschaft der Singularitäten, Berlin 2017, S. 7.

  61. Vgl. Verbraucherzentrale NRW, »Unsportlich: Datenschutz-Mängel bei Wearables und Fitness-Apps«, 2017 (www.verbraucherzentrale.de/aktuelle-meldungen/digitale-welt/unsportlich-datenschutzmaengel-bei-wearables-und-fitnessapps-13659).

  62. Vgl. zum Vitality-Programm von Generali: www.generalivitalityerleben.de.

  63. »The Real Story of ›Fake News‹«, in: Merriam-Webster (www.merriam-webster.com/words-at-play/the-real-story-of-fake-news).

  64. »Fake News, Fake-News, Fakenews«, in: Duden. Die deutsche Rechtschreibung. Berlin 272017, S. 428. [Hervorhebung durch Verfasser.]

  65. Fake News werden auch aus rein kommerziellen Gründen verfasst; hier soll aber lediglich ein Fokus auf die politischen Zusammenhänge gelegt werden.

  66. Vgl. zum »Fall Lisa«: »Lawrow wirft deutscher Polizei Vertuschung vor«, in: Zeit Online, 2612016 (www.zeit.de/gesellschaft/zeitgeschehen/2016-01/sergej-lawrow-vorwurf-polizei-berlin-vertuschung-verschwinden-maedchen).

  67. Ursula von der Leyen, »Offene Gesellschaft«, in: Der Spiegel 5 (2017).

  68. Patrick Beuth [u. a.], »Krieg ohne Blut. Fake-News als Gefahr für die Gesellschaft«, in: Die Zeit 9 (2017).

  69. Siehe hierzu die Übersicht in: Jan-Hinrik Schmidt [u. a.], Zur Relevanz von Online-Intermediären für die Meinungsbildung, Hamburg 2017, S. 27.

  70. Bundesministerium für Justiz und Verbraucherschutz, »Grundgesetz für die Bundesrepublik Deutschland, Art 5« (www.gesetze-im-internet.de/gg/art_5.html).

  71. Carolin Gasteiger, »Eine Welt, in der alle nur noch meinen wollen«, in: SZ.de, 1612018 (www.sueddeutsche.de/kultur/unwort-des-jahres-alternative-fakten-kuendigt-den-gesellschaftsvertrag-1.3827379).

    Unter einem Gesellschaftsvertrag versteht man die freiwillige, vernunftgeleitete Vereinbarung über eine allgemein anerkannte gesellschaftliche oder staatliche Ordnung. Die grundlegende Idee ist, dass durch einen solchen ›Vertrag‹ der Wille des Einzelnen dem Willen der Allgemeinheit untergeordnet bzw. mit ihm in Einklang gebracht wird und so »eine wechselseitige Verbindlichkeit entsteht, die als Grundlage einer Herrschaftsordnung« dient. Siehe hierzu: Metzler Lexikon Philosophie, »Gesellschaftsvertrag«, in: Spektrum.de (www.spektrum.de/lexikon/philosophie/gesellschaftsvertrag/801).

  72. Vgl. Jennifer Eickelmann, »Hate Speech« und Verletzbarkeit im Digitalen Zeitalter. Phänomene mediatisierter Missachtung aus Perspektive der Gender Media Studies, Bielefeld 2017, S. 229268.

  73. Eickelmann (s. Anm. 1), S. 163166.

  74. Siehe dafür beispielhaft den Tweet des AfD-Politikers Malte Kaufmann: https://twitter.com/hashtag/Messermigration?src=hash&lang=de.

  75. Eickelmann (s. Anm. 1), S. 172175.

  76. Vgl Oliver Noffke, »In 64 Zeichen zur meistgehassten Frau des Internets«, in: Stern Online, 21122013 (www.stern.de/digital/online/rassistischer-tweet-in-64-zeichen-zur-meistgehassten-frau-des-internets-3642070.html).

  77. Erich Kästner, Das fliegende Klassenzimmer, Hamburg 1501993, S. 95.

  78. Die Bezeichnung »Videospiel« wird hier dem Ausdruck »Computerspiel« vorgezogen, weil auf alle elektronisch-visuell-basierten Spiele für den PC, das mobile Endgerät und die Spielekonsolen Bezug genommen wird. Auch wenn es sich bei den meisten Videospielen per definitionem um Computerspiele handelt (da sie eine Recheneinheit, sprich einen Computer voraussetzen), soll hier nicht der Gedanke aufkommen, es könne sich ausschließlich um PC-Spiele handeln.

  79. Die Bezeichnung geht auf das 1999 veröffentlichte Videospiel »Unreal Tournament« zurück, in dem sie erfolgte, sobald es einem Spieler gelang, zehn seiner Kontrahenten nacheinander zu töten. Rampage lässt sich auf Deutsch unter anderem mit ›Amoklauf‹ übersetzen.

  80. Vgl. Melanie Verhovnik, »Alles nur ein Spiel? Gewalt in Computer- und Videospielen und ihre Wirkung«, in: Communicatio Socialis 47 (2014) S. 302–319.

  81. Während eine »Rampage« nach zehn Abschüssen der Gegner ertönt, erfolgt der Ausruf »Wicked Sick« bei 30 konsekutiven Tötungen. Er kann mit ›krankhaft böse‹ übersetzt werden und soll – ironisch – die unvorstellbare Soziopathie des Spielers gegenüber anderen Spielern ausdrücken. Wenngleich dies makaber klingt, ist »Wicked Sick« die höchste Auszeichnung, die ein Spieler für seine Leistung erhalten kann.

  82. Das folgende Beispiel ist zitiert nach: Petra Grimm / Clarissa Henning / Oliver Zöllner, »Evaluationsanalyse bezüglich Werbeerkennung und Werbekompetenz«, in: Mit Kindern unterwegs im Internet, hrsg. von der Landeszentrale für Medien und Kommunikation Rheinland-Pfalz, Baden-Baden 2014, S. 114181, hier S. 173.

  83. Von engl./frz. Rage ›Wut‹ und engl. to quit ›verlassen‹.

  84. Zudem bieten viele Videospiele Tutorials an, um Einsteiger mit den Funktionen ihrer Spielwelt vertraut zu machen. Typischerweise fungiert das erste Level eines Videospiels als eine Art Gebrauchsanleitung und wird oftmals auch narrativ eingebunden, sodass sich die Lehreinheit als Teil des eigentlichen Spiels anfühlt.

  85. Quelle zum Interview mit Angela Schwarz: Bundeszentrale für politische Bildung, »Computerspiele im Geschichtsunterricht. Das Werkstattgespräch mit Angela Schwarz, 27102015« (www.bpb.de/lernen/digitale-bildung/werkstatt/214025/computerspiele-im-geschichtsunterricht).

  86. Ein besonders hoher Schwierigkeitsgrad bei solchen Spielen besteht im sogenannten Spielmodus »Hardcore« (engl. ›harter Kern‹), bei dem der Spieler nur einen einzigen Spielversuch hat: Stirbt die Spielfigur ist das Spiel beendet und kann nicht an einem zuvor gespeicherten Punkt wiederaufgenommen werden.

  87. Modifizierte Definition auf Grundlage von The European Commission’s High-Level Expert Group on Artificial Intelligence, »A Definition of AI: Main Capabilities and Scientific Disciplines«, Brüssel 2019, S. 6.

  88. Vgl. zum Telefonat mit Google Duplex: Jeffrey Grubb, »Google Duplex: A.I. Assistant Calls Local Businesses To Make Appointments«, 852018 (www.youtube.com/watch?v=D5VN56jQMWM).

  89. Humberto Maturana, Was ist erkennen? Mit dem Kolloquium ›Systemtheorie und Zukunft‹, übers. von Hans Günter Holl, München/Zürich 1994, S. 208.

  90. Vgl. John Searle, »Minds, Brains and Programs«, in: The Behavioral and Brain Sciences 3 (1980) S. 417457. Auch nachzulesen in: Georg W. Bertram (Hrsg.), Philosophische Gedankenexperimente. Ein Lese- und Studienbuch, Stuttgart ziffer> 2018, S. 99.

  91. Beate Rössler, »Autonomie«, in: Handbuch Angewandte Ethik, hrsg. von Ralf Stoecker [u. a.], Stuttgart/Weimar 2011, S. 93.

  92. Vgl. Klaus Wiegerling, Philosophie intelligenter Welten, Paderborn 2011, S. 3738.

  93. Vgl. Oliver Bendel, »Das LADYBIRD-Projekt«, in: Handbuch Maschinenethik, hrsg. von O. B. Wiesbaden 2019.

  94. Eigene Auswahl der Kriterien in Anlehnung an: European Group on Ethics in Science and New Technologies, »Statement on Artificial Intelligence, Robotics and ›Autonomous‹ Systems, Luxemburg 2018 (http://ec.europa.eu/research/ege/pdf/ege_ai_statement_2018.pdf) und Luciano Floridi [u. a.], »An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations«, in: Minds and Machines 4 (2018) H. 28, S. 689707.

  95. Vgl. Catrin Misselhorn, Grundfragen der Maschinenethik, 3., durchges. Aufl., Stuttgart 2018, S. 70 ff.

  96. Vgl. hierzu Isaac Asimov, Geliebter Roboter. Erzählungen, München 2016 [1984], übers. von Walter Brumm, S. 7, und Marc Jannes / Christiane Woopen (Hrsg.), Roboter in der Gesellschaft. Technische Möglichkeiten und menschliche Verantwortung, Berlin 2019.

  97. Vgl. Misselhorn (s. Anm. 1), S. 134.

  98. Ein Exoskelett kann vom Menschen wie eine Art Orthese an einzelnen Körperteilen getragen werden. Es stützt und erleichtert schwere Bewegungen, beispielsweise kann die Hebebewegung eines Paketlieferanten vom Exoskelett (das die Rückenpartie des Lieferanten umschließt) maschinell übernommen werden. So wird das zusätzliche Gewicht des Pakets vom Exoskelett getragen, der Lieferant führt nur die Bewegung aus.

  99. Quelle des Beispiels: Stop Autonomous Weapons, Slaughterbots, 12112017 (www.youtube.com/watch?v=9CO6M2HsoIA).

  100. Misselhorn (s. Anm. 1), S. 157 ff.

  101. Vgl. zum oben stehenden Beispiel des von Androiden und Humanoiden geführten Hotels: »Japanisches Hotel setzt auf Roboter«, in: F.A.Z.net (www.faz.net/aktuell/gesellschaft/kuenstliche-hotelangestellte-japanisches-hotel-setzt-auf-roboter-13706165.html).

  102. Immanuel Kant, Immanuel Kant’s Werke, Bd. 10: Schriften zur Anthropologie und Pädagogik, Leipzig 1839, S. 115.

  103. Zitiert nach: Jeremy Rifkin, Das Ende der Arbeit und ihre Zukunft, übers. von Thomas Steiner, Frankfurt a. M. / New York 21996, S. 166. Green war Gewerkschaftsführer der American Federation of Labor (AFL) von 1924 bis zu seinem Tod 1952.

  104. Carl Benedikt Frey / Michael A. Osborne, The Future of Employment: How Susceptible are Jobs to Computerisation?, Oxford 2013 (www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_ of_Employment.pdf).

  105. Holger Bonin / Terry Gregory / Ulrich Zierahn, »Übertragung der Studie von Frey/Osborne (2013) auf Deutschland«, Mannheim 2015, S. i (ftp://ftp.zew.de/pub/zew-docs/gutachten/Kurzexpertise_BMAS_ZEW2015.pdf). Das ZEW ist das Leibniz-Zentrum für Europäische Wirtschaftsforschung.

  106. Bundesministerium für Arbeit und Soziales (Hrsg.), »Weissbuch Arbeiten 4.0. Arbeit weiterdenken«, Berlin 2017, S. 32 (www.bmas.de/SharedDocs/Downloads/DE/PDF-Publikationen/a883-weissbuch.pdf?__blob=publicationFile&v=4).

  107. Vgl. Sabine Pfeiffer, Auswirkungen von Industrie 4.0 auf Aus- und Weiterbildung, hrsg. vom Institut für Technikfolgen-Abschätzung, Wien 2015 (http://epub.oeaw.ac.at/ita/ita-manuscript/ita_15_03.Pdf).

  108. Das Medianeinkommen stellt den Wert dar, von dem aus die Menge an Berufstätigen eines Landes, die mehr als diesen Wert verdient, genauso groß ist wie die Menge, die weniger einnimmt.

  109. Vgl. Erik Brynjolfsson / Andrew McAfee, The Second Machine Age. Wie die nächste digitale Revolution unser aller Leben verändern wird, übers. von Petra Pyka, Kulmbach [2018], S. 154 ff., hier S. 160 f.

  110. Vgl. dazu Brynjolfsson/McAfee (s. Anm. 7), S. 227 f.

  111. S. Anm. 4, Kap. 11.

  112. Quelle des Beispiels: automatica, »automatica 2018: Der Mensch in der intelligenten Fabrik«, auf: YouTube, 2062018 (www.youtube.com/watch?v=qu7llhDcFZw).

  113. Voltaire, Candid oder Die Beste der Welten, Stuttgart 1971, S. 104.

  114. Immanuel Kant, Eine Vorlesung Kants über Ethik, hrsg. von Paul Menzer, Berlin 1924, S. 201.

  115. Vgl. Paul Lafargue, Das Recht auf Faulheit, übers. von Ute Kruse-Ebeling, Stuttgart 2018 [1880].

  116. Vgl. Brynjolfsson/McAfee (s. Anm. 7), S. 165.

  117. Vgl. Hans Jonas, Das Prinzip Verantwortung, Frankfurt a. M. 2015 [1979], S. 58.

  118. Eric Hilgendorf, »Können Roboter schuldhaft handeln? Zur Übertragbarkeit unseres normativen Grundvokabulars auf Maschinen«, in: Jenseits von Mensch und Maschine. Ethische und rechtliche Fragen zum Umgang mit Robotern, Künstlicher Intelligenz und Cyborgs, hrsg. von Susanne Beck, Baden-Baden 2012, S. 119132, hier S. 128.

  119. Vgl. zu diesen Überlegungen Misselhorn (s. Anm. 1, Kap. 11) S. 196–198.

  120. Vgl. Marc-Uwe Kling, QualityLand, Berlin 2017, S. 327336.

  121. Vgl. Timothy Garton Ash, Redefreiheit. Prinzipien für eine vernetzte Welt, übers. von Helmut Dierlamm und Thomas Pfeiffer, München 2016, S. 316 ff.

  122. Vgl. Jannis Brühl, »Darf Google beim Töten helfen?«, in: Süddeutsche Zeitung 74 (2018) Nr. 124, S. 25.

1. Digitale Ethik: Positionsbestimmung und Perspektiven

1.1 Was ist Ethik? Und was ist eine Digitale Ethik?

Der Begriff Ethik kann befremden, klingt er doch vielen nach »moralischer Überlegenheit« oder Besserwisserei – oder sogar nach Bevormundung: Da ist anscheinend jemand, der vorgibt, den richtigen Weg zu kennen, und der andere über diesen einzigen richtigen Weg belehren will. Diese Vorbehalte sind verständlich, aber letztlich unbegründet, wie in diesem Band gezeigt werden soll: Ethik ist wichtig, organisiert unser Leben, gibt Hilfestellung und Orientierung – und das gilt für jeden von uns.

Ethik ist ein Teilgebiet der Moralphilosophie. Ethik und Moral sind dabei nicht dasselbe. Der Begriff Ethik stammt vom griechischen Wort ethos (›Sitte, Gewohnheit, Charakter‹) ab. Ethos beschreibt die sittliche Gesinnung einer Person oder einer Gruppe. Ethik ist demgegenüber der Ausdruck für eine wissenschaftliche Disziplin, oder anders ausgedrückt: für eine Reflexionstheorie der Moral.

Was bedeutet das? Ethik reflektiert über die in einer (digitalen) Gesellschaft geltenden Wertmaßstäbe und Überzeugungen (in diesem Sinne hat sie also eine beschreibende, deskriptive Funktion). Sie muss gute Argumente dafür vorbringen, warum bestimmte Werte und Normen gelten sollen, und formuliert konsensfähige Kriterien sowie ethische Standards, die Handlungsorientierung bieten (in diesem Sinne hat sie eine Regeln vorgebende, also eine normative Funktion).

Anders ausgedrückt begründet Ethik die Antworten auf die Frage »Was soll ich tun?« und kann daher auch als »Theorie des richtigen Handelns« bezeichnet werden. Ethik bezieht sich somit auf das Bewusstsein bzw. die Grundhaltung, die ein Mensch oder ein Kollektiv gegenüber einem bestimmten Sachverhalt hat: Indem man eine Position etwa zu einer problematischen Handlung oder einem fragwürdigen Phänomen einnimmt, beginnt man, sich mit dieser Position auseinanderzusetzen – und eine Lösung für das Problem zu suchen. Man findet vielleicht nicht immer sofort eine perfekte Lösung, doch stößt man bei seiner Suche mindestens schon einmal auf Werthaltungen, die im Konflikt miteinander stehen und die durch diese Spannung den eigentlichen Kern des Problems offenlegen und verstehbar machen. Dies könnte dann der erste Ansatz zur Lösung des Konflikts werden.

Im Lateinischen hat das Wort mos (Plural: mores) eine ähnliche Bedeutung wie ethos und verweist auf verbindliche Verhaltensregeln oder gar Verhaltenskodizes, also Regelwerke. Wir verstehen Moral heute oft als eine Botschaft oder Lektion, die man zu lernen hat. Im Kern stimmt dies insofern, als Moral die gültigen Normen einer Gesellschaft beschreibt, der die Menschen folgen – oder der sie vielleicht auch nicht folgen.

Und genau hier fängt das Problem an: Wer bestimmt diese Regeln überhaupt, wer schreibt sie vor? Die Antwort gibt der grundlegende Ansatz der Ethik: Wir als Menschen handeln diese Normen, die mores, miteinander aus. Wir verstehen sie nicht als gesetzt und für immer fixiert, sondern wir suchen nach den optimalen Wegen, mit auftretenden Problemen, Konflikten und Zweifelsfällen angemessen umzugehen und Lösungen für diese Konflikte und Zweifelsfälle zu finden. Dafür müssen wir aber eine eigene, begründete Haltung den Sachverhalten und Handlungen gegenüber entwickeln. Wir müssen wissen, »was Sache ist«, wir müssen ein Gespür dafür entwickeln, was überhaupt das Problem ist, wessen berechtigte Interessen berührt werden, welche Konflikte sich aus dem Aufeinandertreffen mehrerer Positionen, Handlungen und Handlungsträger ergeben. Dies ist nicht immer eindeutig zu klären – oft überlappen sich beispielsweise die berechtigten, aber nicht miteinander zu vereinbarenden Interessen mehrerer Akteure.

Dieser Ansatz von Ethik ist nicht präskriptiv, er schreibt uns also nicht von vornherein vor, was wir tun sollen. Ethik in diesem Sinne ist vielmehr diskursiv, ist ein Gespräch: Sie lädt uns ein, darüber nachzudenken, was für Menschen wir sein wollen. Tatsächlich ist dies eine der großen Herausforderungen für uns Menschen: in Freiheit zu entscheiden, wie wir sein wollen und wie wir angemessen handeln können. Wir können in unserem Leben lernen, die richtigen Dinge zu tun. Wir müssen jedoch auch lernen, mit den Folgen umzugehen, wenn wir uns falsch entscheiden (was man leider meist erst im Nachhinein bemerkt).

Ethik umfasst somit auch eine Praxis: Anschlusshandlungen in der realen Welt, die im besten Fall zu einer Verbesserung der Situation führen. Das heißt: Wir müssen uns entscheiden, uns so oder anders einem Sachverhalt gegenüber zu verhalten. Das schließt durchaus ein, einander gegenläufige, jedoch gerechtfertigte bzw. legitime Haltungen oder Interessen im Sinne eines »vernünftigen Pluralismus« anzuerkennen, wie es der amerikanische Philosoph und Gerechtigkeitstheoretiker John Rawls formuliert hat. Auch wenn wir nicht vorschreibend bzw. präskriptiv agieren, also Vorschriften setzen wollen: Wir haben es am Ende stets mit Normen zu tun, mit denen wir uns differenziert auseinandersetzen müssen.

Und genau an dieser Stelle setzt die Digitale Ethik an. Sie sucht nach solchen angemessenen und legitimen Haltungen und Handlungsweisen für zunehmend digitalisierte Lebensumwelten und allgemein für das Leben in der Digitalität. Computer, ihre Softwares und deren Algorithmen, der Einsatz von Robotern, das Sammeln und Auswerten von persönlichen Daten, die Vernetzung zu fast jeder Tageszeit: All diese Innovationen erfordern das (neue) Aushandeln von Regeln und Normen, für die es vor kurzem noch keine Notwendigkeit gab. Nur ein Beispiel: Seit der Markteinführung des Smartphones (2007) trägt fast jeder einen solchen internetfähigen Kleincomputer mit sich herum, mit dem man auch jederzeit und (fast) überall telefonieren kann. Hier fangen Konflikte oft schon im Kleinen an und berühren dennoch Probleme in der Gesellschaft insgesamt: Wie das folgende Beispiel zeigt, geht es um die Frage, wie wir zusammenleben wollen.1

 

Im September 2018 wurde der siebenjährige Emil aus Hamburg deutschlandweit bekannt. Gemeinsam mit anderen Kindern organisierte er eine Demonstration, um gegen den übermäßigen Gebrauch von Smartphones durch seine Eltern zu protestieren: »Spielt mit MIR! Nicht mit Euren Handys«, war auf den Pappschildern zu lesen, die Kinder auf der Demo hochhielten. Emils Vater Martin (37) hatte seinen Sohn bei der Organisation unterstützt, war aber wohl auch ein wenig peinlich berührt. Immerhin war er der Auslöser für den Unmut seines Sohnes: Zu oft wollte Emil mit seinem Papa spielen, »der hat aber nur auf sein Handy geguckt«. Tatsächlich scheint es für die Entwicklung von Kindern nicht gut zu sein, wenn Eltern ständig auf ihre digitalen Geräte konzentriert sind und so den Augenkontakt mit ihren Kindern meiden bzw. ständig abgelenkt sind und ihren Kindern weniger Aufmerksamkeit widmen als ihrem Smartphone. Emils Vater Martin muss sich also ethisch gesehen fragen: Was für ein Mensch will ich als Vater sein?

1.2 Was kann eine Digitale Ethik leisten?

Eine Digitale Ethik hat zum Ziel, dem Menschen dabei zu helfen, in der sich weiter modernisierenden Gesellschaft mit ihren vielfältigen digitalen Geräten und Anwendungen einen angemessenen Umgang mit diesen Technologien und ihren Auswirkungen zu finden. Menschen sollen dazu befähigt werden, Probleme der Digitalität zu erkennen und Lösungen zu entwickeln bzw. vorwegzunehmen – oder auch einfach die Dilemmata bzw. Unauflösbarkeit von Widersprüchen zu erkennen, die manche Handlungen mit sich bringen können. Wie im obigen Beispiel von Emil und seiner Kinderdemo: Kinder haben sowohl das Recht auf eigenes Spielen als auch auf Aufmerksamkeit und Zuwendung von ihren Eltern. Doch Eltern haben auch das Recht auf Information, Erholung und Rückzugräume – und vielleicht ›erkaufen‹ sie sich ja die Zeit für den Besuch auf einem Spielplatz mit der dortigen Erledigung von beruflichen E-Mails auf ihrem Smartphone. Das moderne Leben in der Digitalität bietet nämlich neue Möglichkeiten und provoziert dadurch neue Dilemmata; Spielplatzbesuche oder das Familienleben waren früher sicher anders. Im analogen Zeitalter waren Eltern vielleicht durch andere Dinge abgelenkt oder durch starrere Arbeitszeitregelungen gar nicht so oft für ihre Kinder präsent.

Hier wie auch in anderen Lebensbereichen gilt es also, alle Faktoren gegeneinander abzuwägen. Als Eltern müssen wir als Erziehende (und auch darüber hinaus) lernen, unseren Kindern gegenüber eine Haltung einzunehmen, die ihnen gerecht wird – und müssen gleichzeitig lernen, digitale Anwendungen dabei angemessen zu integrieren. Ebenso wenig wie unsere Kinder, die ja immer unabhängig davon, wie alt sie sind, unsere Kinder bleiben, wird die Digitalität einfach so verschwinden. Wir müssen also lernen, mit den Herausforderungen der digitalen Welt zu leben – wir haben sie erschaffen. Doch wir müssen sie sinnvoll kontrollieren, sie, wo immer dies nötig sein sollte, auch eingrenzen. Nicht alles, was technisch möglich und faszinierend ist, ist automatisch ein Fortschritt.

Als Erweiterung der Ethik analysiert die Digitale Ethik also, welche legitimen Handlungsoptionen sich aus der Entwicklung, dem Einsatz und der Anwendung digitaler Technologien ergeben. Sie kann hierzu auf das bereits zur Verfügung stehende analytische Instrumentarium der Ethik zurückgreifen. Sie will damit jedoch auf keinen Fall die bestehenden Verhältnisse bloß bestätigen, sondern will dort, wo es sinnvoll und möglich ist, ihre theoretisch-analytischen Erwägungen in die Praxis überführen. Die Digitale Ethik hat zum Ziel, den Menschen zu einem reflexionsfähigen Gestalter seiner Welt zu befähigen, der begründbare Haltungen entwickelt und sich auf dieser Basis verantwortlich in der Digitalität verhält. Die Grundfrage der Digitalen Ethik lautet also: Welche ethischen Positionen kommen hierbei – und gerade auch mit Blick auf ihre praktische Anwendbarkeit im Alltag – zum Tragen?

Die Digitale Ethik blickt zum einen auf die Verwendungszusammenhänge von digitalen Technologien. Was ist der ursprünglich ins Auge gefasste Zweck dieser Anwendungen? Und was sind ihre Folgen? Letztere sind oftmals ganz andere als zunächst gedacht. In einer solchen auf das Ziel ausgerichteten, teleologischen Perspektive (griech. telos, ›Ziel, Zweck‹) analysiert die Digitale Ethik also die Kosten-Nutzen-Relation von digitalen Technologien, und zwar immer in Bezug auf das Individuum und die Gesellschaft insgesamt.

Dies ist wichtig z. B. für Folgenabschätzungen einer digitalen Innovation (man würde philosophisch solch einen Ansatz konsequentialistisch nennen, also von einem Ansatz reden, der auf die Konsequenzen einer Entscheidung schaut), etwa den Einsatz von Pflegerobotern. Was gewinnt man, was verliert man, wenn man Patienten von digital gesteuerten Maschinen pflegen lässt? Und wer gewinnt? Ist es, utilitaristisch (also vom größten Glücksgewinn für die größte Menge Menschen) gedacht, akzeptabel, wenn eine Mehrheit der Menschen zwar von einer Technologie profitiert, eine Minderheit dafür aber im Sinne einer ökonomischen Rationalität in ihren Rechten beschnitten wird? Hier geht es um weit mehr als nur Geld. Speziell der Utilitarismus ist stark mit einer ökonomistischen Sicht auf die Welt verknüpft, derzufolge fast alles als rationales Geschäftsmodell gesehen wird: Anscheinend geht es nur um Leistung für Gegenleistung zum größtmöglichen Nutzen der meisten. Genau aus dieser ethischen Perspektive heraus sind die modernen Wirtschaftswissenschaften entstanden.

Eine deontologische Sichtweise (griech. deon, ›Pflicht‹, hier also etwa: eine Sichtweise, die aus Pflichten oder Gesetzen Aussagen ableitet) betrachtet den intrinsischen, also den verinnerlichten moralischen Status einer Handlung oder einer Anwendung. Ist es etwa richtig, einen bettlägerigen alten oder kranken Menschen ganz oder teilweise von einem Roboter behandeln zu lassen, von einem Roboter, der vielleicht sogar wie ein Mensch aussieht, aber eben keiner ist? Der Pflichtethiker geht davon aus, mit einer solchen Handlung einen höheren Wert zu verletzen, der besagt, dass man Alten und Kranken dieselbe Wertschätzung – und genau deshalb auch dieselbe Qualität der Pflege und Zuwendung – zukommen lassen soll wie etwa Kindern. Wir haben die Pflicht zur Humanität, zur Menschlichkeit, und sollten daher der Verlockung widerstehen, rein aus Kosten- oder Zeitgründen pflegebedürftige Menschen komplett von Robotern versorgen zu lassen. Doch was wäre, wenn es in einem konkreten Fall anders nicht ginge?

Deontologische Analysen verweisen auf das Potenzial der Digitalen Ethik, absolute Werte herauszuarbeiten, zugleich jedoch auch andere Werte gegen jene Werte abzuwägen, die mit dem Fall verbunden sind – Pflichten und Rechte von Menschen stehen ja in einem Wechselverhältnis. Manchmal mag die Pflege durch einen Roboter besser sein als gar keine. Die Deontologie zwingt uns dazu, zu nuancieren, und oft auch dazu, Dilemmata auszuhalten. Sie kann aber auch sehr rigide sein in der Durchsetzung bestimmter Maximen (Leitpflichten) der Lebensführung: Immanuel Kant (17241804) lehnte jede Form von Notlüge ab (auch wenn sich dadurch ein Menschenleben retten ließe). Dürfte man also mit Kant heute unter falschem Namen bei Facebook angemeldet sein oder aus legitimen Gründen seine IP-Adresse im Netz verschleiern?

In einer tugendethischen bzw. eudämonistischen Perspektive lädt uns die Digitale Ethik zum Nachdenken und Erproben in Bezug darauf ein, wie wir mit anderen Menschen zusammenleben möchten. Ziel ist das »gute« oder »gelingende Leben«, wie es Aristoteles (384322 v. Chr.) genannt hat. Das altgriechische Wort eudaimonía ließe sich auch in etwa mit ›Glück‹ oder ›Glückseligkeit‹ übersetzen. Hinter diesem Begriff steckt immer die Frage, wie Menschen so handeln können, dass sie zum individuellen, aber eben auch zum kollektiven, gesellschaftlichen Glück beitragen.2 Ein solches Streben nach der »Vortrefflichkeit« (man könnte auch sagen: der Exzellenz) der Lebensweise stellt entsprechend dieser Sichtweise die höchste Tugend dar: Was für ein Mensch will ich sein? Mit Blick auf Pflegeroboter würde eine Digitale Ethik etwa hinterfragen, ob die Auslagerung von menschlicher Zuwendung an Maschinen geeignet zu sein scheint, menschlich zusammenzuleben, oder wie wir uns trotz aller Widrigkeiten und vielleicht guter Gegenargumente mehr anstrengen sollten, die Würde eines pflegebedürftigen Menschen so weit wie es irgend geht zu wahren. Dessen individuelles Glück könnte Ausdruck eines größeren gesellschaftlichen Glücks sein. Dies zu reflektieren, müssen wir in praktischer Vernunft lernen. Was genau Tugenden sind oder was die greifbaren Ergebnisse der Reflexion sind, bleibt in dieser Perspektive notgedrungen oft unklar, wie Kritiker bemängeln.

Infobox: Analytische Betrachtungsebenen der Digitalen Ethik

Indem die Digitale Ethik nun aber aus so unterschiedlichen Perspektiven auf Handlungen und Phänomene (in) der Digitalität blickt, vermag sie eine differenzierte und zugleich ganzheitliche Analyse des Lebens in digitalen Umwelten zu liefern. Dies ist angesichts der zunehmenden Komplexität von digitalen Technologien und ihren Anwendungen dringend geboten. Die (wenn man so will) werkseitigen Standardeinstellungen – die der technischen Hilfsmittel und (metaphorisch ausgedrückt) die unseres eigenen Denkens – sind nicht von Anfang an perfekt oder bräuchten keine Anpassung oder Veränderung; wir müssen sie aber nicht nur updaten, sondern auch weiterentwickeln.