Cover

Ethik Digital

Die Digitalisierung unserer Gesellschaft schreitet voran. Wie können wir uns orientieren und eine eigene Haltung finden? Im Podcast "Ethik Digital" sprechen Rieke C. Harmsen und Christine Ulrich mit Expert*innen aus Wissenschaft, Politik, Bildung, Kultur oder Medien. Ein Podcast für die Digitalisierung und die digitale Welt. Immer am letzten Montag des Monats. Link zum Projekt: https://www.sonntagsblatt.de/ethikdigital

Alle Folgen

  • 28.11.2021
    35 MB
    36:49
    Cover

    Alexander Filipovic über Ethik in den Medien | Podcast Ethik DigitalAlexander Filipović über die Ethik der Plattformen und die Zukunft des Journalismus

    Wie kommt die Ethik in die Medien - und welche Veränderungen erlebt die Medienbranche durch die Technologie? Damit beschäftigt sich der Medienethiker und Sozialethiker Professor Alexander Filipovic. Ein Sonntagsblatt-Podcast von Rieke C. Harmsen und Christine Ulrich. Ethik in Medien Professor Alexander Filipović, geboren 1975, ist Sozialethiker mit dem Schwerpunkt Medienethik, Technikethik (Digitale Ethik), Politische Ethik und Philosophischer Pragmatismus. Er war an der Hochschule für Philosophie in München und ist jetzt an der Universität Wien. Das gesamte Interview gibt es auch als Video und Text: https://www.sonntagsblatt.de/ethikdigital Der Sonntagsblatt-Podcast Ethik Digital: Abonniert den Newsletter "Sonntags" - dort informieren wir über die neuen Beiträge. Rückfragen und Anregungen zum Podcast bitte an Chefredakteurin Rieke C. Harmsen: [email protected] Ausschnitt aus dem Gespräch: Warum sollten wir Medienethik betreiben? Filipović: Menschen haben sich immer schon Gedanken darüber gemacht, was die Veränderung von Gesellschaft, Medien und Technik mit öffentlicher Kommunikation macht oder mit der Art und Weise miteinander zu kommunizieren. Darüber wurde immer schon wertend oder normativ nachgedacht. Also im Zuge der Aufklärung zum Beispiel, aber auch im Zuge der Erfindung der Drucktechnik. Dann spielten die Dynamiken der Entwicklung im Medienbereich eine große Rolle. Die Einführung der elektronischen Medien, die in den 1920er und 1930er-Jahren kamen. Und im späten 19. Jahrhundert die Fotografie. Wir können uns kaum vorstellen, welche Veränderung der Erinnerung und der Kommunikation die Fotografie ermöglicht hat. Marshall McLuhan hat dann die technische Dimension thematisiert und philosophisch-wissenschaftlich eingebracht. Und seitdem Zeitpunkt ging das natürlich immer weiter. Jeder technische Wandel und vor allen Dingen der Wandel hin zum Internet hat dann neue normative Probleme geschaffen, die aber auch normative Probleme der Gesellschaft sind. Sind Journalisten heute noch Gatekeeper für Informationen? Filipović: Erst mal glaube ich, dass das, was Journalistinnen und Journalisten täglich machen, immer noch das Auswählen von Berichtenswertem ist. Sicherlich hat das noch jemand anderes zuvor getwittert oder ein Bild auf Instagram gemacht, das ist auch klar. Die Nachrichten, die heute von Journalistinnen und Journalistenen geschrieben werden, sind auf den Plattformen jetzt neu sortiert durch Algorithmen und es ist KI mit im Spiel sowie unsere Personendaten. Aber letztlich sind es eben auch Journalistinnen und Journalisten, die das machen. Die Funktion des Gatekeepers gibt es immer noch und sie ist immer noch bedeutsam und wichtig. Aber es vervielfältigt sich eben. Heute können auch Influencer entscheiden, was "trending topic" ist. Insofern gibt es eine Vervielfältigung von Gatekeepern. In den guten alten Massenmedien hatten wir Zeit. Das hat sich verändert. Journalisten sind immer noch verantwortlich für Inhalte. Aber jetzt gibt es eben auch algorithmisch kuratierte News-Webseiten, die da mitspielen. Und da ist die Frage nach der Verantwortung ein bisschen komplexer.Folge direkt herunterladen

    ...mehr
  • 24.10.2021
    35 MB
    36:49
    Cover

    Julia Gundlach über Ethik in Algorithmen | Podcast Ethik Digital

    Ethik in Algorithmen Julia Gundlach, wie kamen Sie zum Projekt ‚Ethik der Algorithmen‘ in die Bertelsmann Stiftung? Gundlach: Zu Beginn meines Studiums der Volkswirtschaftslehre war die zentrale Frage, wie es zu der Finanzmarktkrise 2007/2008 kommen konnte und welche Lehren wir daraus ziehen. Durch Arbeitserfahrungen im Bundeswirtschaftsministerium bin ich zu dem Schluss gekommen, dass mich insbesondere die Frage interessiert, wie digitale Technologien unser Leben und unsere Gesellschaft verändern. Bei der Bertelsmann Stiftung und dem Projekt Ethik der Algorithmen arbeite ich zu diesen Fragestellungen seit über einem Jahr. Wie können algorithmische Systeme stärker für das Gemeinwohl genutzt werden? Gundlach: Vor vier Jahren hat das Projekt ‚Ethik der Algorithmen‘ angefangen die Frage zu stellen, wie Risiken für die Gesellschaft minimiert werden können. Doch der Blick auf Risiken allein reicht nicht – wir denken auch darüber nach, wie wir algorithmische Systeme für gemeinwohlorientierte Zwecke einsetzen können. Wir wollen wissen, wie wir mit Hilfe dieser Systeme gesellschaftliche Herausforderungen und Probleme besser lösen können. Die Stiftung hat vor kurzem ein Impulspapier zur algorithmenbasierten Kita-Platzvergabe veröffentlicht. Kann ein Algorithmus die Platzvergabe gerechter regeln? Gundlach: Gemeinwohlorientierte Innovationen sind ein spannendes Thema. Wir wollten ein konkretes Positivbeispiel finden, bei dem ein algorithmisches System für das Gemeinwohl eingesetzt wird. Wir haben uns dann in der Stiftung die Bereiche Bildung und Gesundheit näher angesehen, wo Expert:innen seit vielen Jahren an zentralen gesellschaftlichen Herausforderungen arbeiten. So sind wir auf das Thema der Kitaplatzvergabe gestoßen. Das ZEW – Leibniz-Zentrum für Europäische Wirtschaftsforschung arbeitet seit 2017 an einer algorithmenbasierten Kitaplatzvergabe entwickelt. Eine Software soll dabei helfen, die Platzvergabe effizienter und im besten Falle gerechter zu machen. Dazu muss zunächst ein Kriterienkatalog entwickelt werden - lokal vor Ort und gemeinsam mit den Menschen, die wissen, welche Kriterien bei der Kitaplatzvergabe eine Rolle spielen. Es müssen Werteentscheidungen getroffen werden: Sollten Eltern, die näher dran wohnen, vorzugsweise einen Platz bekommen oder Eltern, die vielleicht besondere Härtefälle darstellen? Die Software kann dann auf Basis des Kriterienkatalogs und der Wünsche von Eltern für jede Kita eine Rangliste erstellen, in welcher Reihenfolge jede Einrichtung am besten die Kinder aufnehmen sollte. Dabei konnte die Kitaleitung aus besonderen Gründen Änderungen an der Einstufung vornehmen. Auf diese Art und Weise kann die Verteilung also durch einen Algorithmus unterstützt werden. Am Ende bekommt jede Familie für ihr Kind genau ein Angebot. Und der Clou ist: Die Eltern wissen, dass es das bestmögliche Angebot ist. Das System wurde in einigen Gemeinden und Städten bereits erprobt, etwa in Kreis Steinfurt in Nordrhein-Westfalen. Und es ist toll zu sehen, dass ein algorithmisches System bei einem konkreten gesellschaftlichen Problem unterstützen kann. Abonniert den Newsletter "Sonntags" - dort informieren wir über die neuen Beiträge. Rückfragen an Chefredakteurin Rieke C. Harmsen: [email protected] direkt herunterladen

    ...mehr
  • 27.09.2021
    45 MB
    47:41
    Cover

    Christian Schicha über Ethik in Bildern und Medien | Podcast Ethik Digital

    Wie bekommen wir die Ethik in die Bilder? Damit beschäftigt sich der Theologe Christian Schicha. Ein Gespräch über digitale Ethik - und wie wir mit Fake-Bildern, Künstlicher Intelligenz und der Flut der Bilder umgehen. Ein Podcast von Rieke C. Harmsen und Christine Ulrich. Ethik in Fotos, Bildern und Medien Welche Bilder über Katastrophen sollten wir in den Medien zeigen? Wie gehen wir mit Fake-Fotos um - und der schieren Masse von Bildern, mit denen wir täglich überflutet werden? Der Theologe Christian Schicha forscht über Bildethik. Bei der Fussball-Europameisterschaft ist ein Spieler plötzlich umgefallen und die Kameras wurden teilweise nicht abgestellt. Wie bewerten Sie so eine Situation - als Zuschauer, aber auch als als Medienethiker?Schicha: Ich bin Fussballfan, Rezipient und Betrachter wie jeder andere auch. Aber ich sehe das natürlich auch aus der normativen Perspektive der Bildethik. Bei den Bildern geht es um die Situation des Spielers als Opfer und die Frage, wie wir damit umgehen. Ich kann mir nicht vorstellen, dass der Fußballspieler großen Wert darauf legt, dass die Bilder weltweit gezeigt werden. Positiv zu bewerten war die Reaktion der Mitspieler, die ihn umstellt haben, um ihn zu schützen. Gleichzeitig vermittelten die Bilder auch, dass die Spieler aufgrund der dramatischen Situation Situation persönlich betroffen waren.Sollten die Kameras also abgeschaltet werden?Schicha: Ich würde in solchen Fällen immer dafür plädieren, die Kamera möglichst schnell wegzuziehen oder nicht draufzuhalten. Also weder die Emotionen der Spieler noch die Emotionen der Fans im Stadion zeigen, die sich zwar im öffentlichen Raum bewegen, aber emotional teilweise auch fix und fertig waren. Natürlich ist Fussball ein öffentliches Ereignis, über das berichtet werden muss. Aber so eine Situation sollte nicht in Bildern festgehalten werden, weil diese Bilder ewig weiter transportiert werden und auch die Angehörigen des Spielers, die Freunde oder die Kinder des ständig damit konfrontiert werden. Daher ist aus meiner Sicht in solchen Fällen Zurückhaltung gefragt.Sie haben gerade ein Buch über Bildethik veröffentlicht. Welches sind Ihre Erkenntnisse?Schicha: Das Buch versteht sich als Einführung ins Thema. Es ging nicht um eine theoretische Abhandlung, sondern darum, das Thema komprimiert und konzentriert zusammen zu fassen. Es handelt sich um ein Grundlagenwerk, dass Interesse am bildethischen Fragen wecken sollte.Sie widmen sich dort auch dem Thema Bildbearbeitung. Was hat das mit Ethik zu tun?Schicha: Bildbearbeitung gibt es schon lange - von Stalins retuschierten Fotos bis zur digitalen Bildbearbeitung heute. Mir geht es um ethische Fragen: Wann sind Bilder moralisch angemessen? Wie gehen wir um mit Bildern von Prominenten? Wie ist das Verhältnis zwischen öffentlicherRelevanz und Persönlichkeitsschutz? Und wer trägt die Verantwortung für die Bilder: Der einzelne Fotograf oder die Redaktion? Sind nicht alle mit verantwortlich, die solche Bilder anschauen? Sollten wir nicht selber wegschalten oder zumindest darauf reagieren, wenn Bilder von Verstorbenen, von Amokläufern, von Opfern gezeigt werden?Im Buch werden prominente Fotografen wie Robert Capa und Helmut Newton vorgestellt. Spielte für diese das Thema Bildethik überhaupt eine Rolle?Schicha: Zunächst verfolgen Fotografinnen und Fotografen ebenso wie entsprechende Zeitungen oder Medien erstmal den durchaus legitimen Anspruch, mit ihrer Arbeit Geld verdienen zu wollen. Das ist vollkommen in Ordnung. Als Medienethiker erhebe ich nicht den Zeigefinger und sage: Das dürft ihr alles nicht, das ist ganz schlimm. Die Kunstfreiheit, die freie Meinungsäußerung und das Zensurverbot haben ihre Berechtigung. Natürlich gibt es Grenzen. So sollte pornografisches Bildmaterial nicht Kindern und Jugendlichen zugänglich sein, und natürlich sind nationalsozialistische Symbole oder Gewaltdarstellungen problematisch. Aber die Kunst darf aus meiner Sicht im Gegensatz zur journalistischen Fotografie oder auch zur Dokumentarfotografie diese Grenzen ausreizen. Denn Kunstfreiheit ist ein extrem wichtiges Gut. Wir brauchen diesen Diskurs in einer öffentlichen, demokratischen Gesellschaft. Wenn Kunst eingeschränkt wird und wenn Künstlerinnen und Künstler verhaftet werden, wenn nicht demonstriert werden darf und wenn nicht protestiert werden darf, dann läuft einiges schief. Also insofern wünsche ich mir da den den Diskurs. Was aber nicht bedeutet, dass alles gezeigt werden darf. Das gesamte Interview kann als Video und Text abgerufen werden: https://www.sonntagsblatt.de/podcast-ethik-digital-christian-schicha p { margin-bottom: 0.25cm; line-height: 115%; background: transparent } Der Sonntagsblatt-Podcast Ethik Digital: Abonniert den Newsletter "Sonntags" - dort informieren wir über die neuen Beiträge. Rückfragen und Anregungen zum Podcast bitte an Chefredakteurin Rieke C. Harmsen: rhar[email protected] direkt herunterladen

    ...mehr
  • 30.08.2021
    38 MB
    39:57
    Cover

    Wolfgang Schröder über Ethik in Smart Cities | Podcast Ethik Digital

    Die Digitalisierung der Städte soll den Menschen helfen": Das meint der Philosoph Schröder. Ein Gespräch über digitale Ethik - und wie wir mit den neuen Smart Cities leben können. Podcast von Rieke C. Harmsen und Christine Ulrich. ETHIK IN SMART CITIES Mit der Digitalisierung verändern sich auch die Städte - hin zu "Smart Cities". Dahinter steckt die Idee, digitale Technologien für urbane Räume nutzbar zu machen und so die ökologischen, wirtschaftlichen, politischen und sozialen Herausforderungen besser zu bewältigen. Welche ethischen Fragen dieses Konzept aufwirft, hat der Ethiker Wolfgang Schröder im Gespräch mit Christine Ulrich und Rieke Harmsen beschrieben. Schröder ist Professor für Philosophie an der Katholisch-Theologischen Fakultät der Universität Würzburg. Herr Schröder, Würzburg hat eine Open-Data-Plattform und einen Green-City-Plan und möchte "Smart City" sein. Ist Würzburg schon eine Smart City, oder was braucht es dafür? Wolfgang Schröder: Würzburg ist, was Digitalisierung angeht, vorne mit dabei, nicht nur in Bayern. Das gilt für die Stadt wie für die Universität. Smart City ist ein auf Künstlicher Intelligenz basiertes Konzept zur Weiterentwicklung der Infrastruktur von Städten, das gerade auch für grüne Ziele - Umweltschutz, Energie sparen, Ressourcen einsparen, Dinge besser vernetzen, um wirtschaftlich effizienter zu arbeiten - sehr vielversprechend ist. Hier sollte man sich aber nicht naiv in die Hände von Großkonzernen begeben, sondern als Städte wissen, was man will, um so in Planungen und Verhandlungen einzusteigen. Wo sehen Sie die ethischen Herausforderungen beim Konzept Smart City? Schröder: Die kritischen Punkte sehe ich beim Datenschutz und in der Frage, inwieweit menschliche Urteilskraft digital ersetzbar statt bloß optimierbar ist. Ich bin weder als Philosoph noch als Theologe davon überzeugt, dass man Menschen wirklich Entscheidungen abnehmen kann. Vielmehr werbe ich dafür, eher von Assistenzsystemen zu sprechen, von Entscheidungshilfen. Wenn es wirklich um Big-Data-Zusammenhänge geht, etwa in datenintensiven medizinisch-diagnostischen Fragen, so sollten wir uns hier von den Maschinen helfen lassen. Aber das, was den Menschen anthropologisch ausmacht und wohl auch unterscheidet von anderen Lebewesen: dass wir den "logos" und eine Urteilskraft und klare Vorstellungen haben, worauf wir uns einlassen wollen - das kann eine Maschine nicht abschätzen, das ist nicht an Maschinen delegierbar. Der Podcast Ethik Digital: Abonniert den Newsletter "Sonntags" - dort informieren wir über die neuen Beiträge. Rückfragen und Anregungen zum Podcast bitte an Chefredakteurin Rieke C. Harmsen: [email protected] direkt herunterladen

    ...mehr
  • 25.07.2021
    46 MB
    32:05
    Cover

    Petra Grimm über digitale Ethik | Podcast Ethik Digital

    Professorin Petra Grimm ist Professorin an der Hochschule der Medien in Stuttgart und leitet das Institut für Digitale Ethik. Im Podcast "Ethik Digital" spricht sie mit Rieke Harmsen und Christine Ulrich über digitale Ethik - und wie diese in Unternehmen und Startups eingebaut werden kann. Den Podcast gibt es auch als Video und als Text auf www.sonntagsblatt.de/ethikdigital Hier ist der Wortlaut zum Podcast. Mit jedem Klick am Smartphone hinterlassen wir Datenspuren, mit denen die Unternehmen dann wirtschaften - aber oft wissen wir viel zu wenig darüber, sagt die Digitalethikerin Petra Grimm. Darüber, wie mehr ethisches Bewusstsein zu Bürgern und Betrieben kommt und warum Privatheit als Wert so wichtig ist, sprach sie im Podcast mit Rieke C. Harmsen und Christine Ulrich. Grimm ist Professorin für Medienforschung und Kommunikationswissenschaften an der Hochschule der Medien in Stuttgart und leitet das Institut für Digitale Ethik. Frau Grimm, Sie sind seit 1998 Professorin und haben den Begriff der Digitalen Ethik mitgeprägt. Im selben Jahr wurde Google gestartet und sammelt seither fleißig Daten. Wie bewegen Sie sich durch die vernetzte Welt? Petra Grimm: Die Perspektive der Ethik umfasst auch die Frage nach der persönlichen Wertehaltung. Ich selbst versuche im Alltag, so gut es eben geht, meine Privatheit zu schützen und den Markt der Möglichkeiten zu nutzen: Welche Dienste bieten mir Alternativen? Welche schützen einigermaßen gut meine Privatsphäre? Oder inwieweit versuchen sie, meine Daten zu sammeln und auszuwerten, um sie womöglich für ein Profiling (Profil-Erstellung) oder Social Scoring (soziales Punktesystem) zu nutzen? Ich persönlich nutze zum Beispiel kaum die Suchmaschine von Google, sondern verwende Startpage, das funktioniert genauso gut. Die Digitalisierung ist sehr schnell, die Ethik denkt gründlich nach - wie soll sie Schritt halten? Grimm: Digitalisierung und Ethik sind wie Hase und Schildkröte. Der Hase ist schnell, aber die Schildkröte - die übrigens für Klugheit und Weisheit steht - ist trotzdem schneller am Ziel. In der Fabel verhöhnt der Hase die Schildkröte, die ihn daraufhin zum Rennen fordert. Der Hase ist so siegesgewiss, dass er zwischendurch ein Nickerchen macht. Die Schildkröte gewinnt, indem sie langsam, aber stetig läuft. Grimm: Nun ja, die Schildkröte ist besonnen und stellt sich den Herausforderungen. In der Digitalen Ethik befassen wir uns auch mit neuen Herausforderungen, die sich durch die neuen Technologien ergeben, wie etwa mit deren sozialen und ethischen Bedeutungen und Auswirkungen. So ist etwa die Folgenabschätzung bei Big Data und Künstlicher Intelligenz viel schwieriger geworden, kausale Zusammenhänge und Verantwortungsstrukturen sind komplexer geworden. Die Ethik muss dieser Entwicklung Rechnung tragen und sich neuen ethischen Aspekten widmen, wie etwa der Frage, ob sich unser Menschenbild verändert, wie eine wertebasierte Gestaltung von Produkten und Dienstleistungen aussieht und vieles mehr. Besteht trotzdem die Gefahr, dass die Ethik das Rennen verliert? Grimm: Ethische Kriterien können in der Praxis schon von Beginn an, also bei der Entwicklung von Geschäftsideen, implementiert werden. Diesen Ansatz nennt man "Ethics by Design". Dabei wird nicht im Nachhinein noch versucht, ethische Aspekte zu berücksichtigen, sondern diese sind bereits in der Ideenentwicklung Bestandteil des Geschäftsmodells. Wichtig ist hierbei, die Perspektiven aller Betroffenen zu berücksichtigen und sich als Unternehmen die richtigen Fragen zu stellen, zum Beispiel: Für welche Werte stehen wir? Welche Konflikte gibt es, wenn die Perspektiven aller Stakeholder berücksichtigt werden? Wie können wir fair, transparent und nachvollziehbar die Dienste gestalten? Wie kommt die Ethik in die Unternehmen ? Sie haben kürzlich "Start-up with Ethics" veröffentlicht, ein Arbeitsbuch für Jungunternehmen. Hemmen ethische Bedenken nicht Innovation und Erfolg? Grimm: In einem Forschungsprojekt für die Bayerische Landeszentrale für neue Medien (BLM) haben wir Start-ups aus der Medienbranche zu Ethics by Design befragt und eine Methode entwickelt, mit der Start-ups selbst diesen Prozess konkret durchführen können. Dazu entstand ein Handbuch, das als praktischer Leitfaden dient. Dass es sich auch im wahrsten Sinne des Wortes lohnt, sich eine ethische Expertise anzueignen, zeigt die Praxis: Ein Beispiel hierfür ist die smarte Spielzeugpuppe "Cayla". Sie hatte im Unterschied zu anderen internetfähigen Puppen keinen Ausschaltknopf und zeigte nicht an, dass sie Gespräche aufnahm, sie war "always on" - sie wurde von der Bundesnetzagentur als Spionage-Tool eingeschätzt, weil sie Gespräche aufzeichnen und an die Hersteller übermitteln konnte. Dabei hätte es in der Entwicklung nur ein paar Cent gekostet, einen Ausschaltknopf einzubauen. Aber so musste die Puppe vom Markt verschwinden, die Eltern wurden sogar aufgefordert, sie zu zerstören. Im Frühjahr wollten deutsche Start-up-Gründer ein Produkt namens "Pinky Gloves" auf den Markt bringen: rosa Plastikhandschuhe für Frauen, die darin Menstruationsartikel entsorgen können. Das Projekt scheiterte in einem Shitstorm. Warum? Grimm: Es ist gescheitert, weil nicht die Perspektive der Betroffenen, als der Verbraucherinnen, ausreichend miteinbezogen und das Produkt an ihren Bedürfnissen vorbei entwickelt wurde. Das ist ein wichtiger ethischer Aspekt: nicht nur die eigene Perspektive im Kopf zu haben, sondern die Interessen, Bedürfnisse und Werte der verschiedenen Stakeholder, also der Beteiligten, miteinzubeziehen. Sich für Ethics by Design zu entscheiden, kann also auch ökonomisch ein Wettbewerbsvorteil sein. Sind die Menschen sensibilisiert für Ethik und bereit, sie zu implementieren? Grimm: Ich bin überzeugt, dass wir eine ethische Trendwende verzeichnen. Schon 2018 sagten bei einer Befragung deutscher Digitalunternehmen mehr als 70 Prozent, dass ihnen ethische Standards wichtig seien. Das Bewusstsein ist dort längst angekommen. Das Problem besteht oft eher in der Umsetzung, aber auch bei den Entscheidungsträgern und komplexen Verantwortungs- und Machtstrukturen. Wichtig ist aber auch, inwieweit die Kunden es schätzen, dass Produkte werteorientiert und nachhaltig sind und das aktiv nachfragen. Wie wichtig ist es mir als Verbraucher, dass meine Privatheit geschützt wird oder dass ich transparent angezeigt bekomme, was im Hintergrund abläuft? Vielen Nutzerinnen und Nutzern ist oft noch nicht klar, was unter der Oberfläche mit ihren Daten passiert. Man hat ein mulmiges Gefühl, aber keine genaueren Informationen. Und im schlimmsten Fall resignieren die Nutzer oder nehmen eine nihilistische Haltung ein, wie unsere aktuelle Studie zu den Werten, Ängsten und Hoffnungen in der digitalen Alltagswelt gezeigt hat. Ist das ein Kennzeichen der digitalen Gesellschaft, dass sie noch relativ unwissend und unentschieden unterwegs ist? Warum verzögert sich hier der ethische "turn", und wie kommt mehr Bewusstsein zu den Bürgern? Grimm: Eine Förderung von Digitalkompetenz ist zwar wichtig, aber noch viel mehr die Schaffung entsprechender Rahmenbedingungen durch eine Regulierung. In Europa sind wir mit der Datenschutzgrundverordnung ja schon ein Stück nach vorne gekommen - übrigens ein Modell, das auch für andere Länder Vorbildfunktion hatte. Wenn es um das Thema Künstliche Intelligenz geht, dann sind wir ebenfalls gefordert. Wie können wir angesichts der Entwicklungen in China und den USA die digitalen Technologien so gestalten, dass sie eine wertebasierte Mensch-Technik-Interaktion ermöglichen und unsere demokratischen Werte widerspiegeln? Wenn uns ein solches Alternativmodell gelänge, könnte das auch ein Wettbewerbsvorteil sein. Welche Rolle spielen die großen Tech-Unternehmen? Grimm: Das Image der großen Tech-Unternehmen leidet zunehmend, im Unterschied zu vor zehn oder 15 Jahren, wo die Euphorie und Erwartungshaltung an die neuen Medien und Dienste groß war. Die Geschäftsmodelle der US-Digitalmonopole wie Alphabet (Google, Youtube), Facebook, Amazon oder Microsoft beruhen auf der wirtschaftlichen Ausbeute der personenbeziehbaren Daten. Diese Tech-Unternehmen verfügen mittlerweile über eine Machtkonzentration, die ohnegleichen in der Geschichte ist. Sie besitzen ein unbeschreiblich großes Wissen über uns und sind meinungsbildungsrelevant; letztlich können sie auch dazu genutzt werden, politische Wahlen zu beeinflussen. Umso wichtiger ist die Förderung von Informations- und Meinungsbildungskompetenz. Grimm: Die aktuelle Pisa-Studie zeigt, wie schwer sich Schüler tun, eine Meinung von Fakten zu unterscheiden und Desinformation zu erkennen. Viel grundsätzlicher geht es auch darum, zu verstehen, warum Meinungsvielfalt und Meinungsfreiheit sowie eine freie Presse wichtig für die Demokratie sind. Wir brauchen mehr Materialien und Angebote in den Schulen, damit Pädagogen dieses Wissen vermitteln können und Schüler sich eine fundierte Haltung aneignen können. Deshalb haben wir vom Institut für Digitale Ethik zusammen mit der EU-Initiative "klicksafe" ein Handbuch zur Meinungsbildung in der digitalen Welt erstellt. Warum ist Privatheit ein so zentraler Wert? Warum beeinträchtigt es meine menschliche Freiheit, wenn meine Daten verfügbar werden? Grimm: Privatheit ist universaler Wert, auch wenn er kulturell variabel gelebt und interpretiert wird. Privatheit bedeutet, kontrollieren zu können, wer die Grenze zu meiner privaten Lebenswelt überschreiten darf und wer nicht. Im informationellen Sinn bedeutet Privatheit, dass ich kontrollieren kann, wer was in welchem Zusammenhang über mich weiß. Letztlich geht es um die Fragen von Autonomie und Freiheit: dass ich selbstbestimmt entscheiden kann, wem ich meine privaten, vielleicht intimen Gedanken zukommen lasse und wem nicht. Privatheit kann auch ein geschützter Raum sein, in dem ich mit anderen kommuniziere und meine privaten Gedanken austausche, oder meine Geheimnisse - etwa mein Tagebuch - für mich behalte. Letztendlich brauche ich Privatheit, um frei entscheiden und handeln zu können. Wer keine Privatheit besitzt, ist dem System ausgeliefert. Denn wer viel über mich weiß, kann mich leichter in seinem Sinne beeinflussen und womöglich manipulieren. Indem wir immer mehr Daten preisgeben, lassen wir uns auch bewerten. Grimm: Wenn Verbraucher heute ein Produkt oder eine Flugreise online bestellen, kann es sein, dass sie unterschiedliche Preise angezeigt bekommen. Dabei handelt es sich um das "dynamic pricing". Je nachdem, wo jemand wohnt und welches Gerät er oder sie benutzt, ob Apple oder Android, kann der Preis anders gestaltet sein. Die Preisgestaltung ist dem Unternehmen überlassen. Problematischer wird es, wenn es sich um die Vergabe von Darlehen und Krediten oder die Prämiengestaltung bei Versicherungen handelt. Gesteigert wird das Ganze dann, wenn Mitarbeitende ihre Fitnessdaten und Daten zu sonstigen Gewohnheiten preisgeben müssen, wie es in einigen Ländern schon stattfindet. Grundsätzlich ist aber die Zusammenführung von unterschiedlichen Datensätzen ein Problem, also zum Beispiel, wenn Finanzdaten, Gesundheitsdaten oder Kontaktdaten zusammen ausgewertet werden können. Bei Bewerbungsgesprächen wird bereits mit digitaler Gesichtserkennung experimentiert. Braucht es mehr Diskussion dazu? Grimm: Gesichtserkennung, also Face Analytics, gewinnt an Bedeutung, gerade bei Einstellungsverfahren. Wer sich heute auf einen Job bewirbt, wird eventuell zuerst mit einer künstlichen Intelligenz konfrontiert. Wie ein Experiment des Bayerischen Rundfunks gezeigt hat, bietet ein Start-up bereits ein KI-System an, mit dem die selbstproduzierten Videos von Bewerbern ausgewertet werden. Die Vermutung, dass die KI objektiver oder neutraler sei als ein Mensch, konnte sich allerdings nicht bestätigen. Ein Test der Software zeigte: Je nach Outfit ändert sich die Bewertung - zum Beispiel schätzt die KI die Bewerberin um zehn Punkte weniger gewissenhaft ein, wenn sie eine Brille trägt. Trägt sie ein Tuch um den Kopf, dann wird sie als offener, gewissenhafter und weniger neurotisch eingeschätzt als im Original. Auch Hintergrund und Beleuchtung können das Ergebnis beeinflussen. Hier stellen sich grundsätzliche Fragen wie etwa: Sollten künstliche Systeme zur Bewertung überhaupt eingesetzt werden? Warum vertrauen wir den Maschinen mehr als der Entscheidung von Menschen? Und: Welches (simple) Menschenbild verbirgt sich hinter den Beurteilungskriterien? Das klingt mehr als unfair. Grimm: In der Tat ist die Frage nach Fairness und Diskriminierung eine zentrale, wenn es um Künstliche Intelligenz geht. Darüber hinaus ist aber auch der Bildungsfaktor relevant. So könnten digitale Technologien auch zur Verfestigung von Chancenungleichheit führen: Diejenigen, die sich mit den Technologien besser auskennen, können sich besser schützen oder sogar das System überlisten, während diejenigen, denen es an Bildung fehlt, dem System ausgeliefert sind. Wer beispielsweise weiß, wie Bewerbungsvideos möglichst vorteilhaft gestaltet werden sollten, wird einen deutlichen Vorteil haben. Was raten Sie Ihren Studierenden? Grimm: Für mich ist der Ansatz der Integrierten Lehre wichtig. Das heißt, unterschiedliche Perspektiven, wie ethische, wirtschaftliche und technische, zusammenzuführen. Wichtig ist es, Studierende für ethische Fragen zu sensibilisieren. Wir diskutieren zum Beispiel, ob Roboter menschlich aussehen sollen oder ob Maschinen moralisch handeln können. In einem Think Tank befassen wir uns auch mit Zukunftsszenarien und der Sinnhaftigkeit von digitalen Technologien für die Menschen. Mein Ansatz ist, Ethik anwendungsnah zu reflektieren, aber auch die richtigen Methoden zu nutzen. Deshalb finde ich den Ansatz der Narrativen Ethik so attraktiv: Filme, Anwendungsfälle, also Geschichten aller Art zu nutzen, um ethische Konflikte herauszuarbeiten. Doch es geht nicht nur um Reflexion und Faktenwissen: Die Studierenden sollen auch eine Haltung entwickeln, also begründen können, warum sie sich so und nicht anders verhalten. Eine Haltung zeigt sich im Handeln, nicht in Worten. Thema Gewalt - Cybermobbing, Hatespeech, Gewaltdarstellungen in Spielen: Wie steht es hier um die Medienkompetenz der Jugendlichen? Grimm: Diese Beispiele für Online-Gewalt sind sehr unterschiedlich gelagert. Ebenso können wir nicht von den Jugendlichen verallgemeinernd sprechen. Beim Thema Cybermobbing sind vor allem Gewaltprävention an Schulen und entsprechende Strukturen besonders wichtig. Auch die Unterstützung durch Peer-to-Peer-Projekte wie etwa das Angebot der Medienscouts von "juuuport" sind hilfreich. Wir haben auch Schulmaterialien in dem Handbuch "Ethik macht klick" erstellt, in dem wir mithilfe der von uns entwickelten "Medienethischen Roadmap" zeigen, wie ein Reflexionsprozess über Cybermobbing möglich ist. In den Blick sollte man auch die Struktur der Sozialen Medien nehmen: Der digitale Kosmos, in den junge Nutzer hineingeboren werden, ist von ökonomischen Prinzipien geprägt. Für Kinder und Jugendliche ist dieser Kosmos, den sie in den Sozialen Medien erleben, selbstverständlich. Diese geben die Struktur vor, wie man kommuniziert und wie man sich präsentieren soll. Dazu gehört auch ein Wettbewerb um Anerkennung. Kinder und Jugendliche werden durch Soziale Medien zu einem ständigen Bewerten und Vergleichen sozialisiert. So werden sie auch dazu veranlasst, ihre persönlichen Informationen und Bilder preiszugeben und damit Einblick in ihre Privatsphäre zu geben. Damit erhöht sich allerdings ihr Verletzungsrisiko, etwa wenn andere sich über sie lustig machen oder sie gar mobben. Eine weitere Herausforderung ist der Zugang zu problematischen Inhalten. Kinder und Jugendlich können im Netz allgemein und nicht nur in Spielen mit unterschiedlichen Inhalten wie Pornografie oder Gewalt konfrontiert werden, ohne sich gut schützen zu können. Was braucht es hier Ihres Erachtens? Grimm: Neben den Maßnahmen zur Gewaltprävention und medienethischen Kompetenzförderung müssen wir auch direkte Kommunikationsfähigkeit fördern. Nicht nur bei Heranwachsenden, auch bei Erwachsenen ist ersichtlich, dass bei Konflikten der mediale und damit distanzierte Kommunikationsweg, etwa via WhatsApp, häufig genutzt wird. Damit sind aber Missverständnisse vorprogrammiert, denn im Unterschied zur direkten Kommunikation kann ich bei der indirekten nicht so gut wahrnehmen, wie mein Gegenüber direkt auf mich reagiert. Wenn ich jemandem face to face gegenüberstehe, bekomme ich mit, was es für Folgen hat, wenn ich einen unbedarften Satz sage: Dann sehe ich gleich beim anderen, dass er dies möglicherweise missverstanden hat und sich verletzt fühlt. Online merke ich das nicht sofort. Missverständnisse sind viel schneller möglich und daraus können sich emotionale Dynamiken entwickeln. Was braucht es noch für Gewaltprävention? Grimm: Hilfreich sind auch Geschichten und der Fokus auf die Bystander, also diejenigen, die Zeugen von Cybermobbing sind. Wir haben hierzu im Forschungsprojekt "Prädisiko", bei dem es um die Prävention durch Kommunikation ging, mitgearbeitet. Eine Erkenntnis war, dass man mit bestimmten Videostorys für das Thema "Cybermobbing" in den Sozialen Medien erfolgreich sensibilisieren, Handlungsalternativen aufzeigen und die Bystander erreichen kann. Denn diese sind die entscheidende "Masse", sie können den Täter isolieren - oder ihn unterstützen, indem sie nichts tun. Man sollte vor allem diejenigen erreichen, die das Ganze mitverfolgen, aber nicht einschreiten und es dadurch geschehen lassen. Ein weiteres Projekt, mit dem wir auch das Thema Cybermobbing adressieren, sind die "Zehn Gebote der Digitalen Ethik". Hier geht es erstmal nur darum, einen Impuls für eine Reflexion über Cybermobbing zu setzen. Man muss also diese kritische Masse dazu bekommen, medienkompetent zu werden, indem die "Zehn Gebote" beherzigt werden. Welche Geschichten werden da erzählt? Grimm: Die "Zehn Gebote der Digitalen Ethik" sind nur ein kleiner Meilenstein. Allerdings haben sie einen großen Effekt erzielt und wurden vielfach von Schulen angefragt. Es handelte sich um ein Projekt mit Masterstudierenden, das nun auch einen Relaunch und Aktualisierung erfahren hat. In diesen zehn Geschichten geht es ist es um vielfältige ethische Themen, etwa um Desinformation. Die Geschichte bezieht sich auf das dritte Gebot: "Glaube nicht alles, was du online siehst, und informiere dich aus verschiedenen Quellen." Es ist ein sehr aktuelles Gebot, wenn man etwa an die Corona-Verschwörungserzählungen denkt. In dieser Geschichte ist Max die Hauptfigur: "Nach seinem Abitur will Max durch Südamerika reisen. Schon mehrere Monate vor Reisestart beginnt er mit der Planung und kommt mit dem Thema Impfungen in Berührung. Das Auswärtige Amt empfiehlt dringend eine Gelbfieberimpfung, da Stechmücken dort tödliche Infektionen übertragen können. Max erinnert sich an ein Youtube-Video, das er vor einigen Tagen gesehen hat. In diesem behauptet ein Arzt, dass bestimmte Impfungen zu gravierenden Nebenwirkungen wie Autismus führen können. Max entscheidet sich deshalb gegen eine Impfung. Schnell verbreitet sich Max' Meinung in seiner Klasse. Daraufhin schickt ihm sein bester Freund mehrere Links zu wissenschaftlichen Studien, die die Behauptung des Arztes als Falschmeldung enttarnen. In Zukunft will sich Max vielseitiger und kritischer informieren." Anhand dieser simplen Geschichte kann man Reflexionsfragen stellen: Warum glaubt Max diesem Youtube-Video? Und warum ist es wichtig, dass man nach Wahrheit sucht? Was würde man tun, wenn man selbst in der Lage wie Max' Freund wäre? Die Geschichten sollen an die eigene Lebenswirklichkeit anschlussfähig sein und somit motivieren, sich überhaupt mit ethischen Fragen zu beschäftigen. Blicken Sie optimistisch oder pessimistisch in die digitale Zukunft? Grimm: Von Natur aus bin ich eher optimistisch und sehe die Dinge nicht in Schwarz-Weiß. Mir erscheint oftmals der goldene Mittelweg als der sinnvollste. Wenn ich mir die Zukunftsszenarien zur Digitalisierung ansehe, kann ich aber wieder nur eine Dichotomie der Narrative erkennen. Wie wir die Welt verstehen, hängt maßgeblich davon ab, welche Erzählungen, also Narrative, wir Phänomenen und Entwicklungen zuschreiben. Narrative beeinflussen unsere Sicht auf die Welt und unser ethisches oder unethisches Verhalten. Die mit der Digitalisierung und KI aktuell verbunden Hoffnungen, Erwartungen und Ängste lassen sich auf zwei Meta-Narrative reduzieren: Ich nenne sie das Heilige-Gral-Narrativ und das Büchse-der-Pandora-Narrativ. Das Heilige-Gral-Narrativ erzählt uns die Geschichte der Digitalisierung als eine, die unsere großen Probleme lösen wird. Sie verspricht neue Wertschöpfungsmodelle. Wenn wir sie nicht schnellstmöglich für Geschäftsmodelle fruchtbar machen, dann werden wir im Wettbewerb mit anderen Ländern, vor allem den USA und China, abgehängt. Die Internetkonzerne versprechen uns, dass Digitalisierung und KI mehr Lebensqualität und Komfort bieten. Einige glauben sogar an eine Superintelligenz, die irgendwann dem Menschen überlegen sein könnte. Und die pessimistische Sicht? Grimm: Das Pandora-Narrativ erzählt uns dagegen die Digitalisierung als Bedrohung. Hier werden Ängste artikuliert, die zum Teil berechtigt, zum Teil unberechtigt sind. So wird ein möglicher Kontrollverlust befürchtet, ebenso der Verlust von Arbeitsplätzen, aber auch die Risiken der Überwachung und Manipulation werden in diesem Narrativ artikuliert. Schließlich wird befürchtet, dass sich das Master-Slave-Modell umkehrt und wir am Ende diejenigen sind, die sich der Maschine anpassen müssen. Wie handeln wir als Bürger verantwortlich? Grimm: Das ist keine leichte Frage. Verantwortung kann ich nur für etwas oder jemanden übernehmen, sofern ich einen Handlungsspielraum habe und für mein Handeln verantwortlich gemacht werden kann. In der digitalisierten Alltagswelt begegnet jede Person in vielfältiger Weise Situationen, in denen es um verantwortungsvolles Handeln geht: wenn wir mit anderen kommunizieren, wenn wir Bilder und Nachrichten teilen oder wenn wir in konfliktreiche Situationen geraten, zum Bespiel Hass, Mobbing oder Desinformation erleben. Wichtig erscheint mir, dass wir Möglichkeiten suchen, die Entwicklung der digitalen Technologien mitzugestalten und dort widerstandsfähig zu sein, wo wir uns unter Druck gesetzt fühlen. Wir sollten auch versuchen, Konflikte möglichst direkt und nicht medial auszutragen sowie bereit zu sein, dem anderen zuzuhören. Statt eines Schlagabtauschs wäre es wichtig, wieder mehr Dialoge zu führen, die auf guten Argumenten und weniger Affekten basieren.Folge direkt herunterladen

    ...mehr
  • 24.06.2021
    43 MB
    29:58
    Cover

    Thomas Zeilinger über Digitale Ethik | Podcast Ethik Digital

    Der Theologe Thomas Zeilinger ist "Beauftragter für Ethik im Dialog mit Technologie und Naturwissenschaft" der bayerischen Landeskirche und Professor am Lehrstuhl für Christliche Publizistik der Universität Erlangen. Im Podcast "Ethik Digital" spricht er über Ethik als komplexe gesellschaftliche Aufgabe. Ein Algorithmus entscheidet über Impftermine, über Autobahnen rollen selbstfahrende Autos, und es fließen Milliarden Euro in die Forschung an Künstlicher Intelligenz (KI): Die Digitalisierung der Gesellschaft schreitet voran, Lebenswelten verändern sich, die Menschen suchen nach Orientierung für ihr Handeln. Im Podcast Ethik Digital diskutieren Rieke C. Harmsen und Christine Ulrich mit Expert*Innen über grundlegende Fragestellungen der digitalen Ethik. Den Podcast gibt es auch als Video und als Text auf Sonntagsblatt.deFolge direkt herunterladen

    ...mehr