03. März 2020

Shift 2020: Es braucht digitale Ethik für mehr Fairness

Cybersecurity, Digitalisierung, Künstliche Intelligenz

Am 27. Februar fand die zweite Shift-Konferenz in Zürich statt. Rund 200 Personen interessierten sich für das Thema «Digitale Ethik», das im Kontext von Cybersecurity, Datenschutz und Künstlicher Intelligenz diskutiert wurde.

«Keine Woche vergeht ohne digitalen Skandal», sagte Moderatorin Patrizia Laeri zum Auftakt. Hat sich seit der ersten Shift-Konferenz vor einem Jahr etwas geändert? Auch wenn sich punktuell Widerstand gegen fragwürdige Praktiken rege, dürfte allen Anwesenden klar sein: «Es bleibt noch viel zu tun.»

Peter A. Haig, IBM Research – Zurich, zeigte auf, was mit Quantencomputern künftig möglich sei, gab aber zu bedenken: «Wir machen immer noch Forschung wie vor 1000 Jahren.» Der Prozess sei umzukehren, indem Daten, Studien etc. zuerst mittels Machine Learning analysiert und bearbeitet werden. In diesem Sinn sprach er von AI als «Augmented Intelligence». Damit wir AI vertrauen, seien Erklärbarkeit, Fairness, Sicherheit und Verantwortlichkeit entscheidend. Er erwähnte Probleme wie Bias bzw. «Garbage in, Garbage out», Begriffe die im Laufe das Tages häufig fielen. Kann man Computern Ethik beibringen? Ja, man müsse aber laufend daran arbeiten, so Peter A. Haig.

In der Podiumsdiskussion schilderten Unternehmensvertreter ihre Perspektive, wobei sie von Lajla Fetic, Bertelsmann Stiftung, herausgefordert wurden. Das übermässige Sammeln von Kundendaten müsse verboten oder verunmöglicht werden. Es reiche nicht, Firmen zu vertrauen, dass sie solche Möglichkeiten nicht nutzen würden. Laut Nicolas Passadelis sei mit der Swisscom Box eine Überwachung prinzipiell möglich, die Box werde aber so ausgeliefert, dass das Mikrofon nur auf Befehl eingeschaltet werde. Für die Spracherkennung gebe es zudem ein Opt-in. Laut Matthias Brändle von der Mobiliar-Versicherung können Crash Recorder im Auto auch Bewegungsmuster aufzeigen. Die Mobiliar nutze das aber nicht. «Genau hier muss Ethik greifen und klare Richtlinien schaffen.» Der Umgang mit Daten sei für Pharmafirmen zentral, so Elke Baumann von Novartis. Man habe dazu Richtlinien eingeführt und alle Mitarbeitenden geschult. Wichtig sei, die Zustimmung einzuholen sowie klar und transparent aufzuzeigen, was mit den Daten passiere. Trotzdem sieht Lajla Fetic sowohl bei Versicherungen als auch im Gesundheitsbereich die Gefahr diskriminierender Praktiken.

«80 Prozent aller Datenlecks entstehen durch gestohlene oder schwache Passwörter», gab Sandra Tobler zu bedenken, Geschäftsführerin Futurae Technologies. Deshalb sei die Zwei-Faktor-Authentifizierung so wichtig. Doch die Authentifizierung mittels SMS sei unsicher, denn SMS könnten abgefangen werden, etwa mit «Sniffers» oder durch vermeintlich harmlose Apps, denen man Leseberechtigung gewährt. Auch Stimm- oder Fingerabdrücke sowie Retina-Scans seien keine Lösung. So sei es heute trivial, Stimmen zu kopieren. Sie betonte, was die Lösung von Futurae (Authentisierung über Umgebungsgeräusche) auszeichne: Mehrere Datenpunkte garantieren mehr Sicherheit.

«Wollen wir unsere Autonomie der Statistik opfern?», so die Einstiegsfrage von Matthias Spielkamp, Geschäftsführer von AlgorithmWatch. Seine Organisation beurteilt die gesellschaftliche Relevanz von Automated Decision Making (ADM). Startpunkt war das ADM-Manifest. Es postuliert etwa, das ADM niemals neutral sei und solche Prozesse nachvollziehbar und demokratisch kontrolliert werden müssten. Warum das wichtig sei, illustrierte er an einem Beispiel von Amazon. AlgoritmWatch sei nicht technophob, kritisiere aber das massive Informationsdefizit der Betroffenen. Unternehmen wie Facebook oder Google würden ihre Rechenschaftspflicht nicht wahrnehmen. Besonders problematisch sei die Erstellung psychographischer Profile auf einer dünnen Datenbasis. Es brauche mehr Transparenz, bessere Audits, Prüfstellen sowie Standards und Normierungen für die Implementierung. Das gehe auch ohne neue Gesetze.

Privatsphäre als Paradoxie

Der Nachmittag begann mit parallelen Sessions. Bei der Medienwissenschaftlerin Sarah Genner und Manfred Kulmitzer, Zürcher Kantonalbank, stand das «Privacy Paradox» im Zentrum. Die Anwesenden wurden eingeladen, den Privatsphären-Typen-Test zu machen. Privatsphäre sei ein komplexer Begriff mit vielen Widersprüchen und Dilemmata. Das Stanford Pizza Paradox zeige, wie wenig uns unsere Daten bisweilen Wert sind. Oft seien Nutzer überfordert: Nur die wenigsten lesen AGBs oder ändern die Default-Einstellungen ihrer Geräte. Für Sarah Genner ist klar: «Das einzig Richtige wäre Privacy by Design, auch wenn das vielleicht naiv ist.» Manfred Kulmitzer präsentierte die Resultate einer ZKB-Umfrage: AGBs und Cookies würden oft ignoriert und weggeklickt. Viele Befragte seien skeptisch gegenüber Cloud-Diensten und würden eher On-Site-Systemen vertrauen. «Auch paradox, weil grosse Cloud-Betreiber mehr Geld in Sicherheit investieren können.» Die ZKB hat ihre Datenpolitik aus der Geschäftsstrategie abgeleitet und verfügt nebst Datenschutzerklärung und Datenethik-Charta auch über ein KI-Risiko-Framework. KI wird zur Mustererkennung (e-Fraud) sowie zur Sprachverarbeitung und Automatisierung in der Kundenbetreuung eingesetzt. In der Diskussion dominierte das Thema Gratiskultur. Viele User würden nicht begreifen, dass digitale Dienstleistungen etwas kosten und sie dafür bezahlen – entweder mit Daten oder Geld.

Um KI im Personalmanagement ging es bei Raphael Keusch, ABB, und Nadia Fischer, Gründerin Witty Works. Raphael Keusch zeigte auf, wie Internet und Social Web die HR-Arbeit verändert haben, und präsentierte aktuelle und künftige Entwicklungen: Chatbots, Gamification, KI in allen Personalprozessen etc. «Haben Sie ein Hirn, dann sind Sie biased», machte Nadja Fischer klar. In Rekrutierungsprozessen könne dies zu Diskriminierungen führen, wie ein weiteres Amazon-Beispiel zeige. Unsere Bias würden sich an die KI übertragen, wenn wir nicht aufpassen. Wichtig sei deshalb eine hohe Diversität bei Teams, die Rekrutierungstools entwickeln und/oder nutzen. Witty Works hat ein Online-Tool entwickelt, um Stellenausschreibungen Bias-frei zu formulieren. Es wurde lebhaft diskutiert, warum Frauen in Führungspositionen und bestimmten Bereichen unterpräsentiert sind. Klar ist, dass überholte Stereotypen abgebaut werden müssen – auch ein Ziel des SATW-Programms Swiss TecLadies.

Unter dem Motto «Carte Blanche» folgten zwei Kurzreferate. Andreas Schindler, Country Manager Avanade Schweiz, stellte die Initiative «Technology for Social Good» vor. Technologie könne benachteiligten Personen Zugang zu Leistungen oder Märkten ermöglichen und Demokratisierung fördern. «Die industrielle Revolution hat Wohlstand gebracht, aber nicht fair verteilt. Die digitale Revolution hat das Potenzial, Wohlstand gerechter zu verteilen.» Über Fairness sprach auch Mascha Kurpicz-Briki, Professorin an der Berner Fachhochschule. Sie erwähnte ebenfalls das Bias-Problem bei KI-Trainingsdaten und wies auf die Notwendigkeit von Methoden hin, um es messbar zu machen und zu beheben. KI zur Bilderkennung werde häufig mit Bildern westlicher Kulturen trainiert, was diskriminierend sei. Es gehe aber nicht nur um KI, sondern um ganz Grundsätzliches: «Wir haben viele Möglichkeiten, die digitale Gesellschaft fairer zu gestalten.»

Digitale Zucker im Überwachungskapitalismus

Zum Schluss interviewte Patrizia Laeri Sarah Spiekermann, Professorin an der Wirtschaftsuniversität Wien. Die Idealvorstellung einer ethischen Gesellschaft wäre es, wenn man die Schaffung von Werten nicht nur für Unternehmen, sondern für die Welt insgesamt denkt. «In Europa sind wir da zurückgefallen, und wenn wir nicht aufpassen, landen wir beim US-Modell. Wir müssen uns bewusst an Werten orientieren und nicht passiv steuern lassen. Ein Grossteil der Menschen ist gar nicht mehr erreichbar, sondern verliert sich in einer Welt voller digitalem Zucker.» Der Überwachungskapitalismus habe sich durchgesetzt und wer wertvolle Daten besitze, sei versucht, an den Datenmärkten teilzunehmen. Schliesslich werde überall gepredigt, Daten seien das neue Öl. Wie knackt man Datenmonopole? Deren Entstehung werden von Wettbewerbsbehörden zunehmend verhindert. Offenheit sei beinahe eine Ideologie in Software-Kreisen, doch wozu führe das: «Zuerst profitieren jene Datenkraken, die bei der Datenverarbeitung bereits führend sind. Wenn wir Datenpools aufbauen, brauchen wir flankierende Massnahmen: Wer was rausnimmt, muss was reingeben.»

Sarah Spiekermann ist überzeugt, dass kommende Veränderungen kolossal unterschätzt werden. «Manche Wissenschaftler sprechen von einer zweiten neolithischen Revolution.» In ihrem Buch skizziert sie eine Vision, wie wir uns wertorientiert weiterentwickeln können. Leider sei Wert bisher immer mit Geld gleichgesetzt worden. Das gelte es zu ändern. «Wir können Technologie nutzen, um Werte in die Welt zu bringen.» Aktuell wirkt sie bei der Erarbeitung eines IEEE-Standards für ethisches Design mit. Ethik dürfe nicht an Rechtsabteilungen oder CSR delegiert werden. Alle müssten mitarbeiten, was insbesondere für junge Menschen motivierend sei. Vorausgesetzt, man meine es ehrlich.

Auskunft

Adrian Sulzer, Leiter Kommunikation und Marketing, Tel. +41 44 226 50 27, adrian.sulzer(at)satw.ch

Weitere Beiträge zum Thema Digitalisierung

New comment

0 comments