„Designfehler Frau“: Warum wir den Gestaltungsprozess neu denken müssen



(Foto: Shutterstock / kozirsky)

Wer Geschlechtergerechtigkeit will, muss sich mit einseitigen Daten im Designprozess auseinandersetzen. Denn vom Prototypenentwurf bis zur medizinischen Forschung sind die Daten auf den „Durchschnittsmann“ ausgerichtet.


Anzeige
Designer sind bei der Gestaltung von Produkten und Dienstleistungen in hohem Maße auf Daten angewiesen. Ohne zu wissen, wie groß, schwer oder fit die Zielgruppe im Durchschnitt ist, können sie heute weder ein Auto noch einen Küchenstuhl, Laufschuh oder gar ein Medikament entwickeln. Doch oft sind die dafür verwendeten Daten einseitig – verbunden mit bedenklichen Risiken für die Gesundheit und Sicherheit von Frauen.

Um die Ungleichheiten zwischen den Geschlechtern zu bekämpfen, müssen Designer die Art und Weise, wie heute gestaltet wird, grundlegend ändern.

Anzeige Der unkontrollierte Domino-Effekt von Vorurteilen, Klischees und Befangenheit

In den meisten Fällen gibt es nur Daten eines durchschnittlichen männlichen Weißen. Diese Angaben werden als weniger problematisch und kompliziert als die ihres weiblichen Pendants betrachtet. Ganz offensichtlich wird diese Praxis im Gesundheitswesen und in der Medizin: Über Jahrzehnte sind kaum Daten von Frauen in klinischen Studien eingeflossen – ein „One Size fits all“-Ansatz mit teils dramatischen Konsequenzen.

Beispiel Herzinfarkt: Wenn Frauen Symptome zeigen, die nach medizinischem Wissen weniger bekannt sind, etwa Atemnot oder Bauchschmerzen, liegt die Quote von Diagnose-Fehlern bei etwa 50 Prozent. Das ist nicht nur frustrierend, sondern auch lebensbedrohlich. Wenn Symptome von Frauen falsch eingeschätzt werden, kann das zu schwerwiegenden Krankheiten und Schmerzen, psychischem Leid und sogar zum Tod führen. Alles aufgrund von einseitigem und lückenhaftem Datenmaterial, auf dessen Basis Medikamente oder Diagnose-Richtlinien entworfen wurden.

Ähnliche Muster können wir bei der Entwicklung von künstlicher Intelligenz erkennen. Gesichts- und Spracherkennungsdienste liefern genauere Ergebnisse bei männlichen Anwendern. Das lässt sich darauf zurückführen, dass das beim maschinellen Lernen unverhältnismäßig oft mit „männlichen“ Daten trainiert wurde.

Das Beispiel zeigt, wie unzureichende Daten neue Technologien bereits im Ansatz auf den falschen Pfad führen. Denn vermutlich werden Gesichts- und Spracherkennung bald das Herzstück vieler Anwendungen sein, von der Bewerberauswahl bis hin zur Evaluierung von Einwanderungsanträgen. Die algorithmische Verzerrung könnte sich so nicht nur auf Berufsaussichten und -chancen auswirken, sondern bei der Einwanderung und im Gesundheitswesen sogar die persönliche Sicherheit und das Wohlbefinden bedrohen. Im Zuge des technologischen Fortschritts müssen Datensätze genau untersucht werden, denn maschinelles Lernen spiegelt Verzerrungen und Diskriminierungen in der realen Welt nicht nur wider, sondern setzt sie fort und potenziert sie möglicherweise sogar. Und das wird unsere Denkweise, Kultur und Verhaltensweisen nachhaltig beeinflussen.

Viele Facetten der Daten-Diskriminierung

In vielerlei Hinsicht sind wir durch unsere Erziehung und Lebenserfahrung befangen und haben Vorurteile entwickelt. Diese Vorbehalte sind fest in unserem Unterbewusstsein verankert und bestimmen 95 Prozent unseres Verhaltens. Sie sind auch Teil unserer natürlichen analytischen Fähigkeiten und helfen uns dabei, die im Alltag auf uns einströmenden Eindrücke zu verarbeiten und Muster in der Welt um uns herum zu erkennen. Aber Vorurteile, die unkontrolliert bleiben und nie hinterfragt werden, beeinträchtigen unser Urteilsvermögen und führen dauerhaft zu Diskriminierung sowie Ausgrenzung.
Es gibt mehr als 180 kognitive Vorurteile, die sich negativ darauf auswirken, wie wir andere wahrnehmen oder Entscheidungen treffen. Sie reichen von einer Tendenz zur Bestätigung, bei der wir Informationen herausfiltern, die nicht mit unseren bestehenden Überzeugungen und unserem Verständnis übereinstimmen, bis zu einem Mitläufereffekt, bei dem unser Verhalten durch die Handlungen anderer beeinflusst wird.

Wenn wir uns der Tragweite von Vorurteilen und Voreingenommenheit bewusst sind, ist es möglich sie zu erkennen und Stereotypen auch in Datensätzen zu entlarven, bevor sie in den Entwicklungsprozess einfließen und zu Kompromisslösungen führen, die letztlich negative Auswirkungen auf das Leben von Frauen haben.

Schnittmengendesign vs. Gestaltung für alle

Um die reale Welt besser darzustellen, müssen die aktuellen Forschungspraktiken weiterentwickelt werden, um integrativere, bedürfnisgerechtere Produkte, Dienstleistungen und Strategien zu entwickeln.

Ein Positiv-Beispiel für die Berücksichtigung von Daten über Verhalten und Bedürfnisse von Frauen kommt aus Schweden: Dort haben Krankenhauseinweisungen gezeigt, dass 69 Prozent der im Winter im Verkehr verletzten Personen Frauen waren. Bei der Untersuchung der Ursachen stellte sich heraus: Frauen bewegen sich anders als Männer in der Stadt. Männer pendeln meistens direkt von A nach B, Frauen hingegen betreiben über den Tag verteilt sogenanntes Trip-Chaining. Als Stockholm diese unterschiedlichen Muster bei der Schneeräumung der Straßen berücksichtigte, sank die Zahl der Unfälle um die Hälfte.

Bei der Gestaltung müssen wir damit beginnen, neben dem Geschlecht weitere Faktoren zu berücksichtigen, zum Beispiel ethnische Zugehörigkeit, Alter oder Handicaps. Das sollte für jede Stufe der Forschung und des Designs gelten, von den Stichprobenkriterien bis hin zu den verwendeten Instrumenten, die zur Analyse und Vermittlung von gewonnenen Erkenntnissen eingesetzt werden.

Damit das gelingen kann, muss klar formuliert werden, für welchen Zweck Daten erhoben werden. Nur so werden Designer in der Lage sein, in jeder Phase des Gestaltungsprozesses das geeignete Maß an Geschlechtersensibilität zu ermitteln. Sollen die Daten beispielsweise für Anwendungen in der Personalbeschaffung verwendet werden, helfen anonymisierende Merkmale der Daten, um sicherzustellen, dass Kandidaten nicht diskriminiert werden. Wird ein Anwendertest durchgeführt, liefern ein lückenloser Datensatz und eine Aufschlüsselung der Ergebnisse ein genaueres Bild.

Diese Sensibilität kann auch durch den Einsatz von diversen Teams erreicht werden. Jede zusätzliche Perspektive erleichtert es, mögliche Verzerrungen frühzeitig zu erkennen. Kreativitätstechniken wie Rollenspiele zum Durchspielen von Szenarien oder Kritikkarten, die unbewusste Denkmuster aufzeigen, können dazu beitragen, dass fehlende Perspektiven berücksichtigt werden. Diesen Ansatz für einen 360-Grad-Rundumblick kann man auch bei sich selbst bereits finden: Werfen wir einen Blick auf unsere Podcast- oder Leselisten – wie viele der Titel darauf haben uns Freunde oder Kollegen empfohlen? Die Suche nach Wissen aus verschiedenen Quellen und genaues Zuhören tragen zu kollektivem Denken und einem besseren Verständnis der Welt bei.
Die Vielfalt des Denkens und repräsentative Datensätze könnten nicht nur Machtverschiebungen in der Gesellschaft beschleunigen, sondern auch zu mehr Innovation bei den von Designern geschaffenen Regelwerken, Strategien, Produkten und Dienstleistungen führen.

Abi Golestanian ist seit 2016 Visual Designer bei Fjord. Sie will authentische Marken formen, die bei jeder Interaktion humanistische Werte anwenden. Sie ist überzeugt davon, dass Design ein Katalysator für eine gleichberechtigte und nachhaltige Zukunft sein kann.

Jennifer Dettmering arbeitet seit 2013 bei Fjord als Service Designerin. Ihre Leidenschaft gilt dem Gender im Design und der Femtech-Branche, in der sie das höchste Potenzial für Innovation und Gleichberechtigung sieht.

https://samplecic.ch/designfehler-frau-warum-wir-den-gestaltungsprozess-neu-denken-mussen.html

Комментарии

Популярные сообщения из этого блога

Centered Logos Hurt Website Navigation

Wichtiges Entwickler-Tool: Homebrew für M1-Macs und MacOS 11 Big Sur erschienen

App-Entwicklung: Nein, ihr braucht wahrscheinlich keine künstliche Intelligenz