Kategorien
Korrekte Sprache

Sprache & künstliche Intelligenz = Stereotype

„PS: In jetziger Zeit kommt hinzu, dass wir unsere sprachliche Unkorrektheit an künstliche Intelligenzen weitergeben! Siehe z.B. auf Englisch, sciencemag.org: Even artificial intelligence can acquire biases against race and gender“ (inklusiv korrekt positiv: bewusst kommunizieren, Kapitel Signalwörter: das generische Maskulinum)

Im eBook hat es nur für eine Fußnote gereicht. Jetzt hatte ich Zeit, mich mit diesem spannenden Thema zu beschäftigen.

Natural Language Processing (NLP)

Wie macht eine KI Sinn aus unserer Sprache?

Indem sie durch Machine Learning große Datensätze an Text (corpus) menschlicher Sprache (natural language) verarbeitet und in mathematische Modelle (vector spaces) umwandelt.

Wiederholung (co-occurence) und Kontext (word embedding) sind dabei entscheidende Kriterien, um Wörter miteinander in Verbindung zu bringen (semantic connections, associations).

Auf diese Weise nähert sich eine KI der Bedeutung eines Wortes.

Dieser Prozess wird als Natural Language Processing bezeichnet (NLP)

Auf wikipedia.org:

Zurzeit nutzt Google:

Facebook:

Von der Stanford University:

Stereotype

Die enormen Datenmengen an verarbeitetem Text reproduzieren dabei in der KI die Stereotype, die bereits in unserer Sprache vorhanden sind.

Z.B. das englische geschlechtsneutrale Wort ‚programmer‘. ‚Programmer‘ tritt sehr oft im gleichen Kontext mit ‚he‘ und ‚computer‘ auf. Wohingegen z.B. ’nurse‘ mit ’she‘ und ‚costume‘ in Verbindung steht.

Oder: Europäisch-Amerikanische Namen finden sich in einem ‚positiven‘ Deutungsraum der KI wieder (happy, gift). Wohingegen afrikanisch-amerikanische Namen in einem ’negativen‘ liegen.

„“If you didn’t believe that there was racism associated with people’s names, this shows it’s there,” said Bryson“ in einem Interview (guardian.co.uk)

Die zentrale Studie zu dem Thema ist von 2017:

Die Forschenden (Aylin Caliskan, Joanna Bryson und Arvind Narayanan) präsentieren ihre Studie ebenfalls in einem kurzen Video:

Artikel, die sich mit der Studie beschäftigen:

Bereits 2016 deuteten einige Artikel von technologyreview.com auf den Zusammenhang von Sprache, Sexismus und KIs hin:

Die Lösung?

Via:

Es gibt schon eine Lösung, zumindest für KIs, welche GloVe nutzen: Gender-Neutral GloVe, kurz: GN-GloVE

Die KI korrigiert ihre Vektoren und wird en-stereotypisiert (debiased).

Das sieht dann so aus:

Formulae for gender neutral word embedding
Screenshot aus Learning Gender-Neutral Word Embeddings, Seite 2)

<ironie>Tja, Data-Wissenschaftler und Wissenschaftlerinnen haben es einfach .-) </ironie>

Ich denke, für humane Intelligenzen, die deutsch sprechen, lässt sich ein Teil des kryptischen Screenshots sehr schnell übersetzen: vermeide das generische Maskulinum.

Mein Fazit

Die oben genannte Studie bezieht sich auf die englische Sprache.

„…but things get more gendered [in languages] such as German…“ Aylin Caliskan (popsci.com)

Sprache ist nicht neutral und war es nie. Die Studie über Sprache und KIs zeigt, dass ein Zusammenhang zwischen Sprache und menschlicher Wahrnehmung (Kognition) und menschlichem Denken (z.B. Stereotype) besteht.

„How does bias get into language, do people start making biased associations from the way they are exposed to language? Knowing that will also help us find answers to maybe a less biased future.” Aylin Caliskan (popsci.com)

Kategorien
Beispiele Inklusive Sprache

Das generische Maskulinum auf Code-Ebene

In einem vorherigen Post hatte ich folgenden Beispielsatz:

„Den Gedanken, dass Programmierer sich ihrer sozialen Verantwortung bewusst werden müssen, finde ich extrem bedeutsam.“

Als HTML-Code könnte das generische Maskulinum so aussehen:

<p>„Den Gedanken, dass <weiblich-mitgemeint>Programmierer</weiblich-mitgemeint> sich ihrer sozialen Verantwortung bewusst werden müssen, finde ich extrem bedeutsam.“</p>

Oder lieber direkt als CSS-Klasse auslagern?

<p class=“mitgemeint“>„Den Gedanken, dass Programmierer sich ihrer sozialen Verantwortung bewusst werden müssen, finde ich extrem bedeutsam.“</p>

p.mitgemeint {
text-intention: bei generischem Maskulinum sind weibliche Menschen mitgemeint}

Kategorien
Beispiele Inklusive Sprache

Von Zufussgehenden und Flâneuxen

Die Zufussgehenden gehen auch in meinem eBook .-)

Jedoch habe ich sie  umbenannt: in Gehende.

Die Gehenden sind genauso entspannt unterwegs wie die Radfahrenden. Nur die Autofahrenden sind mal wieder…

Gibt es eine andere Möglichkeit zu gehen, als mit den Füßen?

Laut wikipedia:

„Ungewohnte und wenig verbreitete Bildungen aus Partizipien I wie „Zufussgehende“ sind laut dem Leitfaden der Schweizerischen Bundeskanzlei zu vermeiden.“ (wikipedia.org: Geschlechtergerechte Sprache, Fußnote entfernt)

Für die zu Vermeidenden gibt es in der Schweiz eine Auszeichnung, den:

Der Flâneur d’Or – Fussverkehrspreis Infrastruktur ist ein schweizerischer Wettbewerb für fussgängerfreundliche Infrastrukturen. (wikipedia.org: Flâneur d’Or)

uiuiui, das geht so nicht!

  1. Flâneur und Flâneuse oder direkt Flâneux!
  2. Fußverkehrspreis, negativer Deutungsrahmen ‚Verkehr‘, besser: Preis für Fußmobilität
  3. fußgängerfreunliche = gehfreundliche

Also:

Der Flâneur e Flâneuse d’or [oder Flâneux d’or] – Preis für Fußmobilität-Infrastruktur ist ein schweizerischer Wettbewerb für gehfreundliche Infrastrukturen. (inklusiv korrekt positiv)

Kategorien
Beispiele Inklusive Sprache

Apropos framing: grammatical framing

Nachdem ich den Post über meine Lieblings-Zitate aus dem Buch Political Framing  gemacht hatte, guckte ich beim Twitter von Elisabeth Wehling vorbei. Dort habe ich das #GrammaticalFraming zusammen mit dem #GenerischesMaskulinum gefunden.

Eine sehr gute Vernetzung!

Das generische Maskulinum ist eine Form des Framings. Durch die permante Wiederholung von Wörtern im grammatikalischen generischen Maskulinum brennen sich die Wörter neuronal in die Gedanken von Menschen ein. Und dort sind die Wörter Wissen, das auch Handeln prägt…

…auch die Szene der Gründenden?

„Nach wie vor sind Frauen als Gründer deutlich in der Unterzahl. 85 Prozent der Gründer sind Männer. In den vergangenen Jahren hat sich dieser Wert kaum verbessert. Beim ersten Bericht im Jahr 2013 waren 87 Prozent der Gründer männlich.“ (handelsblatt.de)

Aus:

Gründerinnen gibt es nicht!? Sprachliche Inklusion und Gleichbehandlung hört sich andern an, Repräsentation mit Wörtern geht korrekter:

Nach wie vor sind Frauen als Gründende deutlich in der Unterzahl. 85 Prozent der Gründenden sind Männer. In den vergangenen Jahren hat sich dieser Wert kaum verbessert. Beim ersten Bericht im Jahr 2013 waren 87 Prozent der Gründenden männlich.

Zum Suchwort ‚weiblicher Gründer‘ (google.de) lieferte mir Google gerade „Ungefähr 2.500 Ergebnisse (0,30 Sekunden)“!

 

Kategorien
Misc

Best of: Politisches Framing (Elisabeth Wehling)

Nicht mehr in mein eBook  geschafft haben es folgende Ideen aus dem Buch Politisches Framing: Wie eine Nation sich ihr Denken einredet – und daraus Politik macht (bpb Schriftenreihe Band 10064) von Elisabeth Wehling:

Neurowissenschaftliche Performativität:

„Zur Erinnerung: Unser Gehirn erlernt Frames, indem es die Erfahrung macht, dass bestimmte Phänomene entweder in der natürlichen Welt miteinander korrelieren oder durch Kultur oder Sprache wiederholt miteinander in einen Zusammenhang gebracht werden… Das wiederholte simultane Auftreten beider Zustände führt dazu, dass diese sich in unserem Gehirn in einem Frame miteinander vernetzen.“ (S. 38-39)

Die Black-Box der humanen Intelligenz:

„Nur geschätzte 2 Prozent unseres Denkens sind bewusste Vorgänge“ (S. 43)

Nichts ist ohne Wörter:

„… kann langfristig kognitive Pluralität nur über sprachliche Pluralität bestehen.“ (S. 43)

 

Kategorien
Inklusive Sprache

KIs und unsere Wörter

Der Süddeutschen Zeitung lag ein buntes Beiblatt bei: eine Anzeigensonderveröffentlichung von Google. Der Titel: Aufbruch – Künstliche Intelligenz – Was sie bedeutet und wie sie unser Leben verändert (06.10.18).

Zu den Fragen „Wie machen wir KI gerecht?“ und „Können Algorithmen Vorurteile haben?“ (S. 30) antwortet Fernanda Viégas, Leiterin der Goolge-Initiative PAIR (People+ AI Research):

„Digitale Voreingenommenheit entsteht üblicherweise durch Tendenzen im Datensatz, mit dem das Machine-Learning-System trainiert wird. Gibt es eine Unausgewogenheit in den Daten, wird sie sich auch in den Ergebnissen des Systems zeigen. Wenn etwa ein Datensatz mit Aussprachebeispielen auf männlichen Rednern basiert, wird ein Spracherkennungssystem, das auf diesen Daten basiert, sehr wahrscheinlich bei Männern besser funktionieren als bei Frauen. Ein solches System bezeichnen wir als voreingenommen zugunsten von Männern.“

Das hört sich gut an. Wir müssen uns mal wieder mit unserer Sprache auseinandersetzen. Diesmal in der Form von Datensätzen in menschlicher Sprache.

Wenn ich dann jedoch auf Seite 34 der Werbung für KIs von Google lese:

„Den Gedanken, dass Programmierer sich ihrer sozialen Verantwortung bewusst werden müssen, finde ich extrem bedeutsam.“ (Peter Dabrock)

dann wird mir angst und bange. Nicht nur wegen der fehlenden Ethik-Kompetenz aufseiten der Programmierenden, sondern wegen des generischen Maskulinums des Ethik-Professors.

Wie ethisch sind Visionen formuliert im generischen Maskulinum? Welche ethische Kompetenz kommuniziert der Vorsitzende des Deutschen Ethikrats damit? Wie ethisch ist seine Ethik?

Kategorien
Inklusive Sprache

Wer Differenzierung sät, wird auch Diskriminierung ernten…

„Wer Differenzierung sät, wird auch Diskriminierung ernten, und wer eine Differenzierung setzt, wird hierarchisierte Ungleichheiten erzeugen.“ (Susanne Baer, Fußnote entfernt)

Das schöne Zitat von Susanne Baer hat es nicht mehr in mein eBook geschafft. Doch es geistert viel in meinem Kopf herum und ich werde leider oft daran erinnert…

Es ist aus dem Essay:

Das Essay ist auch enthalten in dem PDF-Book Positive Maßnahmen – Von Antidiskriminierung zu Diversity; downloadbar via:

Kategorien
Inklusive Sprache

Menschen zuerst

Der Post von Courtney Seiter Diversity: An Incomplete Guide to Inclusive Language for Startups and Tech hat es mir angetan.

Besonders gut gefällt mir ihr erstes ‚language principle‘:

Put people first: Default to person-first constructions that put the person ahead of their characteristics, e.g., instead of “a blind man” or “a female engineer,” use “a man who is blind” or “a woman on our engineering team.” People-first language keeps the individual as the most essential element; there is more to each of us than our descriptors. Mention characteristics like gender, sexual orientation, religion, racial group or ability only when relevant to the discussion.“

In meinem eBook bin ich sehr nah dran an dem ‚Put-people-first-principle‘, wenn ich sage:

Vor lauter personenbezogenen Merkmalen sehen wir den Menschen nicht

Oder wenn ich nicht-essentialisierende Begriffe für Menschen vorziehe (positive Sprache). Also:

Menschen mit Behinderung

anstatt

Behinderte

Das ‚Put-people-first-principle‘ als ‚Menschen-zuerst-Strategie‘ ist für ein Update des eBooks vorgemerkt!

Kategorien
Misc

Arbeit 4.0 braucht eine Sprache 4.0

Trotz

„weiblicher Experten“

und

„weiblicher Gründer“

am Anfang; inspirierende Einsichten zum Thema New Work und Arbeit 4.0 und digitale Transformation im t3n Podcast:

Inhalt matters eben auch .-)

Wäre aber mit einer inklusiven und korrekten Sprache (4.0?) noch überzeugender.

Kategorien
Beispiele Inklusive Sprache Positive Sprache

jung=technik-affin und älter=nicht technik-affin?

In einer Eröffnungsrede zu einer Veranstaltung (u.a. Thema: digitale Transformation) sagt die sprechende Person:

Ich freue mich besonders über die vielen jungen Menschen, die anwesend sind.

Dass personenbezogene Merkmal Alter über die Wörter ‚junge Menschen‘ anzusprechen, war nicht sehr diversitätssensibel und nicht inklusiv, denn es exkludierte anwesende Menschen aufgrund ihres Alters. Wenn ich den Test der negativen Differenzierung anwende, könnte das so klingen:

Ich freue mich weniger über die älteren Menschen, die anwesend sind.

Eine diversitätssensible und inklusive Ansprache, ohne Ausgrenzung und Devaluation mit Blick auf das Merkmal Alter, hätte sein können, z.B.:

Ich freue mich besonders über die Vielfalt an Menschen, die anwesend sind.

Welches war die Motivation der sprechenden Person für die unsensible Ansprache und hierarchisierende Begrüßung?

Ich denke, die Person hat das Stereotyp jung=technik-affin und älter=nicht technik-affin unbewusst zum Ausdruck gebracht!