Kategorien
Inklusive Sprache Misc

KIs & sprachliche Deutungsräume

In meinem Kopf geht es weiter mit Sprache und Natural Language Processsing (NLP) durch Maschinelles Lernen.

Humane Intelligenz verhält sich zu Künstliche Intelligenz wie Inklusive Sprache zu Inklusives Programmieren

also:

HI:KI :: inklusive sprache:inklusives programmieren

.-)

Im A Beginner’s Quide to Word2Vec and Neural Word Embeddings habe ich Folgendes gefunden. Die schreibende Person des Artikels nutzt den ID-Anchor #crazy um folgende Passage intern zu verlinken:

Amusing Word2Vec Results

Let’s look at some other associations Word2vec can produce.

Instead of the pluses, minus and equals signs, we’ll give you the results in the notation of logical analogies, where : means “is to” and :: means “as”; e.g. “Rome is to Italy as Beijing is to China” = Rome:Italy::Beijing:China. In the last spot, rather than supplying the “answer”, we’ll give you the list of words that a Word2vec model proposes, when given the first three elements:

king:queen::man:[woman, Attempted abduction, teenager, girl]
//Weird, but you can kind of see it (skymind.ai)

Kategorien
Korrekte Sprache Misc

Generations-Differenz

Passend zum Thema Alternsdifferenz hörte ich bei DLF-Nova eine Studie über die Nicht-Unterschiede zwischen Generationen.

Ein Beispiel dafür, wie das Sprechen über Generations-Unterschiede diese in unserem Denken und unserer Wahrnehmung produziert.

Kategorien
Inklusive Sprache Misc

Künstliche Intelligenz (KI) & Inklusives Programmieren (Incoding)

Bei meiner Recherche zu dem Thema Künstliche Intelligenz und Stereotype (Vorurteile) stand die menschliche Sprache als Datenmaterial im Mittelpunkt.

Maschinelles Lernen hat jedoch zwei wichtige Elemente:

  1. das Datenmaterial (z.B. Sprache)
  2. die Programmierenden

Und mit beidem befasst sich die Algorithmic Justice League (AJL):

Stichworte des Projektes sind: the coded gaze, algorithmic bias, unfairness, exclusion

Ziel des Projektes ist, den Einzug von Stereotypen und Vorurteilen (Sexismus und Rassismus) in KIs zu vermeiden.

Die Gründerin des Projektes Joy Buolamwini stellt das Projekt und die Hintergründe, die dazu führten, in einem ca. 9-minütigem TED-Video vor (deutsche Untertitel sind zuschaltbar):

Inclusive Coding (inklusives Programmieren) = Incoding

Joy Buolamwini betont bei dem Konzept des Incoding, des Inclusive-Coding, dem Inklusiven Programmieren, drei Dinge:

  • Who codes matters
  • How we code matters
  • Why we code matters

Ich sehe darin die Forderung nach mehr Diversität und Ethik. Transparente Algorithmen gehören für mich dazu!

Auf newscientist.com liest Du von 5 Fällen, die von Diskriminierung durch Algorithmen handeln:

Eine Sammlung mit Artikeln mit weiteren Beispielen (auch: age, beauty) findest Du bei diversity.ai  unter dem Menüpunkt ‚Press about us‘:

Vielleicht auch lesen werde ich dann bald das Buch:

 

Kategorien
Misc

Kommunikation ist…

„Kommunikation ist wie eine Kugel, die Du abfeuerst.“ (Theo Veltkamp, COMENO company consulting GmbH)

Vielleicht etwas martialisch, aber vielleicht richtig, um die Wichtigkeit unserer Wörter zu betonen.

Das Zitat (ich hoffe, ich habe es mir korrekt gemerkt) stammt aus einem Vortrag von Theo Veltkamp von COMENO – coach me now! zum Thema Agilität im  JOSEPHS®, dem offenen Innovationslabor in Nürnberg.

Kategorien
Korrekte Sprache Misc

Sprache: menschliche Deutungsrahmen (framing) und künstliche Deutungsräume (word embedding)

In meinem Post über Sprache, Stereotype, Künstliche Intelligenz (KI) und dem Natural Language Processing (NLP) habe ich bereits ein kleines Fazit gezogen.

Jetzt folgt ein Post-Fazit:

Die mathematischen Deutungsräume (und damit auch Stereotype (language bias)), die durch Vektoren beim Word-Embedding in der KI entstehen, entsprechen dem, was auf menschlicher Seite im Zusammenhang mit Sprache Deutungsrahmen (Framing) genannt wird.

Also:

HI : KI :: Deutungsrahmen : Deutungsraum

HI= Humane Intelligenz
KI= Künstliche Intelligenz

Kategorien
Inklusive Sprache Positive Sprache

Alternsdifferenz

„Welchen für die Diskussion wichtigen Informationsgehalt vermittelt Dir die Kommunikation des numerischen Alters?

Keinen. Denn Menschen altern zu unterschiedlich (Alternsdifferenz) und Lebensbiografien sind ebenfalls zu unterschiedlich.“ (inklusiv korrekt positiv: bewusst kommunizieren, Kapitel: Inklusive Sprache & personenbezogene Merkmale: Alter und Nummern)

Alternsdifferenz!?

Was ist Alternsdifferenz?

Alternsdifferenz bedeutet:

Menschen altern unterschiedlich. Wir können mithilfe von Alters-Kategorien (z.B.: alt, jung) oder Nummern (z.B.: 36-jährig, geboren 1983) keine Information über einen individuellen Menschen kommunizieren.

Die Erkenntnis, dass Menschen auf verschiedene Art älter werden, ist die Basis für ein…

„…Recht gegen jede Orientierung am biochronologischen Alter, damit also für alle, die gern nach genaueren Kriterien als dem Geburtsjahrgang beurteilt werden…“ (Susanne Baer in Chancen und Risiken Positiver Maßnahmen: Grundprobleme des Antidiskriminierungsrechts und drei Orientierungen für die Zukunft (boell.de)

Eine Referenz und Quelle, die Alternsdifferenz belegt, ist die:

„Das zentrale Ergebnis war die Bestätigung von Thomaes Hypothese, dass die Struktur und der Verlauf des Alterns weniger das Ergebnis von Alternsnormen ist als vielmehr durch eine Vielzahl von Altersformen geprägt wird.“ (wikipedia.org)

Kategorien
Korrekte Sprache

Sprache & künstliche Intelligenz = Stereotype

„PS: In jetziger Zeit kommt hinzu, dass wir unsere sprachliche Unkorrektheit an künstliche Intelligenzen weitergeben! Siehe z.B. auf Englisch, sciencemag.org: Even artificial intelligence can acquire biases against race and gender“ (inklusiv korrekt positiv: bewusst kommunizieren, Kapitel Signalwörter: das generische Maskulinum)

Im eBook hat es nur für eine Fußnote gereicht. Jetzt hatte ich Zeit, mich mit diesem spannenden Thema zu beschäftigen.

Natural Language Processing (NLP)

Wie macht eine KI Sinn aus unserer Sprache?

Indem sie durch Machine Learning große Datensätze an Text (corpus) menschlicher Sprache (natural language) verarbeitet und in mathematische Modelle (vector spaces) umwandelt.

Wiederholung (co-occurence) und Kontext (word embedding) sind dabei entscheidende Kriterien, um Wörter miteinander in Verbindung zu bringen (semantic connections, associations).

Auf diese Weise nähert sich eine KI der Bedeutung eines Wortes.

Dieser Prozess wird als Natural Language Processing bezeichnet (NLP)

Auf wikipedia.org:

Zurzeit nutzt Google:

Facebook:

Von der Stanford University:

Stereotype

Die enormen Datenmengen an verarbeitetem Text reproduzieren dabei in der KI die Stereotype, die bereits in unserer Sprache vorhanden sind.

Z.B. das englische geschlechtsneutrale Wort ‚programmer‘. ‚Programmer‘ tritt sehr oft im gleichen Kontext mit ‚he‘ und ‚computer‘ auf. Wohingegen z.B. ’nurse‘ mit ’she‘ und ‚costume‘ in Verbindung steht.

Oder: Europäisch-Amerikanische Namen finden sich in einem ‚positiven‘ Deutungsraum der KI wieder (happy, gift). Wohingegen afrikanisch-amerikanische Namen in einem ’negativen‘ liegen.

„“If you didn’t believe that there was racism associated with people’s names, this shows it’s there,” said Bryson“ in einem Interview (guardian.co.uk)

Die zentrale Studie zu dem Thema ist von 2017:

Die Forschenden (Aylin Caliskan, Joanna Bryson und Arvind Narayanan) präsentieren ihre Studie ebenfalls in einem kurzen Video:

Artikel, die sich mit der Studie beschäftigen:

Bereits 2016 deuteten einige Artikel von technologyreview.com auf den Zusammenhang von Sprache, Sexismus und KIs hin:

Die Lösung?

Via:

Es gibt schon eine Lösung, zumindest für KIs, welche GloVe nutzen: Gender-Neutral GloVe, kurz: GN-GloVE

Die KI korrigiert ihre Vektoren und wird en-stereotypisiert (debiased).

Das sieht dann so aus:

Formulae for gender neutral word embedding
Screenshot aus Learning Gender-Neutral Word Embeddings, Seite 2)

<ironie>Tja, Data-Wissenschaftler und Wissenschaftlerinnen haben es einfach .-) </ironie>

Ich denke, für humane Intelligenzen, die deutsch sprechen, lässt sich ein Teil des kryptischen Screenshots sehr schnell übersetzen: vermeide das generische Maskulinum.

Mein Fazit

Die oben genannte Studie bezieht sich auf die englische Sprache.

„…but things get more gendered [in languages] such as German…“ Aylin Caliskan (popsci.com)

Sprache ist nicht neutral und war es nie. Die Studie über Sprache und KIs zeigt, dass ein Zusammenhang zwischen Sprache und menschlicher Wahrnehmung (Kognition) und menschlichem Denken (z.B. Stereotype) besteht.

„How does bias get into language, do people start making biased associations from the way they are exposed to language? Knowing that will also help us find answers to maybe a less biased future.” Aylin Caliskan (popsci.com)

Kategorien
Beispiele Inklusive Sprache

Das generische Maskulinum auf Code-Ebene

In einem vorherigen Post hatte ich folgenden Beispielsatz:

„Den Gedanken, dass Programmierer sich ihrer sozialen Verantwortung bewusst werden müssen, finde ich extrem bedeutsam.“

Als HTML-Code könnte das generische Maskulinum so aussehen:

<p>„Den Gedanken, dass <weiblich-mitgemeint>Programmierer</weiblich-mitgemeint> sich ihrer sozialen Verantwortung bewusst werden müssen, finde ich extrem bedeutsam.“</p>

Oder lieber direkt als CSS-Klasse auslagern?

<p class=“mitgemeint“>„Den Gedanken, dass Programmierer sich ihrer sozialen Verantwortung bewusst werden müssen, finde ich extrem bedeutsam.“</p>

p.mitgemeint {
text-intention: bei generischem Maskulinum sind weibliche Menschen mitgemeint}

Kategorien
Beispiele Inklusive Sprache

Von Zufussgehenden und Flâneuxen

Die Zufussgehenden gehen auch in meinem eBook .-)

Jedoch habe ich sie  umbenannt: in Gehende.

Die Gehenden sind genauso entspannt unterwegs wie die Radfahrenden. Nur die Autofahrenden sind mal wieder…

Gibt es eine andere Möglichkeit zu gehen, als mit den Füßen?

Laut wikipedia:

„Ungewohnte und wenig verbreitete Bildungen aus Partizipien I wie „Zufussgehende“ sind laut dem Leitfaden der Schweizerischen Bundeskanzlei zu vermeiden.“ (wikipedia.org: Geschlechtergerechte Sprache, Fußnote entfernt)

Für die zu Vermeidenden gibt es in der Schweiz eine Auszeichnung, den:

Der Flâneur d’Or – Fussverkehrspreis Infrastruktur ist ein schweizerischer Wettbewerb für fussgängerfreundliche Infrastrukturen. (wikipedia.org: Flâneur d’Or)

uiuiui, das geht so nicht!

  1. Flâneur und Flâneuse oder direkt Flâneux!
  2. Fußverkehrspreis, negativer Deutungsrahmen ‚Verkehr‘, besser: Preis für Fußmobilität
  3. fußgängerfreunliche = gehfreundliche

Also:

Der Flâneur e Flâneuse d’or [oder Flâneux d’or] – Preis für Fußmobilität-Infrastruktur ist ein schweizerischer Wettbewerb für gehfreundliche Infrastrukturen. (inklusiv korrekt positiv)

Kategorien
Beispiele Inklusive Sprache

Apropos framing: grammatical framing

Nachdem ich den Post über meine Lieblings-Zitate aus dem Buch Political Framing  gemacht hatte, guckte ich beim Twitter von Elisabeth Wehling vorbei. Dort habe ich das #GrammaticalFraming zusammen mit dem #GenerischesMaskulinum gefunden.

Eine sehr gute Vernetzung!

Das generische Maskulinum ist eine Form des Framings. Durch die permante Wiederholung von Wörtern im grammatikalischen generischen Maskulinum brennen sich die Wörter neuronal in die Gedanken von Menschen ein. Und dort sind die Wörter Wissen, das auch Handeln prägt…

…auch die Szene der Gründenden?

„Nach wie vor sind Frauen als Gründer deutlich in der Unterzahl. 85 Prozent der Gründer sind Männer. In den vergangenen Jahren hat sich dieser Wert kaum verbessert. Beim ersten Bericht im Jahr 2013 waren 87 Prozent der Gründer männlich.“ (handelsblatt.de)

Aus:

Gründerinnen gibt es nicht!? Sprachliche Inklusion und Gleichbehandlung hört sich andern an, Repräsentation mit Wörtern geht korrekter:

Nach wie vor sind Frauen als Gründende deutlich in der Unterzahl. 85 Prozent der Gründenden sind Männer. In den vergangenen Jahren hat sich dieser Wert kaum verbessert. Beim ersten Bericht im Jahr 2013 waren 87 Prozent der Gründenden männlich.

Zum Suchwort ‚weiblicher Gründer‘ (google.de) lieferte mir Google gerade „Ungefähr 2.500 Ergebnisse (0,30 Sekunden)“!