Kategorien
Beispiele Korrekte Sprache

Deutungsrahmen (Framing): ‚Kinderpornografie‘ & ‚Rassenunruhen‘

Bei Sagen und Meinen sind zwei neue Begriffe hinzugekommen:

Sagen & Meinen – Der Sprachcheck

Viel zu oft setzen sich fragwürdige Begriffe und Euphemismen in Medien fest, zum Beispiel… 

(deutschlandfunk.de)
  1. ‚Rassenunruhen‘: Folge 5: „Rassenunruhen“ – ein „grundfalscher“ Begriff (deutschlandfunk.de)
  2. ‚Kinderpornografie‘: Folge 6: „Kinderpornographie“ – kein Porno, sondern Missbrauch (deutschlandfunk.de)

Featured Image: by Alexandra on Unsplash

Kategorien
Misc

best of biases: ikea effect

Die Anzahl an ‚cognitive biases‘ (engl. für kognitive Verzerrungen) ist ein Fass ohne Boden:

In der Liste ist auch der Ikea-Effekt:

Kategorien
Content Misc Positive Sprache

Pimp your Gehirn: Cat-Content & Politische Kommunikation

Via Deutschlandfunk Nova:

Darin:

Die Studienautoren kommen zu dem Ergebnis, dass politische Nachrichten, die zwischen erholsamen Katzenvideos gelesen wurden, uns aufmerksamer machen und wir die Informationen dadurch auch kognitiv besser verarbeiten. Also im Prinzip pimpt Catcontent unser Gehirn.

Fazit

Am besten funktioniert politische Kommunikation, wenn sie inklusiv, korrekt, positiv und cat-contentiv ist.

Top-ranking auf Youtube heute für den Suchbegriff ‚Katzenvideo‘:

KittyKitty

11 Mio. Aufrufe (08.08.2019)

Kategorien
Korrekte Sprache Misc

Kognition & Sprache

„Mit dem Begriff ‚korrekt‘ in dem Titel Korrekte Sprache beziehe ich mich nicht auf korrekte Grammatik oder Syntax, sondern auf die korrekte innere Repräsentation durch Sprache in unseren Gedanken (Kognition) und die korrekte äußere Repräsentation durch die Kommunikation von Dingen, Gedanken, Erfahrungen, Gefühlen und Ideen für uns und andere; eine präzisere sprachliche Vor- und Darstellung ist das Ziel.“ (inklusiv korrekt positiv: bewusst kommunizieren, Kapitel: Anmerkungen und Verweise: Korrekte Sprache)

Im eBook habe ich Ausflüge in die kognitive Linguistik vermieden. Dafür jetzt hier eingebettet sehr schöne TED-Videos zu Erkenntnissen im Zusammenhang von menschlichem Wissen und Sprache.

Das erste Video ist von Lera Boroditsky:

How language shapes the way we think | Lera Boroditsky

Im zweiten Video greift Petrina Nomikou die Ideen von Lera Boroditzky auf und ergänzt diese:

How the language you speak affects your thoughts

Kurz-Fazit

Als Kurz-Fazit für eine korrekte Sprache bedeuten die vorgestellten Erkenntnisse aus der kognitiven Linguistik: ‚kognitive Pluralität braucht eine sprachliche Pluralität‘ (Stichwörter: (m/w/d), Sichtbarkeit von Frauen) + Sprache (Wörter & Grammatik) hat einen Einfluss darauf, wie und was wir denken und denken können (Stichwörter: Grammatical Framing, Grammatologie?, Generisches Maskulinum) = unsere Sprache ist eine epistemisches (epistemologisches) System; ein System, das unsere Erkenntnisse und unser Wissen strukturiert.

Kategorien
Korrekte Sprache

Sprache & künstliche Intelligenz = Stereotype

„PS: In jetziger Zeit kommt hinzu, dass wir unsere sprachliche Unkorrektheit an künstliche Intelligenzen weitergeben! Siehe z.B. auf Englisch, sciencemag.org: Even artificial intelligence can acquire biases against race and gender“ (inklusiv korrekt positiv: bewusst kommunizieren, Kapitel Signalwörter: das generische Maskulinum)

Im eBook hat es nur für eine Fußnote gereicht. Jetzt hatte ich Zeit, mich mit diesem spannenden Thema zu beschäftigen.

Natural Language Processing (NLP)

Wie macht eine KI Sinn aus unserer Sprache?

Indem sie durch Machine Learning große Datensätze an Text (corpus) menschlicher Sprache (natural language) verarbeitet und in mathematische Modelle (vector spaces) umwandelt.

Wiederholung (co-occurence) und Kontext (word embedding) sind dabei entscheidende Kriterien, um Wörter miteinander in Verbindung zu bringen (semantic connections, associations).

Auf diese Weise nähert sich eine KI der Bedeutung eines Wortes.

Dieser Prozess wird als Natural Language Processing bezeichnet (NLP)

Auf wikipedia.org:

Zurzeit nutzt Google:

Facebook:

Von der Stanford University:

Stereotype

Die enormen Datenmengen an verarbeitetem Text reproduzieren dabei in der KI die Stereotype, die bereits in unserer Sprache vorhanden sind.

Z.B. das englische geschlechtsneutrale Wort ‚programmer‘. ‚Programmer‘ tritt sehr oft im gleichen Kontext mit ‚he‘ und ‚computer‘ auf. Wohingegen z.B. ’nurse‘ mit ’she‘ und ‚costume‘ in Verbindung steht.

Oder: Europäisch-Amerikanische Namen finden sich in einem ‚positiven‘ Deutungsraum der KI wieder (happy, gift). Wohingegen afrikanisch-amerikanische Namen in einem ’negativen‘ liegen.

„“If you didn’t believe that there was racism associated with people’s names, this shows it’s there,” said Bryson“ in einem Interview (guardian.co.uk)

Die zentrale Studie zu dem Thema ist von 2017:

Die Forschenden (Aylin Caliskan, Joanna Bryson und Arvind Narayanan) präsentieren ihre Studie ebenfalls in einem kurzen Video:

Artikel, die sich mit der Studie beschäftigen:

Bereits 2016 deuteten einige Artikel von technologyreview.com auf den Zusammenhang von Sprache, Sexismus und KIs hin:

Die Lösung?

Via:

Es gibt schon eine Lösung, zumindest für KIs, welche GloVe nutzen: Gender-Neutral GloVe, kurz: GN-GloVE

Die KI korrigiert ihre Vektoren und wird en-stereotypisiert (debiased).

Das sieht dann so aus:

Formulae for gender neutral word embedding
Screenshot aus Learning Gender-Neutral Word Embeddings, Seite 2)

<ironie>Tja, Data-Wissenschaftler und Wissenschaftlerinnen haben es einfach .-) </ironie>

Ich denke, für humane Intelligenzen, die deutsch sprechen, lässt sich ein Teil des kryptischen Screenshots sehr schnell übersetzen: vermeide das generische Maskulinum.

Mein Fazit

Die oben genannte Studie bezieht sich auf die englische Sprache.

„…but things get more gendered [in languages] such as German…“ Aylin Caliskan (popsci.com)

Sprache ist nicht neutral und war es nie. Die Studie über Sprache und KIs zeigt, dass ein Zusammenhang zwischen Sprache und menschlicher Wahrnehmung (Kognition) und menschlichem Denken (z.B. Stereotype) besteht.

„How does bias get into language, do people start making biased associations from the way they are exposed to language? Knowing that will also help us find answers to maybe a less biased future.” Aylin Caliskan (popsci.com)