Showing posts with label Foundations. Show all posts
Showing posts with label Foundations. Show all posts

Tuesday, 27 May 2008

Aussagenlogik (Teil 2)

In Teil 1 wurde die Terminologie und die Syntax der Aussagenlogik besprochen. Um das ganze abzurunden beschäftigen wir uns nun mit dem letzten Teil der Aussagenlogik, der Semantik und dem Tableaux als Beweisverfahren.

In den vorherigen Gesetzen ist eine Formel als φ definiert und die aussagenlogische Belegung als g. Nun gibt es Belegungen die allgemeingültig oder gar unerfüllbar sind. Ersteres nennt man Tautologie (gr. τὸ αὐτό "dasselbe" und λόγος "Wort", "Rede", "Sinn"). "Sinnlos", aber nicht "unsinnig" seien die Tautologien, welche "nichts" bedeuten, schreibt Wittgenstein in seinem Tractatus1. Als Formel wird eine Tautologie folgendermaßen ausgedrückt:

⊨φ

Eine Tautologie ist also unabhängig der Wahrheitswerte ihrer Elemente wahr. Das einfachste Beispiel ist (A ∨ ¬A); Es ist also wahr oder nicht wahr. Das einfachste Beispiel eines Widerspruchs wäre im Umkehrschluss (¬A ∧ A). Shakespeare lässt seinen Hamlet ganz treffend sagen: "Sein oder nicht sein"2 - wobei er wohl noch keine Bekanntschaft mit Schrödingers Katze gemacht hat, denn die kann bekanntlicherweise lebendig und tot zugleich sein3.

Damit wäre nun die Semantik abgeschlossen. Werfen wir noch ein paar Definitionen in den Raum bevor wir überhaupt zu einem anspruchsvollen Beweisverfahren kommen.
Wenn man eine Menge von Formeln hat, definiert als Φ, dann folgt aus dieser Menge eine Formel ψ, wenn die Formel ψ die gleichen Belegungen erfüllt wie die Menge Φ:
Man schreibt dafür Φ ⊨ ψ und nennt die Elemente von Φ die Prämissen und ψ die Konklusion.4 Zum Beispiel ist (A ∧ B) ⊨ (A ∨ B), denn jede Belegung die den ersten Teil der Formel erfüllt, macht auch den zweiten Teil wahr. Sind zwei Formeln gleichwertig, dann spricht man von Äquivalenz. Die einfachste Äquivalenz wäre:

¬¬φ ≡ φ

In Teil 1 haben wir Gebrauch von Tabellen gemacht um die Wahrheitswerte herauszufinden, das ist allerdings zu aufwendig, denn je mehr Elemente eine Formel hat, desto größer (2n um genau zu sein; n = Anzahl der Elemente) wird unsere Tabelle und platzt schließlich aus allen Nähten. Deshalb wurde die Tableaux-Methode entwickelt um in einem Widerlegungsverfahren die Erfüllbarkeit von Formeln der Aussagenlogik zu (be-) widerlegen. Ich verwende hierfür das Beispiel aus Klabunde (et al.).5
Die Frage ist, wie man beweisen kann, dass A ⇒ (B ⇒ A) eine Tautologie ist. Wir wissen, dass eine Formel genau dann allgemeingültig ist, wenn die Negation dieser Formel unerfüllbar ist. Wir benutzen also ein Hintertürchen und beweisen die Unerfüllbarkeit:

¬(A ⇒ (B ⇒ A))

Um diese Aussage also wahr zu machen, muss A ⇒ (B ⇒ A) falsch gemacht werden. Vergegenwärtigen wir uns noch einmal die allgemeine Regel:

I ((φ ⇒ ψ)) = 1, falls I (φ) = 0 oder I (ψ) = 1, sonst I ((φ ⇒ ψ)) = 0

Es muss (B ⇒ A) = 0 (d.h. ¬(B ⇒ A) = 1) und A = 1 sein. Im Tableaux wird es folgendermaßen dargestellt:

1. ¬(A ⇒ (B ⇒ A))
2. A
3. ¬(B ⇒ A)

Zeile 2 kann nicht weiter zerlegt werden, aber Zeile 3 können wir zerlegen in:

4. B
5. ¬A

Oder anders: Damit ¬(B ⇒ A) wahr wird muss B (siehe Zeile 4) wahr und A (siehe Zeile 5) falsch sein. Nun steht in Zeile 2 aber dass A = 1 sein muss und in Zeile 5 steht, dass A = 0 sein muss. Dieser Widerspruch schließt das Tableaux und wir haben bewiesen, dass ¬(A ⇒ (B ⇒ A)) nicht zu erfüllen und damit (A ⇒ (B ⇒ A)) eine Tautologie ist. Die Reihenfolge der Expansionen ist dabei fakultativ. Ein Tableaux ist dann geschlossen, wenn φ als auch ¬φ darin vorkommen. Beweisbar ist eine Formel, wenn ¬φ in ein geschlossenes Tableaux übergeht. Man spricht formal von einem Theorem:

⊦φ

Um eine Tautologie handelt es sich:

wenn ⊦φ dann ⊨ φ

Auch für das Tableaux gibt es allgemeingültige Regeln, so haben wir in Zeile 3 folgendes Schema angewandt:

F→: ¬(φ ⇒ ψ)
________
φ
¬ψ

Diese Regel wird Expansionsregel genannt. Daraus lassen sich natürlich auch andere Expansionsregeln wie:

W: (φ ∧ ψ)
______
φ
ψ

erstellen. Mit dem Problem, dass (φ ∨ ψ) wahr ist, wenn das erste oder das zweite Element wahr ist muss man umgehen indem man im Tableaux eine Verzweigung in der betreffenden Zeile erstellt.

Dass die Möglichkeiten der Aussagenlogik begrenzt ist, habe ich schon Anfangs erwähnt. So ist es zum Beispiel nicht möglich über die Eigenschaften der Objekte zu sprechen. Dies ist das Gebiet der Prädikatenlogik, mit der ich mich demnächst beschäftigen werden. Ein anderes Thema, welches für mich im Moment relevant ist, ist MathML und LaTeX bzw. TeX um mathematische Formeln dazustellen. HTML alleine ist dazu kaum in der Lage.


_

1 Wittgenstein, Ludwig. Tractatus Logico-Philosophicus. These 6.11.
2 Shakespeare, William. Hamlet. 3. Aufzug, 1. Szene.
3 Schrödinger, Erwin. Naturwissenschaften, 48, 807; 49, 823; 50, 844.
4 Klabunde, Ralf (et al.). Computerlinguistik und Sprachtechnologie. 36.
5 Klabunde, Ralf (et al.). Computerlinguistik und Sprachtechnologie. 38ff.

Tuesday, 6 May 2008

Aussagenlogik (Teil 1)

Zunächst ein bisschen Humor, man wird ihn brauchen. Sei kein Pinguin - lern Logik:

Free Image Hosting at www.ImageShack.us

Die Aussagenlogik überprüft eine atomare Aussage auf ihren Wahrheitsgehalt. Eine atomare Aussage ist eine strukturlose, abstrakte Elementaraussage, wie unten beschrieben. Eine Aussage kann wahr oder falsch sein - binär gesprochen 1 oder 0. Man merkt schon, dass die Aussagenlogik nicht den Anspruch erhebt natürlichsprachige Phänomene völlig abzudecken. Abstufungen werden nicht berücksichtigt, dafür gibt es die Fuzzy Logic. Wofür ist also Logik gut? Dafür:

Free Image Hosting at www.ImageShack.us

Es handelt sich eherum ein Formalismus, der zur semantischen Wahrheitswertzuweisung dient und uns, durch die Abstraktion, abhalten soll die Aussagen weiter zu zerlegen und zu interpretieren. Nehmen wir zwei Sätze:

(α) Der Mond dreht sich um die Erde.
(β) Die Erde ist eine Scheibe.

Durch unsere Allgemeinbildung wissen wir, dass A wahr und B falsch ist. Daraus ergibt sich folgende Funktion:


g: {A1, A2, A3, ... } → { 0, 1 }


Natürlich könnten wir beide Aussagen mit einer Konjunktion (z.B. und bzw. oder) verbinden. In der Aussagenlogik gibt es auch solche Konjunktionen, sie heißen Junktoren und verbinden atomare Aussagen:


¬ (Negation, sprich: nicht)

∧ (Konjunktion, sprich: und)

∨ (Disjunktion, sprich: oder)

⇒ (Implikation, sprich: wenn, dann)

⇔ (Äquijunktion, sprich: genau dann, wenn)


Im übrigen lassen sich alle Junktoren mittels ¬ und ∨ ausdrücken. Implikation und Äquijunktion sind einfach nur abgekürzte Schreibweisen, auf deren Herleitung ich nicht besonders eingehen will. Beschäftigen wir uns zunächst mit der Negation. Eine Aussage kann wahr sein, dann muss die Negation dieser Aussage falsch sein und umgekehrt, daraus lässt sich folgende Wahrheitstabelle erstellen, welche alle Möglichkeiten aufzeigt:


α¬α
wahrfalsch
falschwahr


Konkret auf α und β bezogen:

(α) Der Mond dreht sich um die Erde = 1, also (¬α) Der Mond dreht sich nicht um die Erde = 0
(β) Die Erde ist eine Scheibe = 0, also (¬β) Die Erde ist keine Scheibe = 1

Die allgemeingültige Formel dafür ist:

I (¬φ) = 1, falls I (φ) = 0, sonst I (¬φ) = 0

I ist die Interpretationsfunktion für die gilt:

I (Ai) = g (Ai)

Dabei steht φ für die ein atomares Element der Funktion und ψ für ein anderes, unterschiedliches, Element der Funktion. Hier einmal die allgemeingültigen Regeln, welche wir später einzeln abhandeln wollen:


1. I (¬φ) = 1, falls I (φ) = 0, sonst I (¬φ) = 0

2. I ((φ ψ)) = 1, falls I (φ) = 1 und I (ψ) = 1, sonst I ((φ ψ)) = 0

3. I ((φ ψ)) = 1, falls I (φ) = 1 oder I (ψ) = 1, sonst I ((φ ψ)) = 0

4. I ((φ ψ)) = 1, falls I (φ) = 0 oder I (ψ) = 1, sonst I ((φ ψ)) = 0

5. I ((φ ψ)) = 1, falls I (φ) = (ψ), sonst I ((φ ψ)) = 0


Konkretisieren wir das, ab Punkt 2, mit den obigen Beispielen:

(α) Der Mond dreht sich um die Erde.
(β) Die Erde ist eine Scheibe.


2. Konjunktion: Der Mond dreht sich um die Erde und sie ist eine Scheibe. Diese Aussage ist falsch und das obwohl der erste Teil stimmt, aber der zweite Teil der Aussage ist falsch und somit auch die Gesamtaussage. Es müssen beim Junktor ∧ also alle Teilaussagen wahr sein. Daraus ergibt sich folgende Wahrheitswerttabelle:


αβα ∧ β
wahrwahrwahr
falschwahrfalsch
wahrfalschfalsch
falschfalschfalsch


Oder eben folgende allgemeingültige Formel:

I ((φ ψ)) = 1, falls I (φ) = 1 und I (ψ) = 1, sonst I ((φ ψ)) = 0


3. Disjunktion: Der Mond dreht sich um die Erde oder die Erde ist eine Scheibe. Diese Gesamtaussage ist wahr, wenn mindestens eine Teilaussage wahr ist. Beachte, es handelt sich um ein nichtausschließendes Oder. Hier die Wahrheitswerttabelle:


αβα ∨ β
wahrwahrwahr
falschwahrwahr
wahrfalschwahr
falschfalschfalsch


Führt zu folgender Formel:

I ((φ ψ)) = 1, falls I (φ) = 1 oder I (ψ) = 1, sonst I ((φ ψ)) = 0


4. Implikation: Hier stoßen wir auf ein natürlichsprachliches Problem. Lasset das allmächtige Wikipedia sprechen:

Die Lesart „wenn … dann“ ist insofern problematisch, als mit dem natürlichsprachlichen „wenn … dann“ vor allem inhaltliche Zusammenhänge wie Kausalität oder zeitliche Nähe ausgedrückt werden. All das macht die materiale Implikation nicht, sie nennt nur den formalen Zusammenhang: „Dass es regnet, ist eine hinreichende Bedingung dafür, dass die Straße nass ist“. Zur Frage, warum das eine hinreichende Bedingung ist – ob auf Grund eines kausalen Zusammenhangs oder auch nur rein zufällig –, nimmt die materiale Implikation nicht Stellung

Mit unseren obigen Aussagen mag das vielleicht ein Problem sein, deswegen bedienen wir uns den Beispielen von Wikipedia:

(γ) Es regnet.
(δ) Die Straße ist nass.

Beginnen wir diesmal mit der Wahrheitswerttabelle für die Formel:

I ((φ ψ)) = 1, falls I (φ) = 0 oder I (ψ) = 1, sonst I ((φ ψ)) = 0, daraus folgt für unsere Beispiele:


γδγ ⇒ δ
wahrwahrwahr
falschwahrwahr
wahrfalschfalsch
falschfalschwahr


Das heißt für uns, wenn es regnet, ist die Straße nass und wenn die Straße nicht nass ist, regnet es nicht. Falsch wäre zu sagen, weil es nicht regnete, kann die Straße nicht nass sein.


5. Äquijunktion: Aussage A trifft genau dann zu wenn Aussage B zutrifft, dabei ist der allfällige Inhalt der Aussage wurscht, wie Wikipedia es so schön formuliert. Nehmen wir die zwei Aussagen:

(
ε) Heute ist Dienstag.
(
ζ) Morgen ist Mittwoch.

Daraus folgt, dass heute genau Dienstag ist, wenn morgen Mittwoch ist. Wenn morgen nicht Mittwoch ist, ist heute auch nicht Dienstag, ergo:


εζε ⇔ ζ
wahrwahrwahr
falschwahrfalsch
wahrfalschfalsch
falschfalschwahr


Abgeleitet zur Formel:

I ((φ ψ)) = 1, falls I (φ) = (ψ), sonst I ((φ ψ)) = 0



Abschließend möchte ich noch sagen, dass dieser Post auf Klabunde et al. und dem Wikipedia-Artikel Aussagenlogik basiert. Für eine Vertiefung empfehle ich Marcus Spies. Einführung in die Logik. Spektrum. 2004. Hoffentlich habe ich das Buch richtig gelesen, denn es kann natürlich sein, dass ich logische Fehler reingebracht habe. ;-)
Bald gehts weiter mit:

Free Image Hosting at www.ImageShack.us

Wednesday, 23 April 2008

Mengenlehre

Ich lese zur Zeit "Computerlinguistik und Sprachtechnologie. Eine Einführung" in der 2. Auflage von Klabunde (et al.) und habe mir gedacht, dass ich vielleicht ein paar Grundlagen der Computerlinguistik erörtern könnte. Ich fange bei der Mengenlehre an und gehe dann zur Aussagenlogik und Prädikatenlogik über. Es soll eine Serie werden, die wirklich kurz und verständlich auf Grundlagen veingeht, zur Vertiefung empfehle ich entsprechende (mathematische) Fachliteratur. Folgende kurze Zusammenfassung basiert dementsprechend auf Klabunde et al. (2004: 26ff.), manchmal wurde wörtlich zitiert.


1. Einführung

1.1 Mengenbegriff

Die Mengenlehre wurde von Georg Cantor begründet. Unter einer Menge versteht Cantor

[...] jede Zusammenfassung M von bestimmten wohlunterschiedenen Objekten m unserer Anschauung oder unseres Denkens (welche die „Elemente“ von M genannt werden) zu einem Ganzen. (Cantor 1895)

Sprich die Ansammlung von Elementen. Nehmen wir die deutsche Flagge und bezeichnen die Menge ihrer Farben als G. Sie besteht aus den drei Farben schwarz, rot und gold. Als Formel würde man das folgendermaßen schreiben:

G = { schwarz, rot, gold }

Sprich: Die Menge G besteht aus den Elementen schwarz, rot und gold. die Reihenfolge und mehrfaches Vorkommen der einzelnen Elemente ist egal. Die Menge { rot, rot, gold, gold, gold, schwarz } ist also das selbe wie die Menge { schwarz, rot, gold }.


1.2 Beschreibung einer Menge durch Charakteristika

Um eine Menge zu beschreiben muss man aber nicht unbedingt alle Elemente angeben, man kann auch ein Charakteristika angeben. So könnte man zum Beispiel die Menge G anders beschreiben:

G' = { x | x ist eine Farbe der deutschen Flagge }

Damit gilt:

G = G'


1.3 Elemente

Rot ist ein Element der Menge G, dies drückt man folgendermaßen aus:

{ rot } ∈ G

Im Gegensatz dazu ist grün nicht in der deutschen Flagge vorhanden, was man so ausdrückt:

{ grün } ∉ G


1.4 Leere Menge

Wenn eine Menge, warum auch immer, keine Elemente enthält, dann spricht man von der leeren Menge L, zum Beispiel:

G = { x | x ist eine Farbe der deutschen Flagge und auch in der irischen Flagge enthalten }

die irische Flage (hier als Menge I definiert) hat die Farben { grün, weiss, orange }, also gilt:

L = { ∅ }


1.5 Kardinalität

Kardinalität ist die Anzahl der Elemente die eine Menge enthält. In unserem Fall:

|G| = 3



2. Beziehungen von Mengen

2.1 (Echte) Teilmenge

Definieren wir die Menge der ungeraden Zahlen als:

U = { 1, 3, 5, ... }

und die Menge der natürlichen Zahlen als:

ℕ = { 1, 2, 3, ... }

dann ist die Menge U ein Teil der natürlichen Zahlen und damit der Menge ℕ. Wir sprechen von einer Teilmenge:

U ⊆ ℕ

Dies bedeutet, dass jedes Element von U auch Element von ℕ ist. Will man ausdrücken, dass U eine Teilmenge von ℕ ist, aber nicht gleich ℕ, so benutzt man den Begriff der echten Teilmenge:

U ⊂ ℕ


2.2 (Echte) Obermenge

Daraus folgt, dass ℕ die Obermenge von U ist:

ℕ ⊇ U

und natürlich, dass ℕ die echte Obermenge von U ist:

ℕ ⊃ U


2.3 Potenzmenge

Die Potenzmenge (A) einer Menge A ist diejenige Menge, die alle Teilmengen der Menge umfasst (und sich selbst plus die leere Menge), also:

(A) = { X | X ⊆ A }

Im konkreten Fall mit der deutschen Flagge wäre die Potenzmenge von G:

(G) = { ∅, {schwarz}, {rot}, {gold}, {schwarz, rot}, {schwarz, gold}, {rot, gold}, {schwarz, rot gold} }



3. Mengenoperationen

3.1 Vereinigung

Die Vereinigung von zwei Mengen enthält alle Elemente, die in der einen (hier: A) oder in der anderen Menge (hier: B) vorkommen, also:

A B = { x | x ∈ A oder x ∈ B }

konkret heißt das für unser Beispiel mit den natürlichen und ungeraden Zahlen:

U ℕ = ℕ

Alle ungeraden Zahlen kommen auch in den natürlichen Zahlen vor, ist also Teilmenge der natürlichen Zahlen und die Vereinigung damit ℕ. Nehmen wir unser anderes Beispiel mit der deutschen und irischen Flagge:

G ∪ I = { schwarz, rot, gold, grün, weiss, orange }


3.2 Schnitt

Der Schnitt zweier Mengen enthält alle Elemente die sowohl in der einen, als auch in der anderen Menge vorkommen, also:

A B = { x | x ∈ A und x ∈ B }

Konkret bei unserem Flaggenbeispiel:

G ∩ I = { }

Leere Menge, da die beiden Mengen keine gemeinsamen Elemente haben.



3.3 Differenz


Eine Differenz zweier Mengen enthält alle Elemente, die zwar in A vorkommen aber nicht in B, also:

A \ B = { x | x ∈ A und x ∉ B }

Nehmen wir die Flagge des Vereinigten Königreichs ({ blau, rot, weiss } = B), also:

B \ G = { blau, weiss }


3. 4 Komplement

Hat man eine Grundmenge G so ist das Komplement Ā einer Teilmenge A ⊆ G definiert durch:

Ā = G \ A

Konkret für unser beispiel mit den ungeraden und natürlichen Zahlen:

Ū = ℕ \ U

Um es wirklich konkret zu sagen, das Komplement der ungeraden Zahlen sind die geraden Zahlen, also:

Ū = { 2, 4, 6, ... }


3.5 Charakteristische Funktion

Wir haben oben G als Grundmenge und A als eine Teilmenge von G definiert. Die charakteristische Funktion ist deshalb:

CA(x) = {0 x ∉ A
_______{1 x ∈ A


Dadurch kann man Mengenoperation anders beschreiben, z.B.:

CA∩B = CA ⋅ CB


4. Mengengesetze

Im Rahmen von Mengenoperation gelten einige logische Mengengesetze, die ich hier noch erwähnen will.


4.1 Kommunikativgesetz

A B = B A
A B = B A


4.2 Assoziativgesetz

A
(B C) = (A B) C
A (B C) = (A B) C


4.3 Distributivgesetz

A
(B C) = (A B) (A C)
A (B C) = (A B) (A C)


4.4 Gesetze von DeMorgan
_____
(A
O) = (Ā Ō)
_____
(A
O) = (Ā Ō)

Ich hab kein B mit Makron gefunden, also stellt euch vor das O wäre ein B.


5. Schlussbemerkung

Die Mengenlehre braucht man für alle Bereiche der Computerlinuistik und ist notwendiges Arbeitswerkzeug. Ich hoffe ihr freut euch schon auf den nächsten Beitrag über Aussagenlogik, denn das wird richtig knackig.

Saturday, 5 April 2008

Basisarbeit: Co-Evolution von Gehirn und Sprache

Hier ein bisschen Linguistik in klar verständlichen, wenn auch stark vereinfachten, Worten.1 Einige Linguisten gehen davon aus, dass der Mensch von Geburt an die Fähigkeit besitzt zu wissen, dass zum Beispiel der Satz

Tom wirft einen Ball.

im Gegensatz zu

*Der wirft Tom Ball.

korrekt ist. Da Kinder relativ schnell die möglichen Satzkonstruktionen einer Sprache lernen und diese von fehlerhaften differenzieren können, führte dies zur Annahme, dass das Gehirn, evolutionär-genetisch bedingt, fast alleine diese Entwicklung steuert. Berühmtester Vertreter dieser Annahme ist Noam Chomsky, Professor am MIT.

Nun gab es vom 11.03 bis zum 15.03.08 eine Konferenz über die Evolution der Sprache (evolang 2008), bei der die Gegner dieser so genannten Generativisten zur Sprache kamen. Hauptaugenmerk lag dabei auf dem Buch von Terrence Deacon (The Symbolic Species) welches die Meinung vertritt, dass nicht nur das Gehirn und dessen zielgerichtete Evolution dazu beigetragen haben Sätzen eine innere Struktur zu geben, sondern, dass das Gehirn und auch die Sprache selbst in diesen (Strukturierungs-)Prozess eingebunden sind.2
Zu dieser Co-Evolutions These wurden jetzt zwei interessante Studien erstellt. Simon Kirby hat mit Hilfe eines Computers eine Sprache geschaffen deren Sätze keiner festen Struktur (Syntax3) folgen. Ebenso zufällig sind die Wortbedeutungen mit den einzelnen Wörtern und deren Aussprache assoziiert. Diese Sprache wurde dann von einer Person gelernt, welche sie wiederum anderen Personen beigebracht hat und so weiter. Dies soll die nachfolgenden Sprechergenerationen und deren Lernverhalten simulieren. Mit zunehmender Zahl der Generationen hat sich die Sprache - sowohl deren Aussprache, als auch die Struktur - soweit vereinfacht, durch Entwicklung von Regelmäßigkeiten, dass sie einfacher und effizienter weitergegeben werden konnte.4

Meine Kritik an dem Experiment: Ich nehme einmal an, dass die Versuchspersonen keine (P-)Zombies waren, sondern normale Menschen in einem gewissen Alter > 2 Jahren. Ich könnte mir deshalb vorstellen, dass es ein Problem gibt, da diese Menschen zumindest eine Sprache gelernt und damit eine gewisse Grundvorstellung von Satzstruktur haben. Interessant wäre es zu wissen, ob sie die Satzstruktur der neuen Sprache an die Satzstruktur ihrer Muttersprache angepasst haben.

Die zweite Studie wurde von David Gil vorgestellt und behandelt die Sprachlernfähigkeit von Sprechern der indonesischen Riau Sprache. Diese Sprache soll sehr simpel sein und nichtsdestotrotz sind die Sprecher in der Lage, weitaus komplexere Sprachen zu lernen. Daraus schlussfolgerte Gil, dass kein einfacher Zusammenhang zwischen Sprachkomplexität und Gehirnstruktur existiere, genauso wenig wie zwischen Sprachkomplexität und kultureller Komplexität.


Wichtig: Dieser Artikel beruht hauptsächlich auf einem Beitrag auf Babel's Dawn. Für eine Vertiefung und bessere sprachliche und fachliche Qualität empfehle ich den Originalartikel.

_

Anmerkungen:

1 Eine Herausforderung, der ich mich stelle. Einem Linguisten könnte man sagen: "Die Sprache hat ein arbiträres Lautsystem. Die Semen der Lexeme sind arbiträr. Die Sprache hat keine Syntax."

2 Im Prinzip liegt man nicht verkehrt zu sagen, dass je älter die Sprache ist, desto komplizierter ist sie auch. Von der sumerischen Sprache, welche ungefähr 3200 Jahre vor Christus gesprochen wurde, nimmt man an, dass sie 10 unterschiedliche Kasus hatte. Deutlich mehr als im Neuhochdeutschen (Nominativ, Genitiv, Akkusativ, Dativ).

3 Sprich, sie haben keine erkennbares Muster wie zum Beispiel ein typischer Satz im Deutschen:

Tom (Subjekt) baut (Prädikat) ein Haus. (Objekt)

4 Ich meine mich zu erinnern, dass ich etwas ähnliches schon einmal im Zusammenhang mit Pidgin und Kreolisierung gehört habe, bin mir aber nicht sehr sicher. Auf unterschiedlichen Inseln im Pazifik kamen zwei Völker in Handelskontakt und schufen eine so genannte Lingua Franca (Handelssprache), mit der sie handeln konnten. Diese Handelssprache entwickelte sich dann im Laufe der Jahre zu einer eigenen Sprache, welche fast vollständig übernommen wurde. Es bildete sich sogar eine eigene Syntax.