← Zurueck zum Ratespiel

Quellen und Hintergrund

Materialien zum Vortrag ueber Informationstheorie und Shannons Ratespiel

Vortragsfolien (als PDF oeffnen)

Slides anzeigen
-/-

Ueber dieses Ratespiel

Dieses interaktive Werkzeug wurde entwickelt, um die Kernkonzepte der Informationstheorie erlebbar zu machen: Entropie, bedingter Informationsgehalt und relative Entropie (KL-Divergenz).

Die exakten Korpus-Statistiken basieren auf rund 200.000 deutschen Wikipedia-Saetzen (~21 Millionen Zeichen), extrahiert aus dem deutschen Wikipedia-Dump. Approximationen wurden anhand eines Trigram-Modells berechnet. Sonderzeichen wurden umgeschrieben (ä→ae, ö→oe, ü→ue, ß→ss). Alle Wahrscheinlichkeiten sind auf das Alphabet a–z konditioniert, ohne Leerzeichen (d.h. bedingt darauf, dass das Wort noch nicht zu Ende ist).

Erstellt mit Claude Opus 4.6 — alle Fehler sind die von Claude. (Luege: Fehler sind allein von Stephan, alle Kritik an ihn unter stephan.eckstein@uni-tuebingen.de)

Primaerquellen

Claude E. Shannon (1951): “Prediction and Entropy of Printed English”
Das Originalexperiment, auf dem dieses Ratespiel basiert. Shannon liess Versuchspersonen englische Texte Buchstabe fuer Buchstabe erraten und nutzte die Ergebnisse, um die Entropie der englischen Sprache abzuschaetzen.
IEEE Xplore
Claude E. Shannon (1948): “A Mathematical Theory of Communication”
Die Gruendungsarbeit der Informationstheorie. Fuehrt Entropie, Kanalkapazitaet und alle wesentlichen Grundbegriffe ein.
PDF (Harvard)

Lehrbuch

David J.C. MacKay: “Information Theory, Inference, and Learning Algorithms”
Hervorragendes Lehrbuch, das Informationstheorie mit maschinellem Lernen und Bayes’scher Statistik verbindet. Kostenlos online verfuegbar.
Kostenloses PDF (640 Seiten) · Buch-Website