Dieses interaktive Werkzeug wurde entwickelt, um die Kernkonzepte der Informationstheorie erlebbar zu machen: Entropie, bedingter Informationsgehalt und relative Entropie (KL-Divergenz).
Die exakten Korpus-Statistiken basieren auf rund 200.000 deutschen Wikipedia-Saetzen (~21 Millionen Zeichen), extrahiert aus dem deutschen Wikipedia-Dump. Approximationen wurden anhand eines Trigram-Modells berechnet. Sonderzeichen wurden umgeschrieben (ä→ae, ö→oe, ü→ue, ß→ss). Alle Wahrscheinlichkeiten sind auf das Alphabet a–z konditioniert, ohne Leerzeichen (d.h. bedingt darauf, dass das Wort noch nicht zu Ende ist).
Erstellt mit Claude Opus 4.6 — alle Fehler sind die von Claude. (Luege: Fehler sind allein von Stephan, alle Kritik an ihn unter stephan.eckstein@uni-tuebingen.de)