Ich weiß über Wikipedia und MacKay's Information Theory, Inference, and Learning Algorithms (ist es als Lehrbuch geeignet?). Ein Lehrbuch, das mit Shannons Entropie beginnt und durch bedingte Entropie und gegenseitige Information geht, wird gesucht ... Irgendeine Idee? Wenn Sie einen solchen Kurs an Ihrer Hochschule absolvieren, welches Lehrbuch wird verwendet?Ein gutes Intro zur Informationstheorie, bitte?
Danke.
Yup, so ziemlich der Weg zu gehen. Für eine einführende Behandlung, bleiben Sie bei Kapitel 2. –
Ok, danke. Wenn die Frage "fortgeschrittene Behandlung der Informationstheorie" wäre, was antworten Sie? – lmsasu
Weitere empfohlene Lesungen von meinem Professor hinzugefügt. – Wookai