Entroy XY
Informationstheorie - Entropie; Zwei Quellen. X Sendequelle und Y Empfängerquelle
information theorie - entropyRelevante Bilder
Relevante Artikel
Bedingte EntropieIn der Informationstheorie ist die bedingte Entropie ein Maß für die „Ungewissheit“ über den Wert einer Zufallsvariablen , welche verbleibt, nachdem das Ergebnis einer anderen Zufallsvariable bekannt wird. Die bedingte Entropie wird geschrieben und hat einen Wert zwischen 0 und , der ursprünglichen Entropie von . Sie wird in der gleichen Maßeinheit wie die Entropie gemessen. .. weiterlesen
TransinformationTransinformation oder gegenseitige Information ist eine Größe aus der Informationstheorie, die die Stärke des statistischen Zusammenhangs zweier Zufallsgrößen angibt. Die Transinformation wird auch als Synentropie bezeichnet. Im Gegensatz zur Synentropie einer Markov-Quelle erster Ordnung, welche die Redundanz einer Quelle zum Ausdruck bringt und somit minimal sein soll, stellt die Synentropie eines Kanals den mittleren Informationsgehalt dar, der vom Sender zum Empfänger gelangt und somit maximal sein soll. .. weiterlesen
ÄquivokationÄquivokation ist die Information, die bei der Übertragung über einen Kanal zwischen einer Informationsquelle (Sender) und einer Informationssenke (Empfänger) verloren geht. Der Terminus ist in diesem Zusammenhang als Informationsgehalt zu verstehen und geht auf die Informationstheorie von Claude Shannon zurück, welcher die Grundlagen für diese in den 1940er Jahren legte. Der abstrakte Begriff eines „Informationskanals“ kann sich in praktischen Realisierungen über den Ort oder über die Zeit erstrecken. .. weiterlesen