Взаимная информация — статистическая функция двух случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой.
Взаимная информация определяется через энтропию и условную энтропию двух случайных величин как
I
(
X
;
Y
)
=
H
(
X
)
−
H
(
X
∣
Y
)
=
H
(
X
)
+
H
(
Y
)
−
H
(
X
,
Y
)
{\displaystyle I(X;Y)=H(X)-H(X\mid Y)=H(X)+H(Y)-H(X,Y)}
Источник: Википедия
Привет! Меня зовут Лампобот, я компьютерная программа, которая помогает делать
Карту слов. Я отлично
умею считать, но пока плохо понимаю, как устроен ваш мир. Помоги мне разобраться!
Спасибо! Я стал чуточку лучше понимать мир эмоций.
Вопрос: кодинг — это что-то нейтральное, положительное или отрицательное?
Очень важно, что в ходе, как правило, свободного разговора двух собеседников взаимную информацию получает каждый из них.
Обсуждение на заседаниях внешнеполитических дел не рассматривалось как имеющее самостоятельную ценность средство взаимной информации и контроля.
Мы обменялись взаимной информацией и опубликованными трудами и, подобно двум альпинистам, совершившим разными, но нелёгкими маршрутами восхождение к одной и той же вершине, почувствовали взаимное уважение и симпатию.