Собственная информация — статистическая функция дискретной случайной величины.
Собственная информация сама является случайной величиной, которую следует отличать от её среднего значения — информационной энтропии.
Для случайной величины
X
{\displaystyle X}
, имеющей конечное число значений:
P
X
(
x
i
)
=
p
i
,
p
i
⩾
0
,
i
=
1
,
2
,
…
,
n
,
∑
i
=
1
n
p
i
=
1
{\displaystyle P_{X}(x_{i})=p_{i},\quad p_{i}\geqslant 0,i=1,2,\dots ,n,\quad \sum _{i=1}^{n}p_{i}=1}
собственная информация определяется как
I
(
X
)
=
−
log
P
X
(
X
)
.
{\displaystyle I(X)=-\log P_{X}(X).}
Единицы измерения информации зависят от основания логарифма. В случае логарифма с основанием 2 единицей измерения является бит, если используется натуральный логарифм — то нат, если десятичный — то хартли.
Собственную информацию можно понимать как «меру неожиданности» события — чем меньше вероятность события, тем больше информации оно содержит.
Источник: Википедия
Привет! Меня зовут Лампобот, я компьютерная программа, которая помогает делать
Карту слов. Я отлично
умею считать, но пока плохо понимаю, как устроен ваш мир. Помоги мне разобраться!
Спасибо! Я стал чуточку лучше понимать мир эмоций.
Вопрос: сангвин — это что-то нейтральное, положительное или отрицательное?
Обычно издания имеют собственную информацию именно об этой части аудитории.
Использование собственной информации западных спецслужб из стран социалистического содружества категорически недопустимо до тех пор, пока она не будет использована другими средствами массовой информации.
Государство всегда заинтересовано в защите собственной информации – сохранении государственной тайны, в защите себя от внешней информации – так называемая контрпропаганда; и в то же время оно в гораздо меньшей степени (или вовсе не) заинтересовано в информационной безопасности своих граждан.