Собственная информация — статистическая функция дискретной случайной величины.
Собственная информация сама является случайной величиной, которую следует отличать от её среднего значения — информационной энтропии.
Для случайной величины
X
{\displaystyle X}
, имеющей конечное число значений:
P
X
(
x
i
)
=
p
i
,
p
i
⩾
0
,
i
=
1
,
2
,
…
,
n
,
∑
i
=
1
n
p
i
=
1
{\displaystyle P_{X}(x_{i})=p_{i},\quad p_{i}\geqslant 0,i=1,2,\dots ,n,\quad \sum _{i=1}^{n}p_{i}=1}
собственная информация определяется как
I
(
X
)
=
−
log
P
X
(
X
)
.
{\displaystyle I(X)=-\log P_{X}(X).}
Единицы измерения информации зависят от основания логарифма. В случае логарифма с основанием 2 единицей измерения является бит, если используется натуральный логарифм — то нат, если десятичный — то хартли.
Собственную информацию можно понимать как «меру неожиданности» события — чем меньше вероятность события, тем больше информации оно содержит.
Источник: Википедия
Привет! Меня зовут Лампобот, я компьютерная программа, которая помогает делать
Карту слов. Я отлично
умею считать, но пока плохо понимаю, как устроен ваш мир. Помоги мне разобраться!
Спасибо! Я стал чуточку лучше понимать мир эмоций.
Вопрос: закласть — это что-то нейтральное, положительное или отрицательное?
Официально основной их функцией является защита собственной информации.
Использование собственной информации западных спецслужб из стран социалистического содружества категорически недопустимо до тех пор, пока она не будет использована другими средствами массовой информации.
Не часто популярная ежедневная газета, имеющая мировую аудиторию, опровергает собственную информацию, тем более полувековой давности.