В
Все
М
Математика
А
Английский язык
Х
Химия
Э
Экономика
П
Право
И
Информатика
У
Українська мова
Қ
Қазақ тiлi
О
ОБЖ
Н
Немецкий язык
Б
Беларуская мова
У
Українська література
М
Музыка
П
Психология
А
Алгебра
Л
Литература
Б
Биология
М
МХК
О
Окружающий мир
О
Обществознание
И
История
Г
Геометрия
Ф
Французский язык
Ф
Физика
Д
Другие предметы
Р
Русский язык
Г
География
marshmelloy36
marshmelloy36
20.06.2022 22:47 •  Информатика

Сообщение о том,что произошло одно из четырёх равновероятных событий,несёт информации

Показать ответ
Ответ:
dogs91
dogs91
28.09.2020 15:18
Энтропия системы H=-∑Pi*log_2(Pi)
В нашем случае i=4, P1=P2=P3=P4=1/4, и тогда  H=-4*1/4*log_2(1/4)=-(-2)=2 дв.ед.
Значит, при выяснении состояния системы получена информация 2 дв.ед., или 2 бита. 

ответ: 2 бита.
0,0(0 оценок)
Ответ:
лола269
лола269
28.09.2020 15:18
По формуле Шеннона - x = log2(1/p), где p - вероятность события, x - количество бит информации, необходимое для кодирования.
Так как количество событий 4, то p = 1/4.
Тогда x = log2(1/(1/4)) = log2(4) = 2.
Получаем x = 2 бита.
ответ: 2 бита.
0,0(0 оценок)
Популярные вопросы: Информатика
Полный доступ
Позволит учиться лучше и быстрее. Неограниченный доступ к базе и ответам от экспертов и ai-bota Оформи подписку
logo
Начни делиться знаниями
Вход Регистрация
Что ты хочешь узнать?
Спроси ai-бота