Разделы: Информатика
Материал разработан на 2 спаренных урока.
Цели уроков: Сформировать у учащихся понимание вероятности, равновероятных событий и событий с различными вероятностями. Научить находить количество информации, используя вероятностный подход. Создать в Excel информационную модель для автоматизации процесса вычислений в задачах на нахождение количества информации, используя формулу Шеннона.
Требования к знаниям и умениям:
Учащиеся должны знать:
- какие события являются равновероятными, какие неравновероятными;
- как найти вероятность события;
- как найти количество информации в сообщении, что произошло одно из неравновероятных событий;
- как найти количество информации в сообщении, когда возможные события имеют различные вероятности реализации.
Учащиеся должны уметь:
- различать равновероятные и неравновероятные события;
- находить количество информации в сообщении, что произошло одно из равновероятных событий или одно из не равновероятных событий;
- создать информационную модель для автоматизации процесса решения задач на нахождение количества информации с помощью прикладных программ.
Оборудование: доска, компьютер, мультимедийный проектор, карточки с заданиями, карточки-памятки, справочный материал.
Урок 1. Вероятностный подход к определению количества информации. Формула Шеннона
Ход урока
I. Организационный момент.
II. Проверка домашнего задания.
III. Постановка цели урока.
Задача: Какое сообщение содержит большее количество информации?
- Отв.: 3 бит.)
- Вася получил за экзамен оценку 4 (по 5-бальной системе единицы не ставят). (Отв.: 2 бит.)
- Отв.: 1 бит.)
- Бабушка испекла 8 пирожков с капустой, 16 пирожков с повидлом. Маша съела один пирожок.
Первые три варианта учащиеся решают без затруднения. События равновероятны, поэтому можно применить для решения формулу Хартли. Но третье задание вызывает затруднение. Делаются различные предположения. Роль учителя: подвести учащихся к осмыслению, что в четвертом варианте мы сталкиваемся с ситуацией, когда события неравновероятны. Не все ситуации имеют одинаковые вероятности реализации. Существует много таких ситуаций, у которых вероятности реализации различаются. Например, если бросают несимметричную монету или "правило бутерброда".
Сегодня на уроке мы должны ответить на вопрос: как вычислить количество информации в сообщении о неравновероятном событии.
IV. Объяснение нового материала.
Для вычисления количества информации в сообщении о неравновероятном событии используют следующую формулу: I= log 2 (1/ p)
где I – это количество информации, р – вероятность события.
Вероятность события выражается в долях единицы и вычисляется по формуле: р= K/ N,
где К – величина, показывающая сколько раз произошло интересующее нас событие, N – общее число возможных исходов какого-то процесса.
Вернемся к нашей задаче.
Пусть К 1 – это количество пирожков с повидлом, К 1 =24
К 2 – количество пирожков с капустой, К 2 =8
N – общее количество пирожков, N = К 1 +К 2 =24+8=32
Вычислим вероятность выбора пирожка с разной начинкой и количество информации, которое при этом было получено.
Вероятность выбора пирожка с повидлом: р 1 =24/32=3/4=0,75.
Вероятность выбора пирожка с капустой: р 2 =8/32=1/4=0,25.
Обращаем внимание учащихся на то, что в сумме все вероятности дают 1.
Вычислим количество информации, содержащееся в сообщении, что Маша выбрала пирожок с повидлом: I 1 = log 2 (1/ p 1)= log 2 (1/0,75)= log 2 1,3=1,15470 бит.
Вычислим количество информации, содержащееся в сообщении, если был выбран пирожок с капустой: I 2 = log 2 (1/ p 2)= log 2 (1/0,25)= log 2 4=2 бит.
Пояснение: если учащиеся не умеют вычислять значение логарифмической функции, то можно использовать при решении задач этого урока следующие приемы:
- Ответы давать примерные, задавая ученикам следующий вопрос: «В какую степень необходимо возвести число 2, чтобы получилось число, стоящее под знаком логарифма?».
- Применить таблицу из задачника-практикума под редакцией Семакина И.Г. и др.
Приложение 1. «Количество информации в сообщении об одном из N равновероятных событий: I= log 2 N». (Приложение вы можете получить у автора статьи. )
При сравнении результатов вычислений получается следующая ситуация: вероятность выбора пирожка с повидлом больше, чем с капустой, а информации при этом получилось меньше. Это не случайность, а закономерность.
Качественную связь между вероятностью события и количеством информации в сообщении об этом событии можно выразить так: чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии.
Вернемся к нашей задаче с пирожками. Мы еще не ответили на вопрос: сколько получим информации при выборе пирожка любого вида?
Ответить на этот вопрос нам поможет формула вычисления количества информации для событий с различными вероятностями, которую предложил в 1948 г. американский инженер и математик К.Шеннон.
Если I -количество информации, N -количество возможных событий, р i - вероятности отдельных событий, где i принимает значения от 1 до N, то количество информации для событий с различными вероятностями можно определить по формуле:
можно расписать формулу в таком виде:
Рассмотрим формулу на нашем примере:
I = - (р 1 ∙log 2 p 1 + р 2 ∙log 2 p 2)= - (0,25∙ log 2 0,25+0,75∙ log 2 0,75)≈-(0,25∙(-2)+0,75∙(-0,42))=0,815 бит
Теперь мы с вами можем ответить на вопрос задачи, которая была поставлена в начале урока. Какое сообщение содержит большее количество информации?
- В библиотеке 8 шкафов. Книга нашлась в 3-м шкафу; (Отв.: 3 бит.)
- Вася получил за экзамен 3 балла (по 5-бальной системе единицы не ставят). (Отв.: 2 бит.)
- Бабушка испекла 12 пирожков с капустой, 12 пирожков с повидлом. Маша съела один пирожок. (Отв.: 1 бит.)
- Бабушка испекла 8 пирожков с капустой, 16 пирожков с повидлом. Маша съела один пирожок. (Отв.: 0,815 бит.)
Ответ : в 1 сообщении.
Обратите внимание на 3 и 4 задачу. Сравните количество информации.
Мы видим, что количество информации достигает максимального значения, если события равновероятны.
Интересно, что рассматриваемые нами формулы классической теории информации первоначально были разработаны для технических систем связи, призванных служить обмену информацией между людьми. Работа этих систем определяется законами физики т.е. законами материального мира. Задача оптимизации работы таких систем требовала, прежде всего, решить вопрос о количестве информации, передаваемой по каналам связи. Поэтому вполне естественно, что первые шаги в этом направлении сделали сотрудники Bell Telephon Companie – X. Найквист, Р. Хартли и К. Шеннон. Приведенные формулы послужили К. Шеннону основанием для исчисления пропускной способности каналов связи и энтропии источников сообщений, для улучшения методов кодирования и декодирования сообщений, для выбора помехоустойчивых кодов, а также для решения ряда других задач, связанных с оптимизацией работы технических систем связи. Совокупность этих представлений, названная К. Шенноном “математической теорией связи”, и явилась основой классической теории информации. (Дополнительный материал можно найти на сайте http://polbu.ru/korogodin_information или прочитав книгу В.И. Корогодин, В.Л. Корогодина. Информация как основа жизни. Формула Шеннона. )
Можно ли применить формулу К. Шеннона для равновероятных событий?
Если p 1 =p 2 =..=p n =1/N, тогда формула принимает вид:
Мы видим, что формула Хартли является частным случаем формулы Шеннона.
V . Закрепление изучаемого материала.
Задача: В корзине лежат 32 клубка красной и черной шерсти. Среди них 4 клубка красной шерсти.
Сколько информации несет сообщение, что достали клубок красной шерсти? Сколько информации несет сообщение, что достали клубок шерсти любой окраски?
Дано: К к =4;N=32
Найти: I к, I
Решение:
Ответ : I к =3 бит; I=0,547 бит
VI . Подведение итогов урока.
- Объясните на конкретных примерах отличие равновероятного события от неравновероятного?
- С помощью какой формулы вычисляется вероятность события.
- Объясните качественную связь между вероятностью события и количеством информации в сообщении об этом событии.
- В каких случаях применяется формула Шеннона для измерения количества информации.
- В каком случае количество информации о событии достигает максимального значения.
Урок 2. Применение ЭТ Excel для решения задач на нахождение количества информации
Пояснение: При решении задач на нахождение количества информации учащиеся не вычисляли значение логарифма, т.к. не знакомы с логарифмической функцией. Урок строился таким образом: сначала решались однотипные задачи с составлением формул, затем разрабатывалась табличная модель в Excel, где учащиеся делали вычисления. В конце урока озвучивались ответы к задачам.
Ход урока
I . Постановка целей урока
На этом уроке мы будем решать задачи на нахождение количества информации в сообщении о неравновероятных событиях и автоматизируем процесс вычисления задач данного типа.
Для решения задач на нахождение вероятности и количества информации используем формулы, которые вывели на прошлом уроке:
р
i
=K i /N; I i =log 2 (1/p i);
II . Решение задач.
Ученикам дается список задач, которые они должны решить.
Задачи решаются только с выводами формул, без вычислений.
Задача №1
В озере обитает 12500 окуней, 25000 пескарей, а карасей и щук по 6250. Какое количество информации несет сообщение о ловле рыбы каждого вида. Сколько информации мы получим, когда поймаем какую-нибудь рыбу?
Дано: К о =12500; К п =25000; К к = К щ =6250
Найти: I о , I п , I к , I щ , I
Решение:
- Найдем общее количество рыбы: N = К о +К п +К к +К щ.
- Найдем вероятность ловли каждого вида рыбы: p о = К о / N ; p п = К п / N ; p к = p щ = К к / N .
- Найдем количество информации о ловле рыбы каждого вида: I о = log 2 (1/ p о ); I п = log 2 (1/ p п ); I к = I щ = log 2 (1/ p к )
- Найдем количество информации о ловле рыбы любого вида: I = p о ∙ log 2 p о + p п ∙ log 2 p п + p к ∙ log 2 p к + p щ ∙ log 2 p щ
III . Объяснение нового материала.
Задается вопрос ученикам:
1. Какие трудности возникают при решении задач данного типа? (Отв. : Вычисление логарифмов).
2. Нельзя ли автоматизировать процесс решения данных задач? (Отв. : можно, т.к. алгоритм вычислений в этих задачах один и тот же).
3. Какие программы используются для автоматизации вычислительного процесса? (Отв.: ЭТ Excel).
Давайте попробуем сделать табличную модель для вычисления задач данного типа.
Нам необходимо решить вопрос, что мы будем вычислять в таблице. Если вы внимательно присмотритесь к задачам, то увидите, что в одних задачах надо вычислить только вероятность событий, в других количество информации о происходящих событиях или вообще количество информации о событии.
Мы сделаем универсальную таблицу, где достаточно занести данные задачи, а вычисление результатов будет происходить автоматически.
Структура таблицы обсуждается с учениками. Роль учителя обобщить ответы учащихся.
При составлении таблицы мы должны учитывать:
- Ввод данных (что дано в условии).
- Подсчет общего количества числа возможных исходов (формула N=K 1 +K 2 +…+K i).
- Подсчет вероятности каждого события (формула p i = К i /N).
- Подсчет количества информации о каждом происходящем событии (формула I i = log 2 (1/p i)).
- Подсчет количества информации для событий с различными вероятностями (формула Шеннона).
Прежде чем демонстрировать заполнение таблицы, учитель повторяет правила ввода формул, функций, операцию копирования (домашнее задание к этому уроку).
При заполнении таблицы показывает как вводить логарифмическую функцию. Для экономии времени учитель демонстрирует уже готовую таблицу, а ученикам раздает карточки-памятки по заполнению таблицы.
Рассмотрим заполнение таблицы на примере задачи №1.
Рис. 1. Режим отображения формул
Рис. 2. Отображение результатов вычислений
Результаты вычислений занести в тетрадь.
Если в решаемых задачах количество событий больше или меньше, то можно добавить или удалить строчки в таблице.
VI . Практическая работа .
1 . Сделать табличную модель для вычисления количества информации.
2 . Используя табличную модель, сделать вычисления к задаче №2 (рис.3), результат вычисления занести в тетрадь.
Рис. 3
3 . Используя таблицу-шаблон, решить задачи №3,4 (рис.4, рис.5), решение оформить в тетради.
Рис. 4
Задача №2
В классе 30 человек. За контрольную работу по информатике получено 15 пятерок, 6 четверок, 8 троек и 1 двойка. Какое количество информации несет сообщение о том, что Андреев получил пятерку?
Задача№3
В коробке лежат кубики: 10 красных, 8 зеленых, 5 желтых, 12 синих. Вычислите вероятность доставания кубика каждого цвета и количество информации, которое при этом будет получено.
Задача№4
В непрозрачном мешочке хранятся 10 белых, 20 красных, 30 синих и 40 зеленых шариков. Какое количество информации будет содержать зрительное сообщение о цвете вынутого шарика?
VII . Подведение итогов урока.
Учитель оценивает работу каждого ученика. Оценивается не только практическая работа на компьютере, но и оформление решения задачи в тетради.
VIII. Домашняя работа.
1. Параграф учебника «Формула Шеннона», компьютерный практикум после параграфа.
2. Доказать, что формула Хартли – частный случай формулы Шеннона.
Литература:
- Соколова О.Л. «Универсальные поурочные разработки по информатике. 10-й класс.» – М.: ВАКО, 2007.
- Угринович Н.Д. «Информатика и ИКТ. Профильный уровень. 10 класс» - Бином, Лаборатория знаний, 2007 г.
- Семакин И.Г., Хеннер Е.К. «Информатика. Задачник – практикум.» 1 том, - Бином, Лаборатория знаний, 2008 г.
Своё дальнейшее развитие теория информации получила в работах Клода Шеннона, американского инженера и математика (1916 – 2001). Шеннон является одним из создателей математической теории информации. Его основные труды посвящены теории релейно-контактных схем, математической теории связи, кибернетике. К. Шеннон изучал вопросы передачи информации в телеграфии, телефонии или радиовещании в виде сигналов электромагнитных колебаний. Одна из задач, которую ставил перед собой К. Шеннон, заключалась в том, чтобы определить систему кодирования, позволяющую оптимизировать скорость и достоверность передачи информации. Так как в годы войны он служил в шифровальном отделе, где занимался разработкой криптографических систем, то это позже помогло ему открыть методы кодирования с коррекцией ошибок. В своих работах 1948-1949 годов К. Шеннон определил количество информации через энтропию - величину, известную в термодинамике и статистической физике как мера разупорядоченности системы, а за единицу количества информации принял то, что впоследствии назвали битом (bit).
Для дальнейшего изложения необходимо использовать некоторые понятия теории вероятности: случайное событие, опыт, вероятность события, случайная величина. В окружающем нас мире происходят различные события, причём мы можем интуитивно, основываясь на опыте, оценивать одни из них как более возможные, чем другие. Случайным называют событие, которое может наступить или не наступить в результате некоторого испытания, опыта или эксперимента. Будем обозначать события заглавными буквами A, B,Cи т.д. Количественная мера возможности наступления некоторого событияAназывается его вероятностью и обозначается какp(A),p– от английского probability. Чем более возможно наступление случайного события, тем больше его вероятность: еслиAболее возможно чемB, то p(A) > p(B). Вводится понятие достоверного события – событие, которое обязательно наступит. Это событие обозначаюти полагают, что его вероятностьp() = 1. Невозможным называют событие, которое никогда не произойдёт. Его обозначаюти полагают, что его вероятностьp() = 0. Для вероятностей всех остальных событий A выполняется неравенствоp() < p(A)
Для событий вводится понятие суммы и произведения. Сумма событий A+B – это событие, которое состоит в наступлении события A или В. Произведение событий A*B состоит в одновременном наступлении события A и B. События AиBнесовместны , если они не могут наступить вместе в результате одного испытания. Вероятность суммы несовместных событий равна сумме их вероятностей. Если А и В несовместные события, то p(A+B) = p(A) + p(B).
События A1, A2, A3, …Anобразуютполную группу , если в результате опыта обязательно наступит хотя бы одно из них. Если события A1, A2, A3, …Anпопарно несовместны и образуют полную группу, то сумма их вероятностей p1+p2+p3+ ….pn=1. Если они при этом ещё и равновероятны, то вероятность каждого равнаp= 1/n, гдеn– число событий.Вероятность события определяется как отношение числа благоприятных событию исходов опыта к общему числу исходов.Частота события – эмпирическое приближение его вероятности. Она вычисляется в результате проведения серии опытов как отношение числа опытов, в которых событие наступило к общему числу опытов. При большом числе опытов (испытаний) частота события стремится к его вероятности.
К. Шеннон, используя подход Р. Хартли, обратил внимание на то, что при передаче словесных сообщений частота (вероятность) использования различных букв алфавита не одинакова: некоторые буквы используются очень часто, другие - редко.
Рассмотрим алфавит
A m состоящий изmсимволов. Обозначим черезp i вероятность (частоту) появления i-ого
символа в любой позиции передаваемого
сообщения, состоящего из n символов.
Один i – ый символ алфавита несёт
количество информации равное -Log 2 (p i).
Перед логарифмом стоит «минус» потому,
что количество информации величина
неотрицательная, а Log 2 (x) <0 при
0 На месте каждого
символа в сообщении может стоять любой
символ алфавита A m ;
количество информации, приходящееся
на один символ сообщения, равно среднему
значению информации по всем символам
алфавита A m: Общее количество
информации, содержащееся в сообщении
из n символов равно: Если все символы
алфавита A m появляются с равной
вероятностью, то все p i = p. Так какр i = 1, то p =
1/m. Формула (3.2) в
случае, когда все символы алфавита
равновероятны, принимает вид Вывод: формула
Шеннона (3.2) в случае, когда все символы
алфавита равновероятны, переходит в
формулу Хартли (2.2). В общем случае
количество энтропии Hпроизвольной системы X (случайной
величины), которая может находиться в
m различных состояниях x 1 ,x 2 ,
…x m cвероятностями p 1 ,p 2 , …p m , вычисленное по формуле Шеннона, равно Напомним, что p 1 +p 2 + … +p m = 1. Если все p i одинаковы, то все
состояния системы X равновероятны; в
этом случае p i = 1/m, и формула (3.3)
переходит в формулу Хартли (2.5):H(X)
=Log 2 (m). Замечание.
Количество энтропии системы (случайной
величины) Х не зависит от того, в каких
конкретно состояниях x 1 ,x 2 ,
…x m может находиться система, но зависит
от числаmэтих состояний
и от вероятностей p 1 ,p 2 ,
…p m , с которыми система может находиться
в этих состояниях. Это означает, что две
системы, у которых число состояний
одинаково, а вероятности этих состояний
p 1 ,p 2 , …p m равны (с точностью до порядка перечисления),
имеют равные энтропии. Теорема.
Максимум энтропии H(X) достигается в том
случае, когда все состояния системы
равновероятны. Это означает, что Если система X
может находиться только в одном состоянии
(m=1), то её энтропия равна нулю. Рассмотрим
систему, которая может принимать только
два состояния x1 и x2 с вероятностями p1
иp2: Количество энтропии
такой системы равно H(X) = -
(1/2*Log 2 (1/2)+
1/2*Log 2 (1/2))
= -Log 2 (1/2)
= Log 2 (2)
= 1 Это количество
принимается за единицу измерения
энтропии (информации) и называется 1
бит (1 bit). Рассмотрим функцию h(x) =
-(x*log 2 (x)
+ (1-x)*log 2 (1-x)).
(3.5) Область её
определения – интервал (0 ;1), Limh(x) = 0 приx0 или 1. График этой функции представлен
на рисунке: Рис.
4. График
функции (3.5) Если обозначить
x через p 1 , а (1-x) через p 2 , тоp 1 +p 2
=1;p 1 ,p 2
(0;1), h(x) = H(p 1 ,p 2) = - (p 1 *log 2 (p 1)
+ (p 2)*log 2 (p 2))
– энтропия системы с двумя состояниями;
максимум H достигается приp 1 =p 2 = 0.5. График h(x) можно
использовать при решении следующих
задач: Задача 1. Заданы
три случайных величины X, Y, Z, каждая из
которых принимает по два значения с
вероятностями: P(X=x1) = 0.5; P(X=x2) = 0.5; P(Y=y1) = 0.2;P(Y=y2)
= 0.8; P(Z=z1) = 0.3;
P(Z=z2)
= 0.7 . Запись P(X=x1) = 0.5 означает, что
случайная величина X принимает значение
x1 с вероятностью 0.5. Требуется расположить
энтропии этих систем в порядке возрастания. Решение. Энтропия
H(X) равна 1 и будет наибольшей; энтропия
H(Y) равна значению функции h(x),
см. (3.5), приx= 0.2, т.е.H(Y)=h(0.2);
энтропияH(Z)
=h(0.3). По графику h(x) можно
определить, что h(0.2) < h(0.3). Следовательно,
H(Y) < H(Z) < H(X). Замечание 1.
Энтропия системы тем больше, чем менее
отличаются вероятности её состояний
друг от друга. На основании этого можно
сделать вывод, что H(Y) < H(Z). Например,
если для систем X и Y с тремя состояниями
заданы вероятности: дляX{0.4; 0.3; 0.3}, дляY{0.1; 0.1; 0.8},
то очевидно, что неопределённость
системыXбольше, чем
неопределённость системыY:
у последней, скорее всего, будет
реализовано состояние, вероятность
которого равна 0.8 . Энтропия H(X)
характеризует степень неопределённости
системы. Чем больше объём полученных о
системе сведений, тем больше будет
информации о системе, и тем менее
неопределённым будет её состояние для
получателя информации. Если энтропия
системы после получения информации
становится равной нулю, это означает,
что неопределённость исчезла, вся
энтропия «перешла» в информацию. В этом
случае говорят, что была получена полная
информацию о системе X.Количество информации, приобретаемое
при полном выяснении состояния физической
системы, равно энтропии этой системы.
Если после получения
некоторого сообщения неопределённость
системы Xстала меньше,
но не исчезла совсем, то количество
информации, содержащееся в сообщении,
равно приращению энтропии: I = H1(X) - H2(X),
(3.6) где H1(X) и H2(X) -
энтропия системы до и после сообщения,
соответственно. Если H2(X) = 0, то мера
неопределённости системы равна нулю и
была получена полная информация о
системе. Пример. Вы хотите
угадать количество очков, которое
выпадет на игральном кубике. Вы получили
сообщение, что выпало чётное число
очков. Какое количество информации
содержит это сообщение? Решение. Энтропия
системы «игральный кубик» H1 равна Log 2 6,
т.к. кубик может случайным образом
принять шестьравновозможных
состояний {1, 2, 3, 4, 5, 6}. Полученное сообщение
уменьшает число возможных состояний
до трёх: {2, 4, 6}, т.е. энтропия системы
теперь равна H2= Log 2 3. Приращение
энтропии равно количеству полученной
информации I = H1 – H2 = Log 2 6 - Log 2 3
= Log 2 2 = 1bit. На примере
разобранной задачи можно пояснить одно
из распространённых определений единицы
измерения – 1 бит: 1 бит - количество
информации, которое уменьшает
неопределённость состояния системы в
два раза.
Неопределённость дискретной
системы зависит от числа её состоянийN. Энтропия до получения
информацииH1= Log 2 N. Если после получения
информации неопределённость уменьшилась
в два раза, то это означает, что число
состояний стало равнымN/2,
а энтропияH2 =Log 2 N/2. Количество полученной
информацииI= H1 -H2
=Log 2 N-Log 2 N/2
=Log 2 2 = 1 бит. Рассмотрим несколько
задач на применение формулы Шеннона и
Хартли. Задача 2.
Может
ли энтропия системы, которая принимает
случайным образом одно из 4-х состояний,
равняться: а) 3; б) 2.1 в) 1.9 г) 1; д) 0.3? Ответ
объяснить. Решение.
Максимально возможное значение энтропия
системы с 4-мя состояниями достигает в
случае, когда все состояния равновероятны.
Это значение по формуле Хартли равноLog 2 4 = 2 бита. Во всех
других случаях энтропия системы с 4-мя
состояниями будет меньше 2. Следовательно,
возможными значениями энтропии из
перечисленных выше, могут быть значения
1.9, 1, 0.3. Задача 3.
Задана
функцияH(x)=
-x*Log 2 (x)
- (1-x)*Log 2 (1-x).
Расположите в порядке возрастания
следующие значения:H(0.9),H(0.85),H(0.45),H(0.2),H(0.15). Решение.
Используем график функции (3.5). Наибольшим
значением будет H(0.45), наименьшим значением
– H(0.9), затем по возрастанию идут значенияH(0.15) иH(0.85)
= H(0.15); H(0.2). Ответ:H(0.9) Задача 4.
По
линии связи переданы сообщения:a)
«начало_в_10»;b) «лоанча_1_в0».
Сравните количество информации в первом
и втором сообщении. Решение.
Первое
и второе сообщение состоят из одних и
тех же символов: второе получено из
первого в результате перестановки этих
символов. В соответствии с формулой
Шеннона эти сообщения содержат одинаковое
количество информации. При этом первое
сообщение несёт содержательную
информацию, а второе – простой набор
символов. Однако, в этом случае можно
сказать, что второе сообщение является
«зашифрованным» вариантом первого, и
поэтому количество информации в обоих
сообщениях одинаковое. Задача 5.
Получены
три различных сообщенияA,B,C: A=
«прибытие в десять часов»;B=
«прибытие в десять часов ноль минут»;C= «прибытие ровно в десять
часов». Используя энтропийный подход
Шеннона, сравните количество информации,
содержащееся в этих сообщениях. Решение.
Обозначим количество информации в
сообщениях A, B, C черезI(A),I(B),I(C)
соответственно. В смысле «содержания»
эти сообщения совершенно одинаковы, но
одинаковое содержание выражено с помощью
разного количества символов. При этом
все символы сообщения А содержатся в
сообщении B и С, сообщение С = A + «ровно»,
В = A + «ноль минут»; в соответствии с
подходом Шеннона получаем: I(A) < I(C) <
I(B). (Claude Elwood Shannon, 30 апреля 1916 - 24 февраля 2001) - американский математик и электротехник, один из создателей математической теории информации, в значительной мере предопределил своими результатами развитие общей теории дискретных автоматов, которые являются важными составляющими кибернетики. В 1936 году закончил Мичиганский университет. После защиты диссертации (1940) в 1941 году поступил на работу в знаменитые Лаборатории Белла. С 1956 года преподавал в МТИ. Большую ценность представляет другая работа - Communication Theory of Secrecy Systems (1949), в которой сформулированы математические основы криптографии. С 1956 - член Национальной академии наук США и Американской академии искусств и наук Передается в виде сообщений от некоторого источника информации к ее приемнику посредством канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приемнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением. Передача информации по каналам связи часто сопровождается воздействием помех, вызывающих искажение и потерю информации. В определенных, весьма широких условиях можно пренебречь качественными особенностями информации, выразить ее количество числом, то есть измерить информацию. В настоящее время получили распространение подходы к определению понятия;количество информации;, основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле ее новизны или, иначе, уменьшения неопределенности наших знаний об объекте. Так, американский инженер Р. Хартли в 1928 году, процесс получения информации рассматривает как выбор одного сообщения из конечного наперед заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определяет как двоичный логарифм N. I=- (p1 log2 p1 + p2 log2 p2 + … + pN log2 pN) где pi - вероятность того, что именно i-е сообщение выделено в наборе из N сообщений. Легко заметить, что если вероятности p1, …, pN равны, то каждая из них равна 1/N, и формула Шеннона превращается в формулу Хартли. Помимо двух рассмотренных подходов к определению количества информации, существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определенному кругу случаев, очерченному первоначальными допущениями. В качестве единицы информации условились принять один бит (английский bit - binary, digit - двоичная цифра). Бит в теории информации - количество информации, необходимое для различения двух равновероятных сообщений. А в вычислительной технике битом называют наименьшую;порцию; памяти, необходимую для хранения одного из двух знаков «0» и «1», используемых для внутримашинного представления данных и команд. Своё дальнейшее развитие теория информации получила в работах Клода Шеннона, американского инженера и математика (1916 – 2001). Шеннон является одним из создателей математической теории информации. Его основные труды посвящены теории релейно-контактных схем, математической теории связи, кибернетике. К. Шеннон изучал вопросы передачи информации в телеграфии, телефонии или радиовещании в виде сигналов электромагнитных колебаний. Одна из задач, которую ставил перед собой К. Шеннон, заключалась в том, чтобы определить систему кодирования, позволяющую оптимизировать скорость и достоверность передачи информации. Так как в годы войны он служил в шифровальном отделе, где занимался разработкой криптографических систем, то это позже помогло ему открыть методы кодирования с коррекцией ошибок. В своих работах 1948-1949 годов К. Шеннон определил количество информации через энтропию - величину, известную в термодинамике и статистической физике как мера разупорядоченности системы, а за единицу количества информации принял то, что впоследствии назвали битом (bit). Для дальнейшего изложения необходимо использовать некоторые понятия теории вероятности: случайное событие, опыт, вероятность события, случайная величина. В окружающем нас мире происходят различные события, причём мы можем интуитивно, основываясь на опыте, оценивать одни из них как более возможные, чем другие. Случайным называют событие, которое может наступить или не наступить в результате некоторого испытания, опыта или эксперимента. Будем обозначать события заглавными буквами A, B, C и т.д. Количественная мера возможности наступления некоторого события A называется его вероятностью и обозначается как p(A), p – от английского probability. Чем более возможно наступление случайного события, тем больше его вероятность: если A более возможно чем B, то p(A) > p(B). Вводится понятие достоверного события – событие, которое обязательно наступит. Это событие обозначают W и полагают, что его вероятность p(W) = 1. Невозможным называют событие, которое никогда не произойдёт. Его обозначают Æ и полагают, что его вероятность p(Æ) = 0. Для вероятностей всех остальных событий A выполняется неравенство p(Æ) < p(A) < p(W), или 0 < p(A) < 1. Для событий вводится понятие суммы и произведения. Сумма событий A+B – это событие, которое состоит в наступлении события A или В. Произведение событий A*B состоит в одновременном наступлении события A и B. События A и B несовместны
, если они не могут наступить вместе в результате одного испытания. Вероятность суммы несовместных событий равна сумме их вероятностей. Если А и В несовместные события, то p(A+B) = p(A) + p(B). События A1, A2, A3, …An образуют полную группу
, если в результате опыта обязательно наступит хотя бы одно из них. Если события A1, A2, A3, …An попарно несовместны и образуют полную группу, то сумма их вероятностей p1+p2+p3+ …. pn =1. Если они при этом ещё и равновероятны, то вероятность каждого равна p = 1/n , где n – число событий. Вероятность
события определяется как отношение числа благоприятных событию исходов опыта к общему числу исходов. Частота
события – эмпирическое приближение его вероятности. Она вычисляется в результате проведения серии опытов как отношение числа опытов, в которых событие наступило к общему числу опытов. При большом числе опытов (испытаний) частота события стремится к его вероятности. К. Шеннон, используя подход Р. Хартли, обратил внимание на то, что при передаче словесных сообщений частота (вероятность) использования различных букв алфавита не одинакова: некоторые буквы используются очень часто, другие - редко. Рассмотрим алфавит A m состоящий из m символов. Обозначим через p i вероятность (частоту) появления i-ого символа в любой позиции передаваемого сообщения, состоящего из n символов. Один i – ый символ алфавита несёт количество информации равное -Log 2 (p i). Перед логарифмом стоит «минус» потому, что количество информации величина неотрицательная, а Log 2 (x) <0 при 0 На месте каждого символа в сообщении может стоять любой символ алфавита A m ; количество информации, приходящееся на один символ сообщения, равно среднему значению информации по всем символам алфавита A m: Общее количество информации, содержащееся в сообщении из n символов равно: Если все символы алфавита A m появляются с равной вероятностью, то все p i = p. Так как Sр i = 1, то p = 1/m. Формула (3.2) в случае, когда все символы алфавита равновероятны, принимает вид Вывод: формула Шеннона (3.2) в случае, когда все символы алфавита равновероятны, переходит в формулу Хартли (2.2). В общем случае количество энтропии H произвольной системы X (случайной величины), которая может находиться в m различных состояниях x 1 , x 2 , … x m c вероятностями p 1 , p 2 , … p m , вычисленное по формуле Шеннона, равно Напомним, что p 1 + p 2 + … +p m = 1. Если все p i одинаковы, то все состояния системы X равновероятны; в этом случае p i = 1/m, и формула (3.3) переходит в формулу Хартли (2.5): H(X) = Log 2 (m). Замечание.
Количество энтропии системы (случайной величины) Х не зависит от того, в каких конкретно состояниях x 1 , x 2 , … x m может находиться система, но зависит от числа m этих состояний и от вероятностей p 1 , p 2 , … p m , с которыми система может находиться в этих состояниях. Это означает, что две системы, у которых число состояний одинаково, а вероятности этих состояний p 1 , p 2 , … p m равны (с точностью до порядка перечисления), имеют равные энтропии. Теорема.
Максимум энтропии H(X) достигается в том случае, когда все состояния системы равновероятны. Это означает, что В общем случае
, энтропия
H
и количество получаемой в
результате снятия неопределенности информации
I
зависят от исходного количества рассматриваемых вариантов
N
и априорных вероятностей
реализации каждого из них P
: {p
0 ,
p
1 , …p N
-1 }
,
т.е. H
=F
(N
,
P
)
. Расчет энтропии в этом случае
производится по формуле Шеннона
, предложенной им в 1948
году в статье "Математическая теория связи". В частном случае
, когда все
варианты равновероятны
, остается зависимость только от
количества рассматриваемых вариантов, т.е.
H
=F
(N
)
.
В этом случае формула Шеннона значительно упрощается и совпадает
с формулой Хартли
, которая впервые была предложена
американским инженером Ральфом Хартли в 1928 году, т.е. не 20
лет раньше. Формула Шеннона имеет следующий вид: Знак минус в формуле (1) не означает, что
энтропия – отрицательная величина. Объясняется это тем, что p i £
1
по определению, а логарифм числа меньшего единицы - величина
отрицательная. По свойству логарифма
,
поэтому эту формулу можно записать и во втором варианте, без
минуса перед знаком суммы. Интерпретируется
как частное количество информации
,
получаемое в случае реализации i
-ого
варианта. Энтропия в формуле Шеннона является средней
характеристикой – математическим ожиданием распределения
случайной величины {I
0 ,
I
1, … I N
-1 }
. Приведем пример расчета энтропии по
формуле Шеннона. Пусть в некотором учреждении состав работников
распределяется так: ¾ - женщины, ¼ - мужчины. Тогда
неопределенность, например, относительно того, кого вы встретите
первым, зайдя в учреждение, будет рассчитана рядом действий,
показанных в таблице 1. Таблица 1. p i
1/p i
I i =
log 2 (1/p i
),
бит
p i
*log 2 (1/p i
),
бит
log 2 (4/3)=0,42 å
H=0,81 бит
Если же априори известно, что мужчин и
женщин в учреждении поровну (два равновероятных варианта), то
при расчете по той же формуле мы должны получить
неопределенность в 1 бит. Проверка этого предположения проведена
в таблице 2. Таблица 2. p i
1/p i
I i =
log 2 (1/p i
),
бит
p i
*log 2 (1/p i
),
бит
1
/2
log 2 (2
)=1
1/2
* 1
=1/2
log 2 (2
)=1
1/2
* 1
=1/2
å
H=1
бит
Формула Шеннона (1) совпала по форме с
формулой Больцмана, полученной на 70 лет ранее для измерения
термодинамической энтропии
идеального газа. Эта связь между
количеством информации и термодинамической энтропией послужила
сначала причиной горячих дискуссий, а затем – ключом к решению
ряда научных проблем. В самом общем случае энтропия
понимается как мера неупорядоченности, неорганизованности
материальных систем
.(3.2)
(3.3)
(3.4)
Процесс передачи информации
Примеры
Формула Шеннона