Для чего необходимо измерение информации в информатике

Презентация к уроку

Цель урока: формирование знаний, умений и навыков расчета единиц измерения информации, определения информационного объема сообщений, возможность практического применения полученных знаний.

Планируемые результаты обучения:

Понятие об информации

С точки зрения физики, наш мир состоит из трех элементов: вещество, энергия, информация.

«Информация» является центральным понятием информатики. Точного определения этого понятия в науке не существует. На бытовом уровне, информация это сообщения, знания, которые человек получает из окружающего мира: общаясь с другими людьми, из книг, Интернета, СМИ и т.д. Понятие отличается от определения тем, что не дается однозначно, а вводится на примерах. При чем каждая наука это делает по своему.

Но поскольку определять информацию можно по-разному, то и способы измерения тоже могут быть разными.

Содержательный подход к измерению информации

Информация – это знания человека. Сообщение несет информацию для человека (информативно), если содержащиеся в нем сведения являются для него новыми и понятными.

Сообщение, уменьшающее неопределенность знаний в два раза, несет 1 бит информации.

Неопределенность знаний о некотором событии – это количество возможных результатов события. Что такое “неопределенность знаний”? Рассмотрим пример: Вы бросаете монету, загадывая, что выпадет: орел или решка? Есть два варианта возможного результата бросания монеты. Ни один из этих вариантов не имеет преимущества перед другим (равновероятны). Перед подбрасыванием монеты неопределенность знаний о результате равна двум. После совершения действия неопределенность уменьшилась в 2 раза. Получили 1 бит информации. Результат подбрасывания монеты принес 1 бит информации.

Еще пример: после сдачи зачета или выполнения контрольной работы ученик мучается неопределенностью, он не знает, какую оценку получил. Наконец, учитель объявляет результаты, и он получаете одно из двух информационных сообщений: “зачет” или “незачет”, а после контрольной работы одно из четырех информационных сообщений: “2”, “3”, “4” или “5”.

Информационное сообщение об оценке за зачет приводит к уменьшению неопределенности знания в два раза, так как получено одно из двух возможных информационных сообщений. Информационное сообщение об оценке за контрольную работу приводит к уменьшению неопределенности знания в четыре раза, так как получено одно из четырех возможных информационных сообщений.

Неопределенность знаний о некотором событии — это количество возможных результатов события.

Если обозначить возможное количество событий, или, другими словами, неопределенность знаний N, а буквой i количество информации в сообщении о том, что произошло одно из N событий, то можно записать формулу:

которую используют для решения задач на содержательный подход к измерению информации.

В презентации рассматриваются примеры решения задач по этой теме, а также предлагается решить задачи самостоятельно и проверить ответы (Презентация: слайды 10, 11, 12, 13).

Единицы измерения информации

Бит – наименьшая единица представления информации.

Байт – наименьшая единица обработки и передачи информации.

Один байт равен восьми битам, т.к. именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=2 8 ).

Для перевода из крупных единиц в мелкие числа умножают, согласно таблице переводов

Пример:

2 Кбайта = 2 * (1 Кбайт) = 2 * 1024 байтов = 2048 байтов = 2048 * 8 бит = 16384 бита.

или можно считать так, так иногда проще:

2 Кбайта = 2 * 2 10 байтов = 2 11 байт = 2 11 * 2 3 бит = 2 14 бит

Для перевода количества информации из мелких единиц в более крупные нужно делить.

Пример:

8192 бита = 8192 : 8 (т.к. в 1 байте 8 бит) = 1024 байт = 1024 : 1024 (т.к. в 1 Кбайте 1024 байт) = 1 Кбайт

или можно считать так

8192 бита = 2 13 бит = 2 13 : 2 3 = 2 10 байт = 2 10 : 2 10 = 1 Кбайт

Примеры объемов информации

Страница книги2,5 Кбайт
Учебник0,5 Мбайт
Газета150 Кбайт
Черно-белый кадр300 Кбайт
Цветной кадр из 3 цветов1 Мбайт
1,5 часовой цветной фильм135 Гбайт

В презентации рассматриваются примеры решения задач по этой теме, а также предлагается решить задачи самостоятельно и проверить ответы (Презентация: слайды 19, 20, 21).

Алфавитный подход к измерению информации

Алфавитный подход к измерению количества информации основан на подсчете числа символов в сообщении. При алфавитном подходе к определению количества информации отвлекаются от содержания информации и рассматривают информационное сообщение как последовательность знаков определенной знаковой системы. Все множество используемых в языке символов будем традиционно называть алфавитом. Обычно под алфавитом понимают только буквы, но поскольку в тексте могут встречаться знаки препинания, цифры, скобки, то мы их тоже включим в алфавит. В алфавит также следует включить и пробел, т.е. пропуск между словами. Полное количество символов алфавита принято называть мощностью алфавита.

N = 2 i – формула для решения задач на алфавитный подход к измерению информации.

N – мощность алфавита

i – количество информации одного символа

В презентации рассматриваются примеры решения задач по этой теме, а также предлагается решить задачи самостоятельно и проверить ответы (Презентация: слайды 26, 27, 28, 29, 30)

Решения заданий практикума представлены в Приложении 2

Домашнее задание находится в презентации на слайдах 14, 22, 30.

Интерактивный тест можно пройти на слайде 32.

Источник

Для чего необходимо измерение информации в информатике

Для информации существуют свои единицы измерения информации. Если рассматривать сообщения информации как последовательность знаков, то их можно представлять битами, а измерять в байтах, килобайтах, мегабайтах, гигабайтах, терабайтах и петабайтах.

Давайте разберемся с этим, ведь нам придется измерять объем памяти и быстродействие компьютера.

Единицей измерения количества информации является бит – это наименьшая (элементарная) единица.

Байт – основная единица измерения количества информации.

Байт – довольно мелкая единица измерения информации. Например, 1 символ – это 1 байт.

Производные единицы измерения количества информации

1 килобайт (Кб)=1024 байта =2 10 байтов

1 мегабайт (Мб)=1024 килобайта =2 10 килобайтов=2 20 байтов

1 гигабайт (Гб)=1024 мегабайта =2 10 мегабайтов=2 30 байтов

1 терабайт (Гб)=1024 гигабайта =2 10 гигабайтов=2 40 байтов

Методы измерения количества информации

Итак, количество информации в 1 бит вдвое уменьшает неопределенность знаний. Связь же между количеством возможных событий N и количеством информации I определяется формулой Хартли:

Алфавитный подход к измерению количества информации

При этом подходе отвлекаются от содержания (смысла) информации и рассматривают ее как последовательность знаков определенной знаковой системы. Набор символов языка, т.е. его алфавит можно рассматривать как различные возможные события. Тогда, если считать, что появление символов в сообщении равновероятно, по формуле Хартли можно рассчитать, какое количество информации несет в себе каждый символ:

Вероятностный подход к измерению количества информации

Этот подход применяют, когда возможные события имеют различные вероятности реализации. В этом случае количество информации определяют по формуле Шеннона:

I – количество информации,

N – количество возможных событий,

Pi – вероятность i-го события.

Задача 1.

Шар находится в одной из четырех коробок. Сколько бит информации несет сообщение о том, в какой именно коробке находится шар.

Имеется 4 равновероятных события (N=4).

По формуле Хартли имеем: 4=2 i . Так как 2 2 =2 i , то i=2. Значит, это сообщение содержит 2 бита информации.

Задача 2.

Чему равен информационный объем одного символа русского языка?

В русском языке 32 буквы (буква ё обычно не используется), то есть количество событий будет равно 32. Найдем информационный объем одного символа. I=log2 N=log2 32=5 битов (2 5 =32).

Примечание. Если невозможно найти целую степень числа, то округление производится в большую сторону.

Задача 3.

Чему равен информационный объем одного символа английского языка?

Задача 4.

Световое табло состоит из лампочек, каждая из которых может находиться в одном из двух состояний (“включено” или “выключено”). Какое наименьшее количество лампочек должно находиться на табло, чтобы с его помощью можно было передать 50 различных сигналов?

С помощью N лампочек, каждая из которых может находиться в одном из двух состояний, можно закодировать 2 N сигналов.

2 5 6 , поэтому пяти лампочек недостаточно, а шести хватит. Значит, нужно 6 лампочек.

Задача 5.

Метеостанция ведет наблюдения за влажностью воздуха. Результатом одного измерения является целое число от 0 до 100, которое записывается при помощи минимально возможного количества битов. Станция сделала 80 измерений. Определите информационный объем результатов наблюдений.

В данном случае алфавитом является множество чисел от 0 до 100, всего 101 значение. Поэтому информационный объем результатов одного измерения I=log2101. Но это значение не будет целочисленным, поэтому заменим число 101 ближайшей к нему степенью двойки, большей, чем 101. это число 128=2 7 . Принимаем для одного измерения I=log2128=7 битов. Для 80 измерений общий информационный объем равен 80*7 = 560 битов = 70 байтов.

Задача 6.

Определите количество информации, которое будет получено после подбрасывания несимметричной 4-гранной пирамидки, если делают один бросок.

Пусть при бросании 4-гранной несимметричной пирамидки вероятности отдельных событий будут равны: p1=1/2, p2=1/4, p3=1/8, p4=1/8.

Тогда количество информации, которое будет получено после реализации одного из них, можно вычислить по формуле Шеннона:

Задача 7.

Задача 8.

Оцените информационный объем следующего предложения:

Тяжело в ученье – легко в бою!

Так как каждый символ кодируется одним байтом, нам только нужно подсчитать количество символов, но при этом не забываем считать знаки препинания и пробелы. Всего получаем 30 символов. А это означает, что информационный объем данного сообщения составляет 30 байтов или 30 * 8 = 240 битов.

Источник

Измерение информации

Для чего необходимо измерение информации в информатике. Смотреть фото Для чего необходимо измерение информации в информатике. Смотреть картинку Для чего необходимо измерение информации в информатике. Картинка про Для чего необходимо измерение информации в информатике. Фото Для чего необходимо измерение информации в информатике Для чего необходимо измерение информации в информатике. Смотреть фото Для чего необходимо измерение информации в информатике. Смотреть картинку Для чего необходимо измерение информации в информатике. Картинка про Для чего необходимо измерение информации в информатике. Фото Для чего необходимо измерение информации в информатике

Всего получено оценок: 405.

Всего получено оценок: 405.

Как и любую другую физическую величину, информацию можно измерить. Существуют разные подходы к измерению информации. Один из таких подходов рассматривается в курсе информатики за 7 класс.

Что такое измерение информации

При измерении информации следует учитывать как объем передаваемого сообщения, так и его смысловую нагрузку. В связи с этим в информатике существуют разные подходы к измерению информации.

Алфавитный подход к измерению информации

Способы оценки величины информации могут учитывать или не учитывать смысла информационного сообщения.

Один из способов нахождения количества информации основан на определении веса каждого символа в тексте сообщения. При таком подходе объем сообщения зависит от количества знаков в тексте, чем больше тест, тем больше весит информационное сообщение. При этом абсолютно не важно, что написано, какой смысл несет сообщение. Так как определение объема информации привязано к текстовым единицам: буквам, цифрам, знакам препинания, то такой подход к измерению информации получил название алфавитного.

Вес отдельного знака зависит от их количества в алфавите. Число символов алфавита называют мощностью (N). Например, мощность алфавита английского языка по числу символов равно 26, русского языка 33. Но на самом деле, при написании текста используются и прописные и строчные буквы, а также знаки препинания, пробелы и специальные невидимые символы, обозначающие конец абзаца и перевод к новой строке. Поэтому имеют дело с мощностью 128 или в расширенной версии 256 символов.

Бит, байт и другие единицы измерения

Для двоичного алфавита, состоящего из двух символов – нуля и единицы, мощность алфавита будет составлять 2. Вес символа бинарного алфавита выбран в качестве минимальной единицы информации и называется «бит». Происхождение термина «бит» исходит от англоязычного слова «binary», что означает двоичный.

Восемь бит образуют байт.

Название «байт» было придумано в 1956 году В. Бухгольцем при проектировании первого суперкомпьютера. Слово «byte» было получено путем замены второй буквы в созвучном слове «bite», чтобы избежать путаницы с уже имеющимся термином «bit».

На практике величина объема информации выражает в более крупных единицах: килобайтах, терабайтах, мегабайтах.

Следует запомнить, что килобайт равен 1024 байта, а не 1000. Как, например, 1 километр равен 1000 метрам. Эта разница получается за счет того, 1 байт равен 8 битам, а не 10.

Для того, чтобы легче запомнить единицы измерения, следует воспользоваться таблицей степени двойки.

Таблица степеней двойки

Показатель степени

Значение

То есть, 2 3 = 8 – это 1 байт, состоящий из 8 бит, 2 10 = 1024 это 1 килобайт, 2 20 = 1048576 представляет собой 1 мегабайт, 2 30 = 1 гигабайт, 2 40 = 1 терабайт.

Определение количества информации

Вес символа (i) и мощность алфавита (N) связаны между собой соотношением: 2 i = N.

Так, алфавит мощностью в 256 символов имеет вес каждого символа в 8 бит, то есть один байт. Это означает, что на каждую букву приходится по байту. В таком случае, нетрудно определить, сколько весит весь кодируемый текст сообщения. Для этого достаточно вес символа алфавита умножить на количество символов в тексте. При подсчете количества символов в сообщении следует не забывать, что знаки препинания, а также пробелы – это тоже символы и они весят столько же, сколько и буквы.

Например, при условии, что каждая буква кодируется одним байтом, для текста, «Ура! Наступили каникулы.» информационный объем определяется умножением 8 битов на 24 символа (без учета кавычек). Произведение 8 * 24 = 192 бита – столько весит кодируемая фраза. В переводе на байты: 192 бита разделить на 8 получим 24 байта.

Эта схема работает и в обратной задаче. Пусть информационное сообщение составляет 2 килобайта и состоит из 512 символов. Необходимо определить мощность алфавита, используемого для кодирования сообщения.

Решение: Сначала целесообразно 2 килобайта перевести в биты: 2 * 1024 = 2048 (бит). Затем объем информационного сообщения делят на количество символов: 2048 / 512 = 4 (бит), получают вес одного символа. Для определения мощности алфавита 2 возводят в степень 4 и получают 16 – это мощность алфавита, то есть количество символов, используемых для кодирования текста.

Для чего необходимо измерение информации в информатике. Смотреть фото Для чего необходимо измерение информации в информатике. Смотреть картинку Для чего необходимо измерение информации в информатике. Картинка про Для чего необходимо измерение информации в информатике. Фото Для чего необходимо измерение информации в информатике

Что мы узнали?

Одним из способов определения величины информационного сообщения является алфавитный подход, в котором любой знак в тексте имеет некоторый вес, обусловленный мощностью алфавита. Минимальной единицей измерения информации является бит. Информацию можно также измерять в байтах, килобайтах, мегабайтах.

Источник

Для чего необходимо измерение информации в информатике

Измерение информации: содержательный и алфавитный подходы. Единицы измерения информации.

Вопрос: «Как измерить информацию?» очень непростой. Ответ на него зависит от того, что понимать под информацией. Но поскольку определять информацию можно по-разному, то и способы измерения тоже могут быть разными.

Содержательный подход к измерению информации.
Для человека информация — это знания человека. Рассмотрим вопрос с этой точки зрения.
Получение новой информации приводит к расширению знаний. Если некоторое сообщение приводит к уменьшению неопределенности нашего знания, то можно говорить, что такое сообщение содержит информацию.
Отсюда следует вывод, что сообщение информативно (т.е. содержит ненулевую информацию), если оно пополняет знания человека. Например, прогноз погоды на завтра — информативное сообщение, а сообщение о вчерашней погоде неинформативно, т.к. нам это уже известно.
Нетрудно понять, что информативность одного и того же сообщения может быть разной для разных людей. Например: «2×2=4» информативно для первоклассника, изучающего таблицу умножения, и неинформативно для старшеклассника.
Но для того чтобы сообщение было информативно оно должно еще быть понятно. Быть понятным, значит быть логически связанным с предыдущими знаниями человека. Определение «значение определенного интеграла равно разности значений первообразной подынтегральной функции на верхнем и на нижнем пределах», скорее всего, не пополнит знания и старшеклассника, т.к. оно ему не понятно. Для того, чтобы понять данное определение, нужно закончить изучение элементарной математики и знать начала высшей.
Получение всяких знаний должно идти от простого к сложному. И тогда каждое новое сообщение будет в то же время понятным, а значит, будет нести информацию для человека.
Сообщение несет информацию для человека, если содержащиеся в нем сведения являются для него новыми и понятными.

Алфавитный подход к измерению информации.

Один символ алфавита «весит» 8 бит. Причем 8 бит информации — это настолько характерная величина, что ей даже присвоили свое название — байт.

Сегодня очень многие люди для подготовки писем, документов, статей, книг и пр. используют компьютерные текстовые редакторы. Компьютерные редакторы, в основном, работают с алфавитом размером 256 символов.

В любой системе единиц измерения существуют основные единицы и производные от них.

Для измерения больших объемов информации используются следующие производные от байта единицы:

Источник

Реферат на тему «Измерение информации»

Общая характеристика процессов сбора, передачи, обработки, накопления информации……………………………………………………………………….….2

Алфавитный (объёмный) подход к измерению информации……………………………………………………………………..……5

Содержательный подход к измерению информации………………………………..…………………………………………6

Термин «информация» происходит от латинского information, что означает разъяснение, осведомление, изложение.

С позиции материалистической философии информация есть отражение реального мира с помощью сведений (сообщений). В широком смысле информация – это общенаучное понятие, включающее в себя обмен сведениями между людьми, обмен сигналами между живой и неживой природой, людьми и устройствами.

Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

Информация, предназначенная для передачи, называется сообщением. Сообщение может быть представлено в виде знаков и символов, преобразовано и закодировано с помощью электрических сигналов.

Информация, представленная в виде, пригодном для обработки (человеком, компьютером), называется данными. Данные могут быть, например, числовыми, текстовыми, графическими.

Чтобы происходил обмен информацией, должны быть источник информации, передатчик, канал связи, приемник и получатель. Обычно в качестве получателя выступает человек, который оценивает информацию с точки зрения ее применимости для решения поставленной задачи. Процедура оценки информации проходит в три этапа, определяющие ее синтаксический, семантический и прагматический аспекты.

Определенный набор данных вне зависимости от смысловых и потребительских качеств характеризует синтаксический аспект информации. Сопоставление данных с тезаурусом (тезаурус – полный систематизированный набор данных и знаний в какой-либо области) формирует знание о наблюдаемом факте, это является семантическим аспектом информации (отражает смысловое содержание информации). Оценка практической полезности информации отражает ее прагматический аспект.

и накопления информации

Сбор информации – это процесс получения информации из внешнего мира и приведение

ее к стандарту для данной информационной системы. Обмен информацией между воспринимающей ее системой и окружающей средой осуществляется посредством сигналов. Сигнал – средство передачи информации в пространстве и времени. В качестве носителя сигнала могут выступать звук, свет, электрический ток, магнитное поле и т.д.

Сбор информации, как правило, сопровождается ее регистрацией, т.е. фиксацией информации на материальном носителе (документе или машинном носителе).

Передача информации осуществляется различными способами: с помощью курьера, пересылка по почте, доставка транспортными средствами, дистанционная передача по каналам связи. Для осуществления последней необходимы специальные технические средства. Дистанционно может передаваться как первичная информация с мест ее возникновения, так и результатная информация в обратном направлении. Поступление информации по каналам связи осуществляется двумя способами: на машинном носителе и непосредственно в компьютер при помощи специальных программных и аппаратных средств.

Преобразование (обработка) информации – внесение изменений в набор данных, вычисления, информационный поиск, сортировка, построение графиков и т.п. В современных развитых информационных системах машинная обработка информации предполагает последовательно-параллельное во времени решение вычислительных задач. Это возможно при наличии определенной организации вычислительного процесса. Вычислительная задача по мере необходимости обращается с запросами в вычислительную систему. Организация процесса предполагает определение последовательности решения задач и реализацию вычислений. Последовательность решения задается, исходя из информационной взаимосвязи, когда результаты решения одной задачи используются как исходные данные для решения другой. Технология электронной обработки информации – человеко-машинный процесс исполнения взаимосвязанных операций, протекающих в установленной последовательности с целью преобразования исходной информации (первичной) в результатную. Операция представляет собой комплекс совершаемых технологических действий, в результате которых информация преобразуется. Технологические операции разнообразны по сложности, назначению, технике реализации, выполняются на различном оборудовании разными исполнителями.

Хранение и накопление информации вызвано многократным ее использованием, применением постоянной информации, необходимостью комплектации первичных данных до их обработки. Хранение осуществляется на машинных носителях в виде информационных массивов, где данные располагаются по установленному в процессе проектирования группировочному признаку

Атрибутивные свойства — это свойства, которые отображают внутреннюю природу информации и особенности ее использования. Наиболее важными из этих свойств являются следующие:

· информация представляет новые сведения об окружающем мире, отсутствовавшие до ее получения;

· информация не материальна несмотря на то, что она проявляется в форме знаков и сигналов на материальных носителях;

· знаки и сигналы могут предоставить информацию только для получателя, способного их воспринять и распознать;

· информация неотрывна от физического носителя, но в то же время не связана ни с конкретным носителем, ни с конкретным языком;

· информация дискретна – она состоит из отдельных фактических данных, передающихся в виде сообщений;

Качество информации определяется ее свойствами, отвечающими потребностям пользователя.

Рассмотрим наиболее важные потребительские свойства информации:

Полнота (достаточность) информации. Под полнотой информации понимают ее достаточность для принятия решений.

Достоверность информации. Под достоверностью информации понимают ее соответствие объективной реальности окружающего мира. Свойство достоверности информации имеет важное значение в тех случаях, когда ее используют для принятия решений.

Адекватность информации – это степень соответствия информации, полученной потребителем, тому, что автор вложил в ее содержание.

Доступность информации – это мера возможности получить ту или иную информацию.

Актуальность информации – это степень соответствия информации текущему моменту времени. Нередко с актуальностью, как и с полнотой, связывают коммерческую ценность информации. Поскольку информационные процессы растянуты во времени, то достоверная и адекватная, но устаревшая информация может приводить к ошибочным решениям.

Алфавитный подход основан на том, что всякое сообщение можно закодировать с помощью конечной последовательности символов некоторого алфавита. С позиций информатики носителями информации являются любые последовательности символов, которые хранятся, передаются и обрабатываются с помощью компьютера. Информативность последовательности символов зависит не от содержания сообщения, а определяется минимально необходимым количеством символов для кодирования этой последовательности символов. Алфавитный подход является объективным, т. е. он не зависит от субъекта, воспринимающего сообщение. Смысл сообщения либо учитывается на этапе выбора алфавита кодирования, либо не учитывается вообще.

При алфавитном подходе, если допустить, что все символы алфавита встречаются в тексте с одинаковой частотой (равновероятно), то количество информации, которое несет каждый символ (информационный вес одного символа), вычисляется по формуле Хартли. (Ральф Винтон Лайон Хартли (англ. Ralph Vinton Lyon Hartley, 30 ноября 1888, Спрус, Невада — 1 мая 1970, Нью-Джерси) — американский учёный-электронщик. Он предложил генератор Хартли, преобразование Хартли и сделал вклад в теорию информации, введя в 1928 году логарифмическую меру информации, которая называется хартлиевским количеством информации или просто мерой Хартли.)

где N – мощность алфавита (полное количество символов, составляющих алфавит выбранного кодирования). Тогда мощность алфавита можно вычислить по формуле

В алфавите, который состоит из двух символов (двоичное кодирование), каждый символ несет 1 бит (log22 = 1) информации.

Если весь текст состоит из k символов, то при алфавитном подходе размер содержащейся в нем информации H определяется по формуле

H = k · I, где I – информационный вес одного символа в используемом алфавите.

Максимальное количество слов L из m букв, которое можно составить из алфавита мощностью N, определяется по формуле

Содержательный подход к измерению информации

В содержательном подходе возможна качественная оценка информации: новая, срочная, важная и т. д. Согласно К. Шеннону, информативность сообщения характеризуется содержащейся в нем полезной информацией – той частью сообщения, которая снимает полностью или уменьшает неопределенность какой-либо ситуации.

Неопределенность некоторого события – это количество возможных исходов данного события.

Например, неопределенность погоды на завтра обычно заключается в диапазоне температуры воздуха и возможности выпадения осадков.

Содержательный подход часто называют субъективным, так как разные люди (субъекты) информацию об одном и том же предмете оценивают по-разному. Но если число исходов не зависит от суждений людей (например, случай бросания кубика или монеты), то информация о наступлении одного из возможных исходов является объективной.

Формулу для вычисления количества информации, учитывающую неодинаковую вероятность событий, предложил К. Шеннон в 1948 г. Количественная зависимость между вероятностью события р и количеством информации I в сообщении о нем выражается формулой Шеннона

Качественную связь между вероятностью события и количеством информации в сообщении об этом событии можно выразить следующим образом: чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии.

Количество информации для событий с различными вероятностями определяется по формуле (эту формулу также называют формулой Шеннона),

Для чего необходимо измерение информации в информатике. Смотреть фото Для чего необходимо измерение информации в информатике. Смотреть картинку Для чего необходимо измерение информации в информатике. Картинка про Для чего необходимо измерение информации в информатике. Фото Для чего необходимо измерение информации в информатике

Если события равновероятны (pi = 1/N, где N – число возможных событий),

то величина количества информации I вычисляется по формуле Р. Хартли:

Используя формулу (1), можно записать и формулу, которая связывает количество возможных событий N и количество информации I

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *