Начальная

Windows Commander

Far
WinNavigator
Frigate
Norton Commander
WinNC
Dos Navigator
Servant Salamander
Turbo Browser

Winamp, Skins, Plugins
Необходимые Утилиты
Текстовые редакторы
Юмор

File managers and best utilites

Лекция 2. Понятие информации, ее свойства и виды. Реферат способы измерения информации


Лекция 2. Понятие информации, ее свойства и виды

I. Понятие информации.

2. Основные виды информации.

3. Основные свойства информации.

4 Способы измерения информации

I . Понятие информации

В переводе с латинского слово «информация» означает сообщение о каком-либо факте, событии, объекте, явлении и т.п.

Основоположник кибернетики Винер дает следующее определение информации:

информация - это обозначение содержания сообщения, полученного из внешнего мира в

процессе приспособления к нему ваших чувств.

2. Основные виды информации

1.По способу передачи и восприятия: зрительная,слуховая, тактильная, вкусовая, машинно- ориентированная.

2.По формам отображении : символьная, текстовая, графическая

3.По содержанию (в зависимости от вида обслуживаемой человеческой деятельности):

научная, производственная , управленческая, правовая.

4. Для машинно-ориентированной информации характерны следующие формы представления: двоичная, текстовая, графическая, электронные таблицы, базы данных.

5.По виду представления информация подразделяется на одномерную и многомерную.

Одномерная информация – сообщение, имеющее вид последовательности символов, каждый из которых несет только один признак. Например, звуковые символы (речь).

Многомерная информация – сообщение, в котором информацию несут не один, а множество признаков. Например, текст (значение, цвет и шрифт написания знаков алфавита), голос (амплитуда, тембр, высота звука).

3. Основные свойства информации

1. О6ъективность. Понятие объективности информации является относительным. Более объективной принято считать эту информацию, в которую методы восприятия вносят меньший субъективный элемент.

Например. Более объективная информация образуется при наблюдении фотоснимка некоторого объекта по сравнению с рисунком того же объекта, выполненным человеком. Разной объективностью обладают показания свидетелей преступления.

2.Полнота информации характеризует качество информации и определяет достаточность данных для принятия решений.

Пример. Свидетель сообщил, что видел гражданина N вблизи места преступления. Однако этой информации недостаточно, чтобы произвести арест (информация неполная). Экспертиза обнаружила отпечатки пальцев гражданина N на орудии, которым было совершено убийство. Под давлением улик N сознался (информация полная).

3. Достоверность – свойство информации быть правильно воспринятой, вероятность отсутствия ошибок.

Пример. В записной книжке обнаружен адрес, в котором номер дома записан неразборчиво. (1 или 4). Интерпретация неразборчивой цифры, какI, представляется недостоверной.

4. Адекватность информации -это степен соответствия реальному объективному состоянию дела Пример. Человек был осужден по ложному обвинению на основе ложных (недостоверных) свидетельских показаний.

5. Доступносшь -мера возможности получитъ ту или иную информацию.

6. Актуальность – это степень соответствия информации текущему моменту времени. Пример. Старые редакции законов не являются актуальными и не могут применяться. Законы со всеми изменениями и дополнениями на текущий момент времени считаются актуальными и могут применяться.

4. Способы измерения информации

Существует два способа измерения объема или количества информаиии: энтропийный и технический.

Технический (объемный) способ используют, как правило, в технике. Он основан на подсчете числа символов в сообпщении,т.е. связан с его объемом и не учитывает содержания.

В вычислительной технике применяют две стандарные единицы измерения: бит и байт.

Бит - это один символдвоичного алфавита. С его помощью можно полностью передать

информацию о реализации события, которое может иметь два исхода. Например, бросание монеты.

Байт - это количество информации, которое можно передать с помошыо 8 двоячных Символов, т.е. восьмиразрядного двоичного кода. С его помощью можно полностью передать информацию о реализации события, которое может иметь 28= 256 исходов. например, нажатие одной из клавиш компьютера.

Производные едшнщы измерения информации:

  • 1 Кбайт 1024 байт

  • 1 Мбайт 1024 Кбайт

  • 1 Гбайт 1024 Мбайт

Энтропийный способ измерения информации устанавливает ценность информации, содержащейся в общении и исходит из следующей модели. Получатель сообщения имеет представление о возможности наступления некоторых событий. Эти представления в общем случае недостоверны и выражаются вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределенности называетсяэнтропией и характеризуется некоторой математической зависимостью от совокупности этих вероятностей:

S=log2W,

где S- мера неопределенности,W- число всевозможных комбинаций наступления некоторых событий.

Например. При подбрасывании монеты возможно наступление двух событий: выпадение герба или цифры. Значит, мера неопределенности определяется какS=log2W=Iбит. Количество информации в сообщении определяется тем, насколько уменьшается эта мера неопределенности после получения сообщения.

Из нашего обыденного опыта под информацией мы понимаем лишь такое сообщение, которое содержит неизвестные его получателю факты. Поэтому сообщение либо несет, либо не несет информацию, а объем информации зависит от субъекта, воспринимающего данное сообщение.

Если сообщение не несет никакой информации, оно называется тривиальным. Например: 2 х 2 = 4. Пример. Одним из жителей города, населенного примерно 1000 000 жителей, совершено преступление.

Неопределенность относительно лица, совершившего это преступление, определяется энтропией:

S1= log2 1000 000= 20 бит.

Получено сообщение, что преступник — мужчина. Информация, содержащаяся в этом сообщении:

I1=log22= 1 бит .

В результате энтропия:

S1 = S0 - I1 = 19 бит.

Получено сообщение, что возраст преступника попадает в интервале от 14 до 78 лет, т.е. интервал составляет 78-14 = 64 года.

Информация, содержашаяся в этом сообщении:

I2=log264= 6 бит .

В результатс энтропия:

S2 = S1 – I2 = 19 – 6 = 13 бит.

Могут прийти также сообщения о районе проживания, образовании и т.п., которые уменьшат энтропию (неопределенность) дальше.

studfiles.net

3. Способы измерения информации. Закон больших чисел, методы статистического анализа, способы измерения информации

Похожие главы из других работ:

Закон больших чисел, методы статистического анализа, способы измерения информации

3. Способы измерения информации

Информация единицы измерения количества информации служат для измерения объёма информации - величины, исчисляемой логарифмически...

Информация: определение, классификация, измерение

3. Единицы измерения информации

В информатике, как правило, измерению подвергается информация, представленная дискретным сигналом. При этом различают следующие подходы: 1.структурный. Измеряет количество информации простым подсчетом информационных элементов...

Кодирование информации. Жесткий диск. Языки программирования

1. Двоичное кодирование информации. Единицы измерения информации

...

Методы защиты информации в телекоммуникационных сетях

1.2 Угрозы информации. Способы их воздействия на объекты защиты информации

Современная концепция создания компьютерных систем предполагает использование программных средств различного назначения в едином комплексе. К примеру, типовая система автоматизированного документооборота состоит из операционной среды...

Методы защиты информации в телекоммуникационных сетях

1.2 Угрозы информации. Способы их воздействия на объекты защиты информации

Угрозу отождествляют обычно либо с характером (видом, способом) дестабилизирующего воздействия на информацию, либо с последствиями (результатами) такого воздействия. Однако такого рода термины могут иметь много трактовок...

Обеспечение защиты информации в локальных вычислительных сетях

1.1.2 Способы защиты информации

Способы защиты информации представлены на рисунке 1.2. Способы защиты информации в ЛВС включают в себя следующие элементы: 1...

Понятие информации и программного обеспечения

1.1 Единицы измерения информации

Для информации существуют свои единицы измерения информации. Если рассматривать сообщения информации как последовательность знаков, то их можно представлять битами, а измерять в байтах, килобайтах, мегабайтах, гигабайтах...

Понятие информации и программного обеспечения

1.2 Методы измерения количества информации

Итак, количество информации в 1 бит вдвое уменьшает неопределенность знаний...

Понятие информации, свойства. Информационные процессы

3.3 Единицы измерения количества информации

Для количественного выражения любой величины необходимо определить единицу измерения. Так, для измерения длины в качестве единицы выбран метр, для измерения массы -- килограмм и так далее. Аналогично...

Представление и кодирование информации

Единицы измерения количества информации

За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределенность знаний в два раза. Такая единица названа бит...

Проблемы обеспечения безопасности информации в сети интернет

2. СПОСОБЫ ЗАЩИТЫ ИНФОРМАЦИИ

Как известно, работая в интернете, постоянно сталкиваешься с вирусами и спамами. Вирусы могут привести к сбою всей системы компьютера, уничтожить информацию, хранящуюся в нем...

Разработка проекта защиты локальной вычислительной сети внутри организации ТОО "1С: Франчайзинг Караганда"

2.5 Способы защиты информации

Способы защиты информации представлены на рисунке 2. Способы защиты информации в ЛВС включают в себя следующие элементы: 1...

Разработка справочника для отслеживания информации о сотрудниках предприятия

2.1 Способы сохранения информации

При работе со справочником пользователю необходимо сохранять базу данных сотрудников. Лучше всего для этого подойдёт сериализация. Работа с сериализацией очень проста, программный код занимает всего несколько строчек, а самое главное...

Цифровая информация

2. Единицы измерения цифровой информации

Бит - наименьшая единица представления информации. Байт - наименьшая единица обработки и передачи информации. Единица измерения информации называется бит (bit) - сокращение от английских слов binary digit, что означает двоичная цифра...

Штриховое кодирование: виды и области применения

1. Способы кодирования информации

В настоящее время существует 2 основных способа кодирования информации в штрих-коде: 1.1 Линейное кодирование Линейными (обычными) называются штрих коды, читаемые в одном направлении (по горизонтали)...

prog.bobrodobro.ru

Реферат - Информация, ее свойства, способы представление и измерения.

В информатике наиболее часто используется следующее определение этого термина: Информация — это осознанные сведения об окружающем мире, которые являются объектом хранения, преобразования, передачи и использования. Сведения — это знания, выраженные в сигналах, сообщениях, известиях, уведомлениях и т. д. Каждого человека окружает информация различных видов. Основные виды информации по ее форме представления, способам ее кодирования и хранения, что имеет наибольшее значение для информатики, это:

  • графическая или изобразительная — первый вид, для которого был реализован способ хранения информации об окружающем мире в виде наскальных рисунков, а позднее в виде картин, фотографий, схем, чертежей на бумаге, холсте, мраморе и др. материалах, изображающих картины реального мира;
  • звуковая — мир вокруг нас полон звуков и задача их хранения и тиражирования была решена с изобретение звукозаписывающих устройств в 1877 г.; ее разновидностью является музыкальная информация — для этого вида был изобретен способ кодирования с использованием специальных символов, что делает возможным хранение ее аналогично графической информации;
  • текстовая — способ кодирования речи человека специальными символами — буквами, причем разные народы имеют разные языки и используют различные наборы букв для отображения речи; особенно большое значение этот способ приобрел после изобретения бумаги и книгопечатания;
  • числовая — количественная мера объектов и их свойств в окружающем мире; особенно большое значение приобрела с развитием торговли, экономики и денежного обмена; аналогично текстовой информации для ее отображения используется метод кодирования специальными символами — цифрами, причем системы кодирования могут быть разными;
  • видеоинформация — способ сохранения «живых» картин окружающего мира, появившийся с изобретением кино.

Существуют также виды информации, для которых до сих пор не изобретено способов их кодирования и хранения — это тактильная информация, передаваемая ощущениями, органолептическая, передаваемая запахами и вкусами и др. Для передачи информации на большие расстояния первоначально использовались кодированные световые сигналы, с изобретением электричества — передача закодированного определенным образом сигнала по проводам, позднее — с использованием радиоволн.

С появлением компьютеров вначале появилось средство для обработки числовой информации. Однако в дальнейшем, особенно после широкого распространения персональных компьютеров (ПК), компьютеры стали использоваться для хранения, обработки, передачи и поиска текстовой, числовой, изобразительной, звуковой и видеоинформации. Хранение информации при использовании компьютеров осуществляется на магнитных дисках или лентах, на лазерных дисках (CD и DVD), специальных устройствах энергонезависимой памяти (флэш-память и пр.)

Свойства информации

Объективность информации. Объективный – существующий вне и независимо от человеческого сознания. Информация – это отражение внешнего объективного мира. Информация объективна, если она не зависит от методов ее фиксации, чьего-либо мнения, суждения.

Достоверность информации. Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Достоверная информация помогает принять нам правильное решение.

Доступность информации: Мера возможности получить ту или иную информацию.

Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и принятия решений. Неполная информация может привести к ошибочному выводу или решению.

Точность (адекватность) информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т. п. Характеризует степень соответствия реальному объективному состоянию.

Актуальность информации – важность для настоящего времени, злободневность, насущность. Только вовремя полученная информация может быть полезна.

Полезность (ценность) информации. Полезность может быть оценена применительно к нуждам конкретных ее потребителей и оценивается по тем задачам, которые можно решить с ее помощью.

Чаще всего измерение информации касается объёма компьютерной памяти и объёма данных, передаваемых по цифровым каналам связи.

Бит – слишком мелкая единица измерения. На практике чаще применяется более крупная единица – байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера.

Широко используются также еще более крупные производные единицы информации: 1 Килобайт (Кбайт) = 1024 байт, 1 Мегабайт (Мбайт) = 1024 Кбайт, 1 Гигабайт (Гбайт) = 1024 Мбайт.

 

www.ronl.ru

Методы измерения информации

Разделы: Информатика, Конкурс «Презентация к уроку»

Презентация к уроку

Загрузить презентацию (1,6 МБ)

Внимание! Предварительный просмотр слайдов используется исключительно в ознакомительных целях и может не давать представления о всех возможностях презентации. Если вас заинтересовала данная работа, пожалуйста, загрузите полную версию.

Класс: 10

Образовательная технология: технология развития критического мышления.

Цель урока: ознакомление с основными методами измерения информации и формирование умений вычислить количество информации разными методами.

 Задачи урока:

Обучающие: 

  • краткое знакомство с понятием “количество информации” и с известными методами измерения информации,
  • формирование понимания понятия “вероятность”, равновероятных и не равновероятных событий,
  • формирование умений вычислить количество информации разными методами.

Воспитывающие: 

  • воспитание познавательной активности учащихся,
  • воспитание положительного отношения учащихся к знаниям,
  • воспитание коммуникативной культуры учащихся,
  • воспитание интереса к применению методов измерения количества информации в жизни и в профессиональной деятельности.

Развивающие:

  • развитие исследовательских навыков учащихся,
  • развитие критического мышления при решении практических задач в процессе самостоятельной и групповой исследовательской деятельности учащихся.

Тип урока: урок-лекция с элементами практикума.

Продолжительность урока: 90 минут (спаренный урок).

Методы обучения: объяснительно-иллюстративный, исследовательский.

Оборудование и программное обеспечение:

  • интерактивная доска,
  • персональный компьютер, мультимедийный проектор и экран для демонстрации учебного материала,
  • операционная система MS Windows,
  • презентация по данной теме.

План урока:

  1. Организационный момент. (3 мин)
  2. Создание проблемной ситуации при постановке темы, цели и задач урока.(7 мин)
  3. Частичное разрешение проблемной ситуации при реализации намеченного плана урока. (18 мин)
  4. Применение полученных знаний (15 мин)
  5. Полное разрешение проблемной ситуации. (20 мин)
  6. Применение полученных знаний (15 мин)
  7. Обобщение и систематизация изученного материала. (5 мин)
  8. Формирование домашнего задания постановкой вопросов для самопроверки. (7 мин)

Ход занятия

1. Организационный момент (проверка присутствующих, проверка готовности к работе).

2. Создание проблемной ситуации при постановке темы, цели и задач урока.

Сегодня мы поговорим о методах измерения количества информации. Понятие информации является одним из фундаментальных понятий современности. Процесс познания окружающего мира приводит к накоплению информации в виде знаний. То есть информация - это знания, которые мы получаем из внешнего мира. Получение новой информации приводит к расширению знаний, т.е., к уменьшению неопределённости нашего знания. Таким образом, мы можем сказать что информация – это сведения об объектах окружающего мира, уменьшающие степень неопределённости нашего знания (см. Рисунок 1).

Рисунок 1

Очень часто нужно определить количество информации в сообщении. Например, вы получили телеграмму: “Встречайте, вагон №5”. Известно, что в составе поезда 16 вагонов. Как узнать, сколько информации вы получили?

3. Частичное разрешение проблемной ситуации при реализации намеченного плана урока.

Проблема измерения количества информации исследуется в теории информации, основанной американским инженером и математиком Клодом Шенноном. Существует два подхода к измерению информации:

  1. алфавитный подход,
  2. содержательный (или вероятностный) подход.

Перед тем, как дать подробное описание указанных подходов, дадим основные определения.

  • Алфавит – это множество символов, используемых при записи текста.
  • Мощность алфавита – это количество символов алфавита.
  • Информационный вес одного символа – это количество информации в одном символе.
  • Информационный вес символа двоичного алфавита принят за единицу измерения информации и называется 1 бит.

Рассмотрим следующую задачу:

Задача 1: Допустим, что мощность алфавита равна S.Чему равно количество информации в сообщении длины l? Известно, что символы этого сообщения принадлежат данному алфавиту.

Впервые эту задачу попытался решить американский инженер Ричард Хартли в 1928 году. Он предложил меру для измерения количества информации в сообщении с равновероятными символами, т.е., в случае, когда ни один из символов не имеет преимущества перед другими символами. Работы Р.Хартли составляют сущность алфавитного подхода измерения информации.

Согласно идеям Р.Хартли, каждый символ сообщения имеет S возможностей выбора. Следовательно, сообщение длины l имеет S l возможностей выбора. Тогда количество информации в сообщении длины l равно логарифму S l:

Заметим, что в задаче Р. Хартли

  1. Каждый символ сообщения содержит log2(S) информации,
  2. Следовательно, сообщение длины l должно содержать в l раз больше информации, т.е. l * log2(S) информации.

4. Применение полученных знаний.

Решим следующие задачи.

Задача 2: Симметричная монета с двумя сторонами (названными “Орёл” и “Решка”) бросается вверх. Чему равно количество информации в сообщении о том, что стороной вверх выпала “Решка”?

Решение:

N = 2

l  = 1

I  = ?

I  = 1 * log2(2) = 1 бит

Ответ: 1 бит.

Задача 3: Бросается симметричный шестигранный игральный кубик, на гранях которого написаны числа 1 – 6. Вычислить количество информации в сообщении о том, что стороной вверх выпала сторона с числом 1.

Решение:

N = 6

l  = 1

I  = ?

Ответ:  I  =  log2(6) = 2,585 бит

Задача 4: Сообщение, записанное символами алфавита мощности 32, содержит 80 символов. Чему равно количество информации в сообщении?

Решение:

S  = 32

l = 140

I = ?

Ответ:  I  = 80 * log2(32) = 80* 5 = 400 бит

5. Полное разрешение проблемной ситуации.

В указанных примерах сообщений возможные события были равновероятны. Но существует множество ситуаций, когда возможные события имеют различные вероятности реализации. Например, если в ящике белых шаров больше, чем чёрных, то вероятнее взять белый шар, чем чёрный. Или, когда сообщают прогноз погоды, то сообщение о том, что будет дождь, более вероятно летом, а сообщение о снеге – зимой. Как вычислить количество информации в сообщении с символами, имеющими разные вероятности?

Американский инженер и математик К. Шеннон продолжил работы Р. Хартли и в 1948 году предложил меру для измерения количества информации в сообщении с символами, имеющими различные вероятности реализации. Работы К. Шеннона составляют сущность содержательного (или вероятностного) подхода измерения информации.

Дадим краткую историческую справку. К. Шеннон является основателем теории информации. Он первым предложил использовать термин “бит” для обозначения наименьшей единицы измерения информации. К. Шеннон ввёл следующие понятия (которые мы рассмотрим на уроке):

  • понятие собственной информации как количества информации, содержащей в определённом символе сообщения,
  • понятие информационной энтропии как меры неопределенности появления символа в сообщении.

Дадим их краткое описание. Сначала дадим классическое определение вероятности.

Вероятность p случайного события равна отношению числа исходов ki, благоприятствующих данному событию, к общему числу равновозможных исходов: pi= ki/S

К. Шеннон ввёл количество информации (в битах) I(pi) i-го символа алфавита следующим образом:

pi где - вероятность появления i-го символа алфавита.

Величину I(pi) называют собственной информацией i-го символа алфавита.

По формуле собственной информации видно, что чем меньше вероятность i-го символа алфавита, тем больше его собственная информация. Следовательно, в задаче 2 (с бросанием симметричной монеты с двумя сторонами) полученная информация I = 1 бит меньше, чем полученная информация I = 2,585 в задаче 3 (с бросанием симметричного шестигранного игрального кубика). Следовательно, чем меньше мы знаем о сообщении, тем больше информации в ней содержится.

В своей основополагающей работе “Математическая теория связи” (1948 год) (см. [1]) К. Шеннон рассмотрел также среднее количество информации в сообщении, которую назвал информационной энтропией.

Информационная энтропия Н определяется следующим образом:

 Дадим краткую историческую справку об энтропии. Понятие энтропии впервые было введено немецким физиком Р. Клаузиусом в термодинамике в 1865 году. Австрийский физик Л. Больцман и американский физик У. Гиббс связали энтропию с вероятностью и описали термодинамическую систему с помощью энтропии. К. Шеннон ввёл понятие энтропии в теорию информации.

Заметим, что информационная энтропия – это мера хаотичности информации, определяющей неопределенность появления символа в сообщении. График двоичной энтропии (при  S = 2) в зависимости от p =  pi (тогда согласно свойствам вероятности p2 = 1 - p1) приведён на рисунке:

Отметим, что двоичная энтропия играет большую роль в теории информации.

Заметим, что информационная энтропия принимает своё максимальное значение () при равновероятных символах, т.е.

В случае равновероятных символов формула Шеннона совпадает с формулой Хартли:

6. Применение полученных знаний.

Решим следующие задачи.

Задача 2: В корзине лежат 8 чёрных и 24 белых шаров. Сколько информации несет сообщение о том, что достали шар фиксированного цвета? Сколько информации несет сообщение о том, что достали шар любого цвета?

Задача 5: Бросается несимметричная четырёхгранная пирамида. Известно, что

являются вероятностями выпадения граней пирамиды. Вычислить количество полученной информации о выпадении какой-то грани пирамиды.

7. Обобщение и систематизация изученного материала.

В ходе урока мы рассмотрели два подхода измерения информации.

  • При алфавитном подходе измерения информации предполагается, что все символы алфавита встречаются в сообщениях, записанных с помощью этого алфавита, одинаково часто. Однако в действительности символы алфавитов в сообщениях появляются с разной частотой.
  • При вероятностном подходе измерения информации количество информации в сообщении о некотором событии зависит от вероятности этого события. Чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии. Среднее количество информации достигает максимального значения при равновероятных событиях.

8. Формирование домашнего задания постановкой вопросов для самопроверки.

Ну что ж, время урока подходит к концу.

Давайте вспомним, что такое:

  • Информация?
  • Собственная информация?
  • Информационная энтропия?
  • Вероятность?

Какие подходы измерения информации вы знаете?

Хорошо!

Пожалуйста, повторите дома записи в тетради. Запишите домашнее задание:

<Приложение 1>

До свидания!

Литература.

  1. Информатика и ИКТ. Учебник. 10 класс / Под ред. Проф. Н.В. Макаровой. - СПб.: Питер, 2012.
  2. Работы по теории информации и кибернетике. / Шеннон К. — М.: Изд-во иностранной литературы, 1963.
  3. http://festival.1september.ru/articles/572186/

xn--i1abbnckbmcl9fb.xn--p1ai


Смотрите также

 

..:::Новинки:::..

Windows Commander 5.11 Свежая версия.

Новая версия
IrfanView 3.75 (рус)

Обновление текстового редактора TextEd, уже 1.75a

System mechanic 3.7f
Новая версия

Обновление плагинов для WC, смотрим :-)

Весь Winamp
Посетите новый сайт.

WinRaR 3.00
Релиз уже здесь

PowerDesk 4.0 free
Просто - напросто сильный upgrade проводника.

..:::Счетчики:::..

 

     

 

 

.