|
||||||||||||||||||||||||||||||||||||||
|
Лекция 2. Понятие информации, ее свойства и виды. Реферат способы измерения информацииЛекция 2. Понятие информации, ее свойства и видыI. Понятие информации. 2. Основные виды информации. 3. Основные свойства информации. 4 Способы измерения информации I . Понятие информацииВ переводе с латинского слово «информация» означает сообщение о каком-либо факте, событии, объекте, явлении и т.п. Основоположник кибернетики Винер дает следующее определение информации: информация - это обозначение содержания сообщения, полученного из внешнего мира в процессе приспособления к нему ваших чувств. 2. Основные виды информации 1.По способу передачи и восприятия: зрительная,слуховая, тактильная, вкусовая, машинно- ориентированная. 2.По формам отображении : символьная, текстовая, графическая 3.По содержанию (в зависимости от вида обслуживаемой человеческой деятельности): научная, производственная , управленческая, правовая. 4. Для машинно-ориентированной информации характерны следующие формы представления: двоичная, текстовая, графическая, электронные таблицы, базы данных. 5.По виду представления информация подразделяется на одномерную и многомерную. Одномерная информация – сообщение, имеющее вид последовательности символов, каждый из которых несет только один признак. Например, звуковые символы (речь). Многомерная информация – сообщение, в котором информацию несут не один, а множество признаков. Например, текст (значение, цвет и шрифт написания знаков алфавита), голос (амплитуда, тембр, высота звука). 3. Основные свойства информации 1. О6ъективность. Понятие объективности информации является относительным. Более объективной принято считать эту информацию, в которую методы восприятия вносят меньший субъективный элемент. Например. Более объективная информация образуется при наблюдении фотоснимка некоторого объекта по сравнению с рисунком того же объекта, выполненным человеком. Разной объективностью обладают показания свидетелей преступления. 2.Полнота информации характеризует качество информации и определяет достаточность данных для принятия решений. Пример. Свидетель сообщил, что видел гражданина N вблизи места преступления. Однако этой информации недостаточно, чтобы произвести арест (информация неполная). Экспертиза обнаружила отпечатки пальцев гражданина N на орудии, которым было совершено убийство. Под давлением улик N сознался (информация полная). 3. Достоверность – свойство информации быть правильно воспринятой, вероятность отсутствия ошибок. Пример. В записной книжке обнаружен адрес, в котором номер дома записан неразборчиво. (1 или 4). Интерпретация неразборчивой цифры, какI, представляется недостоверной. 4. Адекватность информации -это степен соответствия реальному объективному состоянию дела Пример. Человек был осужден по ложному обвинению на основе ложных (недостоверных) свидетельских показаний. 5. Доступносшь -мера возможности получитъ ту или иную информацию. 6. Актуальность – это степень соответствия информации текущему моменту времени. Пример. Старые редакции законов не являются актуальными и не могут применяться. Законы со всеми изменениями и дополнениями на текущий момент времени считаются актуальными и могут применяться. 4. Способы измерения информации Существует два способа измерения объема или количества информаиии: энтропийный и технический. Технический (объемный) способ используют, как правило, в технике. Он основан на подсчете числа символов в сообпщении,т.е. связан с его объемом и не учитывает содержания. В вычислительной технике применяют две стандарные единицы измерения: бит и байт. Бит - это один символдвоичного алфавита. С его помощью можно полностью передать информацию о реализации события, которое может иметь два исхода. Например, бросание монеты. Байт - это количество информации, которое можно передать с помошыо 8 двоячных Символов, т.е. восьмиразрядного двоичного кода. С его помощью можно полностью передать информацию о реализации события, которое может иметь 28= 256 исходов. например, нажатие одной из клавиш компьютера. Производные едшнщы измерения информации:
Энтропийный способ измерения информации устанавливает ценность информации, содержащейся в общении и исходит из следующей модели. Получатель сообщения имеет представление о возможности наступления некоторых событий. Эти представления в общем случае недостоверны и выражаются вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределенности называетсяэнтропией и характеризуется некоторой математической зависимостью от совокупности этих вероятностей: S=log2W, где S- мера неопределенности,W- число всевозможных комбинаций наступления некоторых событий. Например. При подбрасывании монеты возможно наступление двух событий: выпадение герба или цифры. Значит, мера неопределенности определяется какS=log2W=Iбит. Количество информации в сообщении определяется тем, насколько уменьшается эта мера неопределенности после получения сообщения. Из нашего обыденного опыта под информацией мы понимаем лишь такое сообщение, которое содержит неизвестные его получателю факты. Поэтому сообщение либо несет, либо не несет информацию, а объем информации зависит от субъекта, воспринимающего данное сообщение. Если сообщение не несет никакой информации, оно называется тривиальным. Например: 2 х 2 = 4. Пример. Одним из жителей города, населенного примерно 1000 000 жителей, совершено преступление. Неопределенность относительно лица, совершившего это преступление, определяется энтропией: S1= log2 1000 000= 20 бит. Получено сообщение, что преступник — мужчина. Информация, содержащаяся в этом сообщении: I1=log22= 1 бит . В результате энтропия: S1 = S0 - I1 = 19 бит. Получено сообщение, что возраст преступника попадает в интервале от 14 до 78 лет, т.е. интервал составляет 78-14 = 64 года. Информация, содержашаяся в этом сообщении: I2=log264= 6 бит . В результатс энтропия: S2 = S1 – I2 = 19 – 6 = 13 бит. Могут прийти также сообщения о районе проживания, образовании и т.п., которые уменьшат энтропию (неопределенность) дальше. studfiles.net 3. Способы измерения информации. Закон больших чисел, методы статистического анализа, способы измерения информацииПохожие главы из других работ:Закон больших чисел, методы статистического анализа, способы измерения информации 3. Способы измерения информацииИнформация единицы измерения количества информации служат для измерения объёма информации - величины, исчисляемой логарифмически... Информация: определение, классификация, измерение 3. Единицы измерения информацииВ информатике, как правило, измерению подвергается информация, представленная дискретным сигналом. При этом различают следующие подходы: 1.структурный. Измеряет количество информации простым подсчетом информационных элементов... Кодирование информации. Жесткий диск. Языки программирования 1. Двоичное кодирование информации. Единицы измерения информации... Методы защиты информации в телекоммуникационных сетях 1.2 Угрозы информации. Способы их воздействия на объекты защиты информацииСовременная концепция создания компьютерных систем предполагает использование программных средств различного назначения в едином комплексе. К примеру, типовая система автоматизированного документооборота состоит из операционной среды... Методы защиты информации в телекоммуникационных сетях 1.2 Угрозы информации. Способы их воздействия на объекты защиты информацииУгрозу отождествляют обычно либо с характером (видом, способом) дестабилизирующего воздействия на информацию, либо с последствиями (результатами) такого воздействия. Однако такого рода термины могут иметь много трактовок... Обеспечение защиты информации в локальных вычислительных сетях 1.1.2 Способы защиты информацииСпособы защиты информации представлены на рисунке 1.2. Способы защиты информации в ЛВС включают в себя следующие элементы: 1... Понятие информации и программного обеспечения 1.1 Единицы измерения информацииДля информации существуют свои единицы измерения информации. Если рассматривать сообщения информации как последовательность знаков, то их можно представлять битами, а измерять в байтах, килобайтах, мегабайтах, гигабайтах... Понятие информации и программного обеспечения 1.2 Методы измерения количества информацииИтак, количество информации в 1 бит вдвое уменьшает неопределенность знаний... Понятие информации, свойства. Информационные процессы 3.3 Единицы измерения количества информацииДля количественного выражения любой величины необходимо определить единицу измерения. Так, для измерения длины в качестве единицы выбран метр, для измерения массы -- килограмм и так далее. Аналогично... Представление и кодирование информации Единицы измерения количества информацииЗа единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределенность знаний в два раза. Такая единица названа бит... Проблемы обеспечения безопасности информации в сети интернет 2. СПОСОБЫ ЗАЩИТЫ ИНФОРМАЦИИКак известно, работая в интернете, постоянно сталкиваешься с вирусами и спамами. Вирусы могут привести к сбою всей системы компьютера, уничтожить информацию, хранящуюся в нем... Разработка проекта защиты локальной вычислительной сети внутри организации ТОО "1С: Франчайзинг Караганда" 2.5 Способы защиты информацииСпособы защиты информации представлены на рисунке 2. Способы защиты информации в ЛВС включают в себя следующие элементы: 1... Разработка справочника для отслеживания информации о сотрудниках предприятия 2.1 Способы сохранения информацииПри работе со справочником пользователю необходимо сохранять базу данных сотрудников. Лучше всего для этого подойдёт сериализация. Работа с сериализацией очень проста, программный код занимает всего несколько строчек, а самое главное... Цифровая информация 2. Единицы измерения цифровой информацииБит - наименьшая единица представления информации. Байт - наименьшая единица обработки и передачи информации. Единица измерения информации называется бит (bit) - сокращение от английских слов binary digit, что означает двоичная цифра... Штриховое кодирование: виды и области применения 1. Способы кодирования информацииВ настоящее время существует 2 основных способа кодирования информации в штрих-коде: 1.1 Линейное кодирование Линейными (обычными) называются штрих коды, читаемые в одном направлении (по горизонтали)... prog.bobrodobro.ru Реферат - Информация, ее свойства, способы представление и измерения.В информатике наиболее часто используется следующее определение этого термина: Информация — это осознанные сведения об окружающем мире, которые являются объектом хранения, преобразования, передачи и использования. Сведения — это знания, выраженные в сигналах, сообщениях, известиях, уведомлениях и т. д. Каждого человека окружает информация различных видов. Основные виды информации по ее форме представления, способам ее кодирования и хранения, что имеет наибольшее значение для информатики, это:
Существуют также виды информации, для которых до сих пор не изобретено способов их кодирования и хранения — это тактильная информация, передаваемая ощущениями, органолептическая, передаваемая запахами и вкусами и др. Для передачи информации на большие расстояния первоначально использовались кодированные световые сигналы, с изобретением электричества — передача закодированного определенным образом сигнала по проводам, позднее — с использованием радиоволн. С появлением компьютеров вначале появилось средство для обработки числовой информации. Однако в дальнейшем, особенно после широкого распространения персональных компьютеров (ПК), компьютеры стали использоваться для хранения, обработки, передачи и поиска текстовой, числовой, изобразительной, звуковой и видеоинформации. Хранение информации при использовании компьютеров осуществляется на магнитных дисках или лентах, на лазерных дисках (CD и DVD), специальных устройствах энергонезависимой памяти (флэш-память и пр.) Свойства информации Объективность информации. Объективный – существующий вне и независимо от человеческого сознания. Информация – это отражение внешнего объективного мира. Информация объективна, если она не зависит от методов ее фиксации, чьего-либо мнения, суждения. Достоверность информации. Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Достоверная информация помогает принять нам правильное решение. Доступность информации: Мера возможности получить ту или иную информацию. Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и принятия решений. Неполная информация может привести к ошибочному выводу или решению. Точность (адекватность) информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т. п. Характеризует степень соответствия реальному объективному состоянию. Актуальность информации – важность для настоящего времени, злободневность, насущность. Только вовремя полученная информация может быть полезна. Полезность (ценность) информации. Полезность может быть оценена применительно к нуждам конкретных ее потребителей и оценивается по тем задачам, которые можно решить с ее помощью. Чаще всего измерение информации касается объёма компьютерной памяти и объёма данных, передаваемых по цифровым каналам связи. Бит – слишком мелкая единица измерения. На практике чаще применяется более крупная единица – байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера. Широко используются также еще более крупные производные единицы информации: 1 Килобайт (Кбайт) = 1024 байт, 1 Мегабайт (Мбайт) = 1024 Кбайт, 1 Гигабайт (Гбайт) = 1024 Мбайт.
www.ronl.ru Методы измерения информацииРазделы: Информатика, Конкурс «Презентация к уроку» Презентация к урокуЗагрузить презентацию (1,6 МБ) Внимание! Предварительный просмотр слайдов используется исключительно в ознакомительных целях и может не давать представления о всех возможностях презентации. Если вас заинтересовала данная работа, пожалуйста, загрузите полную версию. Класс: 10 Образовательная технология: технология развития критического мышления. Цель урока: ознакомление с основными методами измерения информации и формирование умений вычислить количество информации разными методами. Задачи урока: Обучающие:
Воспитывающие:
Развивающие:
Тип урока: урок-лекция с элементами практикума. Продолжительность урока: 90 минут (спаренный урок). Методы обучения: объяснительно-иллюстративный, исследовательский. Оборудование и программное обеспечение:
План урока:
Ход занятия 1. Организационный момент (проверка присутствующих, проверка готовности к работе). 2. Создание проблемной ситуации при постановке темы, цели и задач урока. Сегодня мы поговорим о методах измерения количества информации. Понятие информации является одним из фундаментальных понятий современности. Процесс познания окружающего мира приводит к накоплению информации в виде знаний. То есть информация - это знания, которые мы получаем из внешнего мира. Получение новой информации приводит к расширению знаний, т.е., к уменьшению неопределённости нашего знания. Таким образом, мы можем сказать что информация – это сведения об объектах окружающего мира, уменьшающие степень неопределённости нашего знания (см. Рисунок 1). Рисунок 1 Очень часто нужно определить количество информации в сообщении. Например, вы получили телеграмму: “Встречайте, вагон №5”. Известно, что в составе поезда 16 вагонов. Как узнать, сколько информации вы получили? 3. Частичное разрешение проблемной ситуации при реализации намеченного плана урока. Проблема измерения количества информации исследуется в теории информации, основанной американским инженером и математиком Клодом Шенноном. Существует два подхода к измерению информации:
Перед тем, как дать подробное описание указанных подходов, дадим основные определения.
Рассмотрим следующую задачу: Задача 1: Допустим, что мощность алфавита равна S.Чему равно количество информации в сообщении длины l? Известно, что символы этого сообщения принадлежат данному алфавиту. Впервые эту задачу попытался решить американский инженер Ричард Хартли в 1928 году. Он предложил меру для измерения количества информации в сообщении с равновероятными символами, т.е., в случае, когда ни один из символов не имеет преимущества перед другими символами. Работы Р.Хартли составляют сущность алфавитного подхода измерения информации. Согласно идеям Р.Хартли, каждый символ сообщения имеет S возможностей выбора. Следовательно, сообщение длины l имеет S l возможностей выбора. Тогда количество информации в сообщении длины l равно логарифму S l: Заметим, что в задаче Р. Хартли
4. Применение полученных знаний. Решим следующие задачи. Задача 2: Симметричная монета с двумя сторонами (названными “Орёл” и “Решка”) бросается вверх. Чему равно количество информации в сообщении о том, что стороной вверх выпала “Решка”? Решение: N = 2 l = 1 I = ? I = 1 * log2(2) = 1 бит Ответ: 1 бит. Задача 3: Бросается симметричный шестигранный игральный кубик, на гранях которого написаны числа 1 – 6. Вычислить количество информации в сообщении о том, что стороной вверх выпала сторона с числом 1. Решение: N = 6 l = 1 I = ? Ответ: I = log2(6) = 2,585 бит Задача 4: Сообщение, записанное символами алфавита мощности 32, содержит 80 символов. Чему равно количество информации в сообщении? Решение: S = 32 l = 140 I = ? Ответ: I = 80 * log2(32) = 80* 5 = 400 бит 5. Полное разрешение проблемной ситуации. В указанных примерах сообщений возможные события были равновероятны. Но существует множество ситуаций, когда возможные события имеют различные вероятности реализации. Например, если в ящике белых шаров больше, чем чёрных, то вероятнее взять белый шар, чем чёрный. Или, когда сообщают прогноз погоды, то сообщение о том, что будет дождь, более вероятно летом, а сообщение о снеге – зимой. Как вычислить количество информации в сообщении с символами, имеющими разные вероятности? Американский инженер и математик К. Шеннон продолжил работы Р. Хартли и в 1948 году предложил меру для измерения количества информации в сообщении с символами, имеющими различные вероятности реализации. Работы К. Шеннона составляют сущность содержательного (или вероятностного) подхода измерения информации. Дадим краткую историческую справку. К. Шеннон является основателем теории информации. Он первым предложил использовать термин “бит” для обозначения наименьшей единицы измерения информации. К. Шеннон ввёл следующие понятия (которые мы рассмотрим на уроке):
Дадим их краткое описание. Сначала дадим классическое определение вероятности. Вероятность p случайного события равна отношению числа исходов ki, благоприятствующих данному событию, к общему числу равновозможных исходов: pi= ki/S К. Шеннон ввёл количество информации (в битах) I(pi) i-го символа алфавита следующим образом: pi где - вероятность появления i-го символа алфавита. Величину I(pi) называют собственной информацией i-го символа алфавита. По формуле собственной информации видно, что чем меньше вероятность i-го символа алфавита, тем больше его собственная информация. Следовательно, в задаче 2 (с бросанием симметричной монеты с двумя сторонами) полученная информация I = 1 бит меньше, чем полученная информация I = 2,585 в задаче 3 (с бросанием симметричного шестигранного игрального кубика). Следовательно, чем меньше мы знаем о сообщении, тем больше информации в ней содержится. В своей основополагающей работе “Математическая теория связи” (1948 год) (см. [1]) К. Шеннон рассмотрел также среднее количество информации в сообщении, которую назвал информационной энтропией. Информационная энтропия Н определяется следующим образом: Дадим краткую историческую справку об энтропии. Понятие энтропии впервые было введено немецким физиком Р. Клаузиусом в термодинамике в 1865 году. Австрийский физик Л. Больцман и американский физик У. Гиббс связали энтропию с вероятностью и описали термодинамическую систему с помощью энтропии. К. Шеннон ввёл понятие энтропии в теорию информации. Заметим, что информационная энтропия – это мера хаотичности информации, определяющей неопределенность появления символа в сообщении. График двоичной энтропии (при S = 2) в зависимости от p = pi (тогда согласно свойствам вероятности p2 = 1 - p1) приведён на рисунке: Отметим, что двоичная энтропия играет большую роль в теории информации. Заметим, что информационная энтропия принимает своё максимальное значение () при равновероятных символах, т.е. В случае равновероятных символов формула Шеннона совпадает с формулой Хартли: 6. Применение полученных знаний. Решим следующие задачи. Задача 2: В корзине лежат 8 чёрных и 24 белых шаров. Сколько информации несет сообщение о том, что достали шар фиксированного цвета? Сколько информации несет сообщение о том, что достали шар любого цвета? Задача 5: Бросается несимметричная четырёхгранная пирамида. Известно, что являются вероятностями выпадения граней пирамиды. Вычислить количество полученной информации о выпадении какой-то грани пирамиды. 7. Обобщение и систематизация изученного материала. В ходе урока мы рассмотрели два подхода измерения информации.
8. Формирование домашнего задания постановкой вопросов для самопроверки. Ну что ж, время урока подходит к концу. Давайте вспомним, что такое:
Какие подходы измерения информации вы знаете? Хорошо! Пожалуйста, повторите дома записи в тетради. Запишите домашнее задание: <Приложение 1> До свидания! Литература.
xn--i1abbnckbmcl9fb.xn--p1ai |
|
||||||||||||||||||||||||||||||||||||
|
|