Начальная

Windows Commander

Far
WinNavigator
Frigate
Norton Commander
WinNC
Dos Navigator
Servant Salamander
Turbo Browser

Winamp, Skins, Plugins
Необходимые Утилиты
Текстовые редакторы
Юмор

File managers and best utilites

Реферат: Вероятностный подход к определению количества информации. Понятие энтропии. Реферат подходы к оценке количества информации


Доклад - Подходы к измерению количества информации. Мера Хартли

1. Подходы к измерению количества информации. Мера Хартли.

Современная наука о свойствах информации и закономерностях информационных процессов называется теорией информации. Содержание понятия «информация» можно раскрыть на примере двух исторически первых подходов к измерению количества информации: подходов Хартли и Шеннона: первый из них основан на теории множеств и комбинаторике, а второй — на теории вероятностей.

Информация может пониматься и интерпретироваться в различных проблемах, предметных областях по-разному. Вследствие этого, имеются различные подходы к определению измерения информации и различные способы введения меры количества информации.

Количество информации — числовая величина, адекватно характеризующая актуализируемую информацию по разнообразию, сложности, структурированности (упорядоченности), определенности, выбору состояний отображаемой системы.

Если рассматривается некоторая система, которая может принимать одно из n возможных состояний, то актуальной задачей является задача оценки этого выбора, исхода. Такой оценкой может стать мера информации (события).

Мера — непрерывная действительная неотрицательная функция, определенная на множестве событий и являющаяся аддитивной (мера суммы равна сумме мер).

Меры могут быть статические и динамические, в зависимости от того, какую информацию они позволяют оценивать: статическую (не актуализированную; на самом деле оцениваются сообщения без учета ресурсов и формы актуализации) или динамическую (актуализированную т.е. оцениваются также и затраты ресурсов для актуализации информации).

Существуют различные подходы к определению количества информации. Наиболее часто используются следующие два способа измерения информации: объёмный и вероятностный.

Объёмный подход

Используется двоичная система счисления, потому что в техническом устройстве наиболее просто реализовать два противоположных физических состояния: намагничено / не намагничено, вкл./выкл., заряжено / не заряжено и др.

Объём информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации, подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом невозмож¬но нецелое число битов.

Для удобства использования введены и более крупные, чем бит, единицы коли¬чества информации. Так, двоичное слово из восьми знаков содержит один байт информации, 1024 байта образуют килобайт (кбайт), 1024 килобайта – мегабайт (Мбайт), а 1024 мегабайта — гигабайт (Гбайт).

Энтропийный (вероятностный) подход

Этот подход принят в теории информации и кодирования. Данный способ измерения исходит из следующей модели: получатель сообщения имеет определённое представление о возможных наступлениях некоторых событий. Эти представления в общем случае недостоверны и выражаются вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределённостей называется энтропией. Энтропия характеризуется некоторой математической зависимостью от совокупности вероятности наступления этих событий.

Количество информации в сообщении определяется тем, насколько уменьшилась эта мера после получения сообщения: чем больше энтропия системы, тем больше степень её неопределённости. Поступающее сообщение полностью или частично снимает эту неопределённость, следовательно, количество информации можно измерять тем, насколько понизилась энтропия системы после получения сообщения. За меру количества информации принимается та же энтропия, но с обратным знаком.

Другими, менее известными способами измерения информации являются:

Алгоритмический подход. Так как имеется много различных вычислительных машин и языков программирования, т.е. разных способов задания алгоритма, то для определённости задаётся некоторая конкретная машина, например машина Тьюринга. Тогда в качестве количественной характеристики сообщения можно взять минимальное число внутренних состояний машины, требующихся для воспроизведения данного сообщения.

Семантический подход. Для измерения смыслового содержания информации, т.е. её количества на семантическом уровне, наибольшее признание получила тезаурусная мера (тезаурус — совокупность сведений, которыми располагает пользо¬ватель или система), которая связывает семанти¬ческие свойства информации со способностью пользователя принимать поступившее сообщение.

Прагматический подход. Эта мера определяет полезность информации (ценность) для достижения пользователем поставленной цели.

В основе всей теории информации лежит открытие, сделанное Р. Хартли в 1928 году, и состоящее в том, что информация допускает количественную оценку.

Подход Р. Хартли основан на фундаментальных теоретико–множественных, по существу комбинаторных основаниях, а также нескольких интуитивно ясных и вполне очевидных предположениях.

Если существует множество элементов и осуществляется выбор одного из них, то этим самым сообщается или генерируется определенное количество информации. Эта информация состоит в том, что если до выбора не было известно, какой элемент будет выбран, то после выбора это становится известным. Необходимо найти вид функции, связывающей количество информации, получаемой при выборе некоторого элемента из множества, с количеством элементов в этом множестве, т.е. с его мощностью.

Если множество элементов, из которых осуществляется выбор, состоит из одного–единственного элемента, то ясно, что его выбор предопределен, т.е. никакой неопределенности выбора нет — нулевое количество информации.

Если множество состоит из двух элементов, то неопределенность выбора минимальна. В этом случае минимально и количество информации.

Чем больше элементов в множестве, тем больше неопределенность выбора, тем больше информации.

Количество этих чисел (элементов) в множестве равно:

N = 2i

Из этих очевидных соображений следует первое требование: информация есть монотонная функция от мощности исходного множества.

Выбор одного числа дает нам следующее количество информации:

i = Log2(N)

Таким образом, количество информации, содержащейся в двоичном числе, равно количеству двоичных разрядов в этом числе.

Это выражение и представляет собой формулу Хартли для количества информации.

При увеличении длины числа в два раза количество информации в нем также должно возрасти в два раза, несмотря на то, что количество чисел в множестве возрастает при этом по показательному закону (в квадрате, если числа двоичные), т.е. если

N2=(N1)2,

то

I2 = 2 * I1,

F(N1*N1)= F(N1) + F(N1).

Это невозможно, если количество информации выражается линейной функцией от количества элементов в множестве. Но известна функция, обладающая именно таким свойством: это Log:

Log2(N2) = Log2(N1)2= 2 * Log2(N1).

Это второе требование называется требованием аддитивности.

Таким образом, логарифмическая мера информации, предложенная Хартли, одновременно удовлетворяет условиям монотонности и аддитивности. Сам Хартли пришел к своей мере на основе эвристических соображений, подобных только что изложенным, но в настоящее время строго доказано, что логарифмическая мера для количества информации однозначно следует из этих двух постулированных им условий.

Пример. Имеются 192 монеты. Известно, что одна из них — фальшивая, например, более легкая по весу. Определим, сколько взвешиваний нужно произвести, чтобы выявить ее. Если положить на весы равное количество монет, то получим 3 независимые возможности: а) левая чашка ниже; б) правая чашка ниже; в) чашки уравновешены. Таким образом, каждое взвешивание дает количество информации I=log23, следовательно, для определения фальшивой монеты нужно сделать не менее k взвешиваний, где наименьшее k удовлетворяет условию log23k log2192. Отсюда, k 5 или, k=4 (или k=5 — если считать за одно взвешивание и последнее, очевидное для определения монеты). Итак, необходимо сделать не менее 5 взвешиваний (достаточно 5).

2. Социальные аспекты информатики.

Термин “социальные аспекты” применительно к большей части наук, тем более фундаментальных, звучит странно. Вряд ли фраза “Социальные аспекты математики” имеет смысл. Однако, информатика – не только наука.

И впрямь, мало какие факторы так влияют на социальную сферу обществ (разумеется, находящихся в состоянии относительно спокойного развития, без войн и катаклизмов) как информатизация. Информатизация общества – процесс проникновения информационных технологий во все сферы жизни и деятельности общества. Многие социологи и политологи полагают, что мир стоит на пороге информационного общества. В. А. Извозчиков предлагает следующее определение: “Будем понимать под термином “информационное” (“компьютеризированное”) общество то, во все сферы жизни и деятельности членов которого включены компьютер, телематика, другие средства информатики в качестве орудий интеллектуального труда, открывающих широкий доступ к сокровищам библиотек, позволяющих с огромной скоростью проводить вычисления и перерабатывать любую информацию, моделировать реальные и прогнозируемые события, процессы, явления, управлять производством, автоматизировать обучение и т.д.”. Под “телематикой” понимаются службы обработки информации на расстоянии (кроме традиционных телефона и телеграфа).

Последние полвека информатизация является одной из причин перетока людей из сферы прямого материального производства в, так называемую, информационную сферу. Промышленные рабочие и крестьяне, составлявшие в середине XX века более 2/3 населения, сегодня в развитых странах составляют менее 1/3. Все больше тех, кого называют “белые воротнички” – людей, не создающих материальные ценности непосредственно, а занятых обработкой информации (в самом широком смысле): это и учителя, и банковские служащие, и программисты, и многие другие категории работников. Появились и новые пограничные специальности. Можно ли назвать рабочим программиста, разрабатывающего программы для станков с числовым программным управлением? – По ряду параметров можно, однако его труд не физический, а интеллектуальный.

Информатизация сильнейшим образом влияет на структуру экономики ведущих в экономическом отношении стран. В числе их лидирующих отраслей промышленности традиционные добывающие и обрабатывающие отрасли оттеснены максимально наукоемкими производствами электроники, средств связи и вычислительной техники (так называемой, сферой высоких технологий). В этих странах постоянно растут капиталовложения в научные исследования, включая фундаментальные науки. Темпы развития сферы высоких технологий и уровень прибылей в ней превышают в 5-10 раз темпы развития традиционных отраслей производства. Такая политика имеет и социальные последствия – увеличение потребности в высокообразованных специалистах и связанный с этим прогресс системы высшего образования. Информатизация меняет и облик традиционных отраслей промышленности и сельского хозяйства. Промышленные роботы, управляемые ЭВМ, станки с ЧПУ стали обычным оборудованием. Новейшие технологии в сельскохозяйственном производстве не только увеличивают производительность труда, но и облегчают его, вовлекают более образованных людей.

Казалось бы, компьютеризация и информационные технологии несут в мир одну лишь благодать, но социальная сфера столь сложна, что последствия любого, даже гораздо менее глобального процесса, редко бывают однозначными. Рассмотрим, например, такие социальные последствия информатизации как рост производительности труда, интенсификацию труда, изменение условий труда. Все это, с одной стороны, улучшает условия жизни многих людей, повышает степень материального и интеллектуального комфорта, стимулирует рост числа высокообразованных людей, а с другой – является источником повышенной социальной напряженности. Например, появление на производстве промышленных роботов ведет к полному изменению технологии, которая перестает быть ориентированной на человека. Тем самым меняется номенклатура профессий. Значительная часть людей вынуждена менять либо специальность, либо место работы – рост миграции населения характерен для большинства развитых стран. Государство и частные фирмы поддерживают систему повышения квалификации и переподготовки, но не все люди справляются с сопутствующим стрессом. Прогрессом информатики порожден и другой достаточно опасный для демократического общества процесс – все большее количество данных о каждом гражданине сосредоточивается в разных (государственных и негосударственных) банках данных. Это и данные о профессиональной карьере (базы данных отделов кадров), здоровье (базы данных учреждений здравоохранения), имущественных возможностях (базы данных страховых компаний), перемещении по миру и т.д. (не говоря уже о тех, которые копят специальные службы). В каждом конкретном случае создание банка может быть оправдано, но в результате возникает система невиданной раньше ни в одном тоталитарном обществе прозрачности личности, чреватой возможным вмешательством государства или злоумышленников в частную жизнь. Одним словом, жизнь в “информационном обществе” легче, по-видимому, не становится, а вот то, что она значительно меняется – несомненно.

www.ronl.ru

Курсовая работа - Подходы к измерению количества информации. Мера Хартли

1. Подходы к измерению количества информации. Мера Хартли.

Современная наука о свойствах информации и закономерностях информационных процессов называется теорией информации. Содержание понятия «информация» можно раскрыть на примере двух исторически первых подходов к измерению количества информации: подходов Хартли и Шеннона: первый из них основан на теории множеств и комбинаторике, а второй — на теории вероятностей.

Информация может пониматься и интерпретироваться в различных проблемах, предметных областях по-разному. Вследствие этого, имеются различные подходы к определению измерения информации и различные способы введения меры количества информации.

Количество информации — числовая величина, адекватно характеризующая актуализируемую информацию по разнообразию, сложности, структурированности (упорядоченности), определенности, выбору состояний отображаемой системы.

Если рассматривается некоторая система, которая может принимать одно из n возможных состояний, то актуальной задачей является задача оценки этого выбора, исхода. Такой оценкой может стать мера информации (события).

Мера — непрерывная действительная неотрицательная функция, определенная на множестве событий и являющаяся аддитивной (мера суммы равна сумме мер).

Меры могут быть статические и динамические, в зависимости от того, какую информацию они позволяют оценивать: статическую (не актуализированную; на самом деле оцениваются сообщения без учета ресурсов и формы актуализации) или динамическую (актуализированную т.е. оцениваются также и затраты ресурсов для актуализации информации).

Существуют различные подходы к определению количества информации. Наиболее часто используются следующие два способа измерения информации: объёмный и вероятностный.

Объёмный подход

Используется двоичная система счисления, потому что в техническом устройстве наиболее просто реализовать два противоположных физических состояния: намагничено / не намагничено, вкл./выкл., заряжено / не заряжено и др.

Объём информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации, подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом невозмож¬но нецелое число битов.

Для удобства использования введены и более крупные, чем бит, единицы коли¬чества информации. Так, двоичное слово из восьми знаков содержит один байт информации, 1024 байта образуют килобайт (кбайт), 1024 килобайта – мегабайт (Мбайт), а 1024 мегабайта — гигабайт (Гбайт).

Энтропийный (вероятностный) подход

Этот подход принят в теории информации и кодирования. Данный способ измерения исходит из следующей модели: получатель сообщения имеет определённое представление о возможных наступлениях некоторых событий. Эти представления в общем случае недостоверны и выражаются вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределённостей называется энтропией. Энтропия характеризуется некоторой математической зависимостью от совокупности вероятности наступления этих событий.

Количество информации в сообщении определяется тем, насколько уменьшилась эта мера после получения сообщения: чем больше энтропия системы, тем больше степень её неопределённости. Поступающее сообщение полностью или частично снимает эту неопределённость, следовательно, количество информации можно измерять тем, насколько понизилась энтропия системы после получения сообщения. За меру количества информации принимается та же энтропия, но с обратным знаком.

Другими, менее известными способами измерения информации являются:

Алгоритмический подход. Так как имеется много различных вычислительных машин и языков программирования, т.е. разных способов задания алгоритма, то для определённости задаётся некоторая конкретная машина, например машина Тьюринга. Тогда в качестве количественной характеристики сообщения можно взять минимальное число внутренних состояний машины, требующихся для воспроизведения данного сообщения.

Семантический подход. Для измерения смыслового содержания информации, т.е. её количества на семантическом уровне, наибольшее признание получила тезаурусная мера (тезаурус — совокупность сведений, которыми располагает пользо¬ватель или система), которая связывает семанти¬ческие свойства информации со способностью пользователя принимать поступившее сообщение.

Прагматический подход. Эта мера определяет полезность информации (ценность) для достижения пользователем поставленной цели.

В основе всей теории информации лежит открытие, сделанное Р. Хартли в 1928 году, и состоящее в том, что информация допускает количественную оценку.

Подход Р. Хартли основан на фундаментальных теоретико–множественных, по существу комбинаторных основаниях, а также нескольких интуитивно ясных и вполне очевидных предположениях.

Если существует множество элементов и осуществляется выбор одного из них, то этим самым сообщается или генерируется определенное количество информации. Эта информация состоит в том, что если до выбора не было известно, какой элемент будет выбран, то после выбора это становится известным. Необходимо найти вид функции, связывающей количество информации, получаемой при выборе некоторого элемента из множества, с количеством элементов в этом множестве, т.е. с его мощностью.

Если множество элементов, из которых осуществляется выбор, состоит из одного–единственного элемента, то ясно, что его выбор предопределен, т.е. никакой неопределенности выбора нет — нулевое количество информации.

Если множество состоит из двух элементов, то неопределенность выбора минимальна. В этом случае минимально и количество информации.

Чем больше элементов в множестве, тем больше неопределенность выбора, тем больше информации.

Количество этих чисел (элементов) в множестве равно:

N = 2i

Из этих очевидных соображений следует первое требование: информация есть монотонная функция от мощности исходного множества.

Выбор одного числа дает нам следующее количество информации:

i = Log2(N)

Таким образом, количество информации, содержащейся в двоичном числе, равно количеству двоичных разрядов в этом числе.

Это выражение и представляет собой формулу Хартли для количества информации.

При увеличении длины числа в два раза количество информации в нем также должно возрасти в два раза, несмотря на то, что количество чисел в множестве возрастает при этом по показательному закону (в квадрате, если числа двоичные), т.е. если

N2=(N1)2,

то

I2 = 2 * I1,

F(N1*N1)= F(N1) + F(N1).

Это невозможно, если количество информации выражается линейной функцией от количества элементов в множестве. Но известна функция, обладающая именно таким свойством: это Log:

Log2(N2) = Log2(N1)2= 2 * Log2(N1).

Это второе требование называется требованием аддитивности.

Таким образом, логарифмическая мера информации, предложенная Хартли, одновременно удовлетворяет условиям монотонности и аддитивности. Сам Хартли пришел к своей мере на основе эвристических соображений, подобных только что изложенным, но в настоящее время строго доказано, что логарифмическая мера для количества информации однозначно следует из этих двух постулированных им условий.

Пример. Имеются 192 монеты. Известно, что одна из них — фальшивая, например, более легкая по весу. Определим, сколько взвешиваний нужно произвести, чтобы выявить ее. Если положить на весы равное количество монет, то получим 3 независимые возможности: а) левая чашка ниже; б) правая чашка ниже; в) чашки уравновешены. Таким образом, каждое взвешивание дает количество информации I=log23, следовательно, для определения фальшивой монеты нужно сделать не менее k взвешиваний, где наименьшее k удовлетворяет условию log23k log2192. Отсюда, k 5 или, k=4 (или k=5 — если считать за одно взвешивание и последнее, очевидное для определения монеты). Итак, необходимо сделать не менее 5 взвешиваний (достаточно 5).

2. Социальные аспекты информатики.

Термин “социальные аспекты” применительно к большей части наук, тем более фундаментальных, звучит странно. Вряд ли фраза “Социальные аспекты математики” имеет смысл. Однако, информатика – не только наука.

И впрямь, мало какие факторы так влияют на социальную сферу обществ (разумеется, находящихся в состоянии относительно спокойного развития, без войн и катаклизмов) как информатизация. Информатизация общества – процесс проникновения информационных технологий во все сферы жизни и деятельности общества. Многие социологи и политологи полагают, что мир стоит на пороге информационного общества. В. А. Извозчиков предлагает следующее определение: “Будем понимать под термином “информационное” (“компьютеризированное”) общество то, во все сферы жизни и деятельности членов которого включены компьютер, телематика, другие средства информатики в качестве орудий интеллектуального труда, открывающих широкий доступ к сокровищам библиотек, позволяющих с огромной скоростью проводить вычисления и перерабатывать любую информацию, моделировать реальные и прогнозируемые события, процессы, явления, управлять производством, автоматизировать обучение и т.д.”. Под “телематикой” понимаются службы обработки информации на расстоянии (кроме традиционных телефона и телеграфа).

Последние полвека информатизация является одной из причин перетока людей из сферы прямого материального производства в, так называемую, информационную сферу. Промышленные рабочие и крестьяне, составлявшие в середине XX века более 2/3 населения, сегодня в развитых странах составляют менее 1/3. Все больше тех, кого называют “белые воротнички” – людей, не создающих материальные ценности непосредственно, а занятых обработкой информации (в самом широком смысле): это и учителя, и банковские служащие, и программисты, и многие другие категории работников. Появились и новые пограничные специальности. Можно ли назвать рабочим программиста, разрабатывающего программы для станков с числовым программным управлением? – По ряду параметров можно, однако его труд не физический, а интеллектуальный.

Информатизация сильнейшим образом влияет на структуру экономики ведущих в экономическом отношении стран. В числе их лидирующих отраслей промышленности традиционные добывающие и обрабатывающие отрасли оттеснены максимально наукоемкими производствами электроники, средств связи и вычислительной техники (так называемой, сферой высоких технологий). В этих странах постоянно растут капиталовложения в научные исследования, включая фундаментальные науки. Темпы развития сферы высоких технологий и уровень прибылей в ней превышают в 5-10 раз темпы развития традиционных отраслей производства. Такая политика имеет и социальные последствия – увеличение потребности в высокообразованных специалистах и связанный с этим прогресс системы высшего образования. Информатизация меняет и облик традиционных отраслей промышленности и сельского хозяйства. Промышленные роботы, управляемые ЭВМ, станки с ЧПУ стали обычным оборудованием. Новейшие технологии в сельскохозяйственном производстве не только увеличивают производительность труда, но и облегчают его, вовлекают более образованных людей.

Казалось бы, компьютеризация и информационные технологии несут в мир одну лишь благодать, но социальная сфера столь сложна, что последствия любого, даже гораздо менее глобального процесса, редко бывают однозначными. Рассмотрим, например, такие социальные последствия информатизации как рост производительности труда, интенсификацию труда, изменение условий труда. Все это, с одной стороны, улучшает условия жизни многих людей, повышает степень материального и интеллектуального комфорта, стимулирует рост числа высокообразованных людей, а с другой – является источником повышенной социальной напряженности. Например, появление на производстве промышленных роботов ведет к полному изменению технологии, которая перестает быть ориентированной на человека. Тем самым меняется номенклатура профессий. Значительная часть людей вынуждена менять либо специальность, либо место работы – рост миграции населения характерен для большинства развитых стран. Государство и частные фирмы поддерживают систему повышения квалификации и переподготовки, но не все люди справляются с сопутствующим стрессом. Прогрессом информатики порожден и другой достаточно опасный для демократического общества процесс – все большее количество данных о каждом гражданине сосредоточивается в разных (государственных и негосударственных) банках данных. Это и данные о профессиональной карьере (базы данных отделов кадров), здоровье (базы данных учреждений здравоохранения), имущественных возможностях (базы данных страховых компаний), перемещении по миру и т.д. (не говоря уже о тех, которые копят специальные службы). В каждом конкретном случае создание банка может быть оправдано, но в результате возникает система невиданной раньше ни в одном тоталитарном обществе прозрачности личности, чреватой возможным вмешательством государства или злоумышленников в частную жизнь. Одним словом, жизнь в “информационном обществе” легче, по-видимому, не становится, а вот то, что она значительно меняется – несомненно.

www.ronl.ru

Подходы к измерению количества информации. Мера Хартли - реферат

1. Подходы к измерению количества информации. Мера Хартли.

Современная наука о свойствах информации и закономерностях информационных процессов называется теорией информации. Содержание понятия "информация" можно раскрыть на примере двух исторически первых подходов к измерению количества информации: подходов Хартли и Шеннона: первый из них основан на теории множеств и комбинаторике, а второй - на теории вероятностей.

Информация может пониматься и интерпретироваться в различных проблемах, предметных областях по-разному. Вследствие этого, имеются различные подходы к определению измерения информации и различные способы введения меры количества информации.

Количество информации - числовая величина, адекватно характеризующая актуализируемую информацию по разнообразию, сложности, структурированности (упорядоченности), определенности, выбору состояний отображаемой системы.

Если рассматривается некоторая система, которая может принимать одно из n возможных состояний, то актуальной задачей является задача оценки этого выбора, исхода. Такой оценкой может стать мера информации (события).

Мера - непрерывная действительная неотрицательная функция, определенная на множестве событий и являющаяся аддитивной (мера суммы равна сумме мер).

Меры могут быть статические и динамические, в зависимости от того, какую информацию они позволяют оценивать: статическую (не актуализированную; на самом деле оцениваются сообщения без учета ресурсов и формы актуализации) или динамическую (актуализированную т.е. оцениваются также и затраты ресурсов для актуализации информации).

Существуют различные подходы к определению количества информации. Наиболее часто используются следующие два способа измерения информации: объёмный и вероятностный.

Объёмный подход

Используется двоичная система счисления, потому что в техническом устройстве наиболее просто реализовать два противоположных физических состояния: намагничено / не намагничено, вкл./выкл., заряжено / не заряжено и др.

Объём информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации, подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом невозмож¬но нецелое число битов.

Для удобства использования введены и более крупные, чем бит, единицы коли¬чества информации. Так, двоичное слово из восьми знаков содержит один байт информации, 1024 байта образуют килобайт (кбайт), 1024 килобайта – мегабайт (Мбайт), а 1024 мегабайта - гигабайт (Гбайт).

Энтропийный (вероятностный) подход

Этот подход принят в теории информации и кодирования. Данный способ измерения исходит из следующей модели: получатель сообщения имеет определённое представление о возможных наступлениях некоторых событий. Эти представления в общем случае недостоверны и выражаются вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределённостей называется энтропией. Энтропия характеризуется некоторой математической зависимостью от совокупности вероятности наступления этих событий.

Количество информации в сообщении определяется тем, насколько уменьшилась эта мера после получения сообщения: чем больше энтропия системы, тем больше степень её неопределённости. Поступающее сообщение полностью или частично снимает эту неопределённость, следовательно, количество информации можно измерять тем, насколько понизилась энтропия системы после получения сообщения. За меру количества информации принимается та же энтропия, но с обратным знаком.

Другими, менее известными способами измерения информации являются:

Алгоритмический подход. Так как имеется много различных вычислительных машин и языков программирования, т.е. разных способов задания алгоритма, то для определённости задаётся некоторая конкретная машина, например машина Тьюринга. Тогда в качестве количественной характеристики сообщения можно взять минимальное число внутренних состояний машины, требующихся для воспроизведения данного сообщения.

Семантический подход. Для измерения смыслового содержания информации, т.е. её количества на семантическом уровне, наибольшее признание получила тезаурусная мера (тезаурус - совокупность сведений, которыми располагает пользо¬ватель или система), которая связывает семанти¬ческие свойства информации со способностью пользователя принимать поступившее сообщение.

Прагматический подход. Эта мера определяет полезность информации (ценность) для достижения пользователем поставленной цели.

В основе всей теории информации лежит открытие, сделанное Р. Хартли в 1928 году, и состоящее в том, что информация допускает количественную оценку.

Подход Р. Хартли основан на фундаментальных теоретико–множественных, по существу комбинаторных основаниях, а также нескольких интуитивно ясных и вполне очевидных предположениях.

Если существует множество элементов и осуществляется выбор одного из них, то этим самым сообщается или генерируется определенное количество информации. Эта информация состоит в том, что если до выбора не было известно, какой элемент будет выбран, то после выбора это становится известным. Необходимо найти вид функции, связывающей количество информации, получаемой при выборе некоторого элемента из множества, с количеством элементов в этом множестве, т.е. с его мощностью.

Если множество элементов, из которых осуществляется выбор, состоит из одного–единственного элемента, то ясно, что его выбор предопределен, т.е. никакой неопределенности выбора нет - нулевое количество информации.

Если множество состоит из двух элементов, то неопределенность выбора минимальна. В этом случае минимально и количество информации.

Чем больше элементов в множестве, тем больше неопределенность выбора, тем больше информации.

Количество этих чисел (элементов) в множестве равно:

N = 2i

Из этих очевидных соображений следует первое требование: информация есть монотонная функция от мощности исходного множества.

Выбор одного числа дает нам следующее количество информации:

i = Log2(N)

Таким образом, количество информации, содержащейся в двоичном числе, равно количеству двоичных разрядов в этом числе.

Это выражение и представляет собой формулу Хартли для количества информации.

При увеличении длины числа в два раза количество информации в нем также должно возрасти в два раза, несмотря на то, что количество чисел в множестве возрастает при этом по показательному закону (в квадрате, если числа двоичные), т.е. если

N2=(N1)2,

то

I2 = 2 * I1,

F(N1*N1)= F(N1) + F(N1).

Это невозможно, если количество информации выражается линейной функцией от количества элементов в множестве. Но известна функция, обладающая именно таким свойством: это Log:

Log2(N2) = Log2(N1)2= 2 * Log2(N1).

Это второе требование называется требованием аддитивности.

Таким образом, логарифмическая мера информации, предложенная Хартли, одновременно удовлетворяет условиям монотонности и аддитивности. Сам Хартли пришел к своей мере на основе эвристических соображений, подобных только что изложенным, но в настоящее время строго доказано, что логарифмическая мера для количества информации однозначно следует из этих двух постулированных им условий.

Пример. Имеются 192 монеты. Известно, что одна из них - фальшивая, например, более легкая по весу. Определим, сколько взвешиваний нужно произвести, чтобы выявить ее. Если положить на весы равное количество монет, то получим 3 независимые возможности: а) левая чашка ниже; б) правая чашка ниже; в) чашки уравновешены. Таким образом, каждое взвешивание дает количество информации I=log23, следовательно, для определения фальшивой монеты нужно сделать не менее k взвешиваний, где наименьшее k удовлетворяет условию log23k log2192. Отсюда, k 5 или, k=4 (или k=5 - если считать за одно взвешивание и последнее, очевидное для определения монеты). Итак, необходимо сделать не менее 5 взвешиваний (достаточно 5).

2. Социальные аспекты информатики.

Термин “социальные аспекты” применительно к большей части наук, тем более фундаментальных, звучит странно. Вряд ли фраза “Социальные аспекты математики” имеет смысл. Однако, информатика – не только наука.

И впрямь, мало какие факторы так влияют на социальную сферу обществ (разумеется, находящихся в состоянии относительно спокойного развития, без войн и катаклизмов) как информатизация. Информатизация общества – процесс проникновения информационных технологий во все сферы жизни и деятельности общества. Многие социологи и политологи полагают, что мир стоит на пороге информационного общества. В. А. Извозчиков предлагает следующее определение: “Будем понимать под термином “информационное” (“компьютеризированное”) общество то, во все сферы жизни и деятельности членов которого включены компьютер, телематика, другие средства информатики в качестве орудий интеллектуального труда, открывающих широкий доступ к сокровищам библиотек, позволяющих с огромной скоростью проводить вычисления и перерабатывать любую информацию, моделировать реальные и прогнозируемые события, процессы, явления, управлять производством, автоматизировать обучение и т.д.”. Под “телематикой” понимаются службы обработки информации на расстоянии (кроме традиционных телефона и телеграфа).

Последние полвека информатизация является одной из причин перетока людей из сферы прямого материального производства в, так называемую, информационную сферу. Промышленные рабочие и крестьяне, составлявшие в середине XX века более 2/3 населения, сегодня в развитых странах составляют менее 1/3. Все больше тех, кого называют “белые воротнички” – людей, не создающих материальные ценности непосредственно, а занятых обработкой информации (в самом широком смысле): это и учителя, и банковские служащие, и программисты, и многие другие категории работников. Появились и новые пограничные специальности. Можно ли назвать рабочим программиста, разрабатывающего программы для станков с числовым программным управлением? – По ряду параметров можно, однако его труд не физический, а интеллектуальный.

Информатизация сильнейшим образом влияет на структуру экономики ведущих в экономическом отношении стран. В числе их лидирующих отраслей промышленности традиционные добывающие и обрабатывающие отрасли оттеснены максимально наукоемкими производствами электроники, средств связи и вычислительной техники (так называемой, сферой высоких технологий). В этих странах постоянно растут капиталовложения в научные исследования, включая фундаментальные науки. Темпы развития сферы высоких технологий и уровень прибылей в ней превышают в 5-10 раз темпы развития традиционных отраслей производства. Такая политика имеет и социальные последствия – увеличение потребности в высокообразованных специалистах и связанный с этим прогресс системы высшего образования. Информатизация меняет и облик традиционных отраслей промышленности и сельского хозяйства. Промышленные роботы, управляемые ЭВМ, станки с ЧПУ стали обычным оборудованием. Новейшие технологии в сельскохозяйственном производстве не только увеличивают производительность труда, но и облегчают его, вовлекают более образованных людей.

Казалось бы, компьютеризация и информационные технологии несут в мир одну лишь благодать, но социальная сфера столь сложна, что последствия любого, даже гораздо менее глобального процесса, редко бывают однозначными. Рассмотрим, например, такие социальные последствия информатизации как рост производительности труда, интенсификацию труда, изменение условий труда. Все это, с одной стороны, улучшает условия жизни многих людей, повышает степень материального и интеллектуального комфорта, стимулирует рост числа высокообразованных людей, а с другой – является источником повышенной социальной напряженности. Например, появление на производстве промышленных роботов ведет к полному изменению технологии, которая перестает быть ориентированной на человека. Тем самым меняется номенклатура профессий. Значительная часть людей вынуждена менять либо специальность, либо место работы – рост миграции населения характерен для большинства развитых стран. Государство и частные фирмы поддерживают систему повышения квалификации и переподготовки, но не все люди справляются с сопутствующим стрессом. Прогрессом информатики порожден и другой достаточно опасный для демократического общества процесс – все большее количество данных о каждом гражданине сосредоточивается в разных (государственных и негосударственных) банках данных. Это и данные о профессиональной карьере (базы данных отделов кадров), здоровье (базы данных учреждений здравоохранения), имущественных возможностях (базы данных страховых компаний), перемещении по миру и т.д. (не говоря уже о тех, которые копят специальные службы). В каждом конкретном случае создание банка может быть оправдано, но в результате возникает система невиданной раньше ни в одном тоталитарном обществе прозрачности личности, чреватой возможным вмешательством государства или злоумышленников в частную жизнь. Одним словом, жизнь в “информационном обществе” легче, по-видимому, не становится, а вот то, что она значительно меняется – несомненно.

2dip.su

Методы оценки количества информации.

Количество просмотров публикации Методы оценки количества информации. - 428

Как и для характеристик вещества, так и для характеристик информации имеются единицы измерения, что позволяет некоторой порции информации приписывать числа — количественные характеристики информации.

На сегодняшний день наиболее известны следующие способы измерения информации:

1. объёмный,

2. энтропийный,

3. алгоритмический.

Объемный является самым простым и грубым способом измерения информации. Соответствующую количественную оценку информации естественно назвать объёмом информации.

Объем информации в сообщении —- это количество символов ( разрядов) в сообщении.

Поскольку, к примеру, одно и то же число должна быть записано многими разными способами (с использованием разных алфавитов):

ʼʼдвадцать одинʼʼ

110012

XXI,

то данный способ соотносится с формой представления (записи) сообщения.

В различных системах счисления один разряд имеет различный вес и соответственно меняется единица измерения данных:

В двоичной системе счисления единица измерения - бит (знаки 0 и 1 ) Отметим, что создатели компьюте­ров отдают предпочтение именно двоичной системе счисления потому, что в техническом устройстве наиболее просто реализовать два противоположных физических состояния: некоторый физический элемент, имеющий два различных состояния: намагниченность в двух противоположных направлениях; прибор, пропускающий или нет электрический ток; конденсатор, заряженный или незаря­женный и т.п. В компьютере бит является наименьшей возможной единицей инфор­мации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителœе информации подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом, в частности, невозмож­но нецелое число битов (в отличие от вероятностного подхода).

Для удобства использования введены и более крупные, чем бит, единицы коли­чества информации: 1 байт = 8 битов

1Кбайт= 1024 байта

1024 килобайта - мегабайт (Мбайт)

1024 мегабайта - гигабайт (Гбайт).

В десятичной системе счисления единица измерения - дит (десятичный разряд)

Пример: Сообщение в двоичной системе 1011110112=8 бит=1 байт

Сообщение в десятичной системе 275903 = 6 дит

Энтропийный подход к измерению информации принят в теории информации и кодирования. Этот способ измерения исходит из следующей модели. Получатель информации (сообщения) имеет определœенные представления о возможных наступлениях некоторых событий. Эти представления в общем случае недостоверны и выражаются вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределœенности (энтропия) характеризуется некоторой математической зависимостью от совокупности этих вероятностей.

К.Шенноном было введено понятие энтропии - количественной меры информации, как меры неопределœенности состояния объекта или некоторой ситуации с конечным числом исходов. В статистической теории основное внимание обращается на распределœение вероятности появления отдельных событий и построение на его базе обобщенных характеристик, позволяющих оценить количество информации в одном событии либо в их совокупности.

Чтобы возник процесс передачи, должны иметь место источник информации и потребитель. Источник выдает сообщение, потребитель, принимая сообщение, получает при этом информацию о состоянии источника. В статической теории не изучается содержание информации. Предполагается, что до получения информации имела место некоторая неопределённость. С получением информации эта неопределœенность снимается.

Τᴀᴋᴎᴍ ᴏϬᴩᴀᴈᴏᴍ, статистическая количественная мера информации - ϶ᴛᴏ мера снимаемой в процессе получения информации неопределœенности системы. Количество информации зависит от закона распределœения состояния системы.

Семантический подход базируется на ценности информации. Термин "семантика" исторически применялся в металогике и семиотике. В металогике под семантикой принято понимать совокупность правил соответствия между формальными выражениями и их интерпретацией (истолкованием). Под семиотикой понимают комплекс научных теорий, изучающих свойства знаковых систем, ᴛ.ᴇ. систем конкретных или абстрактных объектов, с каждым из которых сопоставлено неĸᴏᴛᴏᴩᴏᴇ значение. Примерами знаковых систем являются естественные языки и искусственные языки: алгоритмические языки, языки программирования, информационные языки и др. Размещено на реф.рфОбобщенно термин "знаковые языки" подразумевает любые устройства, рассматриваемые как "черные ящики". В информатике языки различного уровня занимают всœе большее место.

Семантическая теория оценивает содержательный аспект информации, семантический подход базируется на анализе её ценности. Ценность информации связывают со временем, поскольку с течением времени она стареет и ценность её, а следовательно и "количество" уменьшается.

Семантический подход имеет особое значение при использовании информации для управления, т.к. количество информации тесно связано с эффективностью управления в системе.

Структурный подход рассматривает построение информационных массивов, что имеет особое значение при хранении информации. Универсальным средством как оперативного, так и долговременного хранения различной информации стали ЭВМ. Оценка количества информации с позиций структурного подхода оказывается исключительно плодотворной, так как за единицы информации принимаются некоторые "ранговые" структурные единицы: реквизиты – логически неделимые элементы документации, описывающие определœенные свойства объекта (реквизиты – основания, определяющие числовые данные: вес, количество, стоимость, номер, год, реквизиты – признаки: фамилия, цвет, марка), записи, информационные массивы, комплексы информационных массивов, информационная база, банк данных.

Структурный подход к оценке количества информации в настоящее время приобретает всœе большее значение, поскольку крайне важно оценивать всœе возрастающее количество хранимой информации.

Τᴀᴋᴎᴍ ᴏϬᴩᴀᴈᴏᴍ, статистическая количественная характеристика информации - ϶ᴛᴏ мера снимаемой в процессе получения информации неопределœенности системы. Количество информации зависит от закона распределœения состояний системы.

Учитывая зависимость отвида перерабатываемой информации (вида сообщений) вычислительные машины и устройства делят на два базовых класса: аналоговые (непрерывного действия) и цифровые (дискретные).

Аналоговые вычислительные машины (АВМ) оперируют с информацией, представленной в виде непрерывных изменений некоторых физических величин (ток, напряжение, угол поворота͵ скорость движения тела и т.п.). Используя тот факт, что многие явления в природе, обществе, технике математически описываются одними и теми же уравнениями, АВМ обычно предназначаются для решения определœенного класса задач.

Объектом передачи и преобразования в цифровых вычислительных машинах (ЭВМ) являются дискретные сообщения, как уже отмечалось выше, формируемые из различных последовательностей элементов. Элементы (цифры, буквы, математические знаки, цвета сигнальных ламп и др.), из которых состоят дискретные сообщения, называются символами. Фиксируемый конечный набор символов составляет алфавит, а число символов в алфавите – объём алфавита.

Заложенные еще К. Шенноном принципы количественной оценки информации на базе функции энтропии, сохраняют свою значимость до настоящего времени и являются полезными при определœении информативности символов и сообщений.

referatwork.ru

2.2. Методы и модели оценки количества информации

Для теоретической информатики информация играет такую же роль, как и вещество в физике. И подобно тому, как веществу можно приписывать довольно большое количество различных характеристик: массу, заряд, объем и т. д., так и для информации имеется набор некоторых характеристик. Как и для характеристик вещества, так и для характеристик информации имеются единицы измерения, что позволяет некоторой порции информации приписывать числа – количественные характеристики информации.

На сегодняшний день наиболее известны следующие способы измерения информации:

объемный;

энтропийный;

алгоритмический.

Объемный способ является самым простым и грубым способом измерения информации. Соответствующую количественную оценку информации при этом называют объемом информации.

Объем информации в сообщении представляет собой количество символов в этом сообщении.

В вычислительной технике вся обрабатываемая и хранимая информация вне зависимости от ее природы (числа, текст, изображение) представляется в двоичной форме (с использованием алфавита, состоящего всего из двух символов – 0 или 1). Поэтому для измерения объема информации введена единица измерения – бит (сокращенно от binary digit – двоичная цифра). Один бит информации – это один двоичный символ (0 или 1). Единицами измерения большего объема информации являются:

байт = 8 бит;

Кбайт = 210 байт = 1024 байт;

Мбайт = 220 байт = 1024 Кбайт.

В теории информации и кодирования принят энтропийный подход к измерению информации. Этот способ измерения исходит из следующей модели. Получатель сообщения имеет определенные представления о возможных наступлениях некоторых событий. Эти представления в общем случае недостоверны (т.е., как правило, не совпадают с реальным положением дел) и выражаются вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределенности (энтропия) характеризуется некоторой математической зависимостью от совокупности этих вероятностей. Количество информации в сообщении определяется тем, насколько уменьшится энтропия после получения сообщения.

При энтропийном подходе количество информации (энтропия источника информации (сообщения)) определяется по формуле

H = log 2 m,

где m – число возможных равновероятных выборов.

Рассмотрим пример. Пусть имеется колода из 32 различных карт. Необходимо угадать, какая карта выбрана из колоды. Для этого достаточно задать

H = log 2 32 = 5 вопросов. Например:

1. Карта красной масти? Ответ: нет.

2. Трефы? Ответ: нет.

3. Одна из четырех старших? Ответ: да.

4. Одна из двух самых старших? Ответ: нет.

5. Дама? Ответ: да.

Таким образом, полученная оценка характеризует число двоичных вопросов, ответы на которые могут быть односложными: "да" или "нет" (1 или 0).

При алгоритмическом методе оценки информации исходят из того, что любому сообщению можно приписать количественную характеристику, отражающую сложность (размер) программы, которая позволяет его обработать. Поскольку имеется много различных по производительности ЭВМ и много разных языков программирования, то для определенности задаются некоторой конкретной вычислительной машиной, например машиной Тьюринга, а предполагаемая количественная характеристика – сложность слова (сообщения) определяется как минимальное число внутренних состояний машины Тьюринга, требующихся для его воспроизведения.

Завершая второй учебный вопрос, сформулируем выводы:

  1. Информация представляет собой продукт взаимодействия данных и адекватных им методов обработки. Она существует только в момент протекания информационного процесса.

  2. В зависимости от области использования и других факторов, можно выделить различные виды информации.

  3. Как и любой другой объект природы, информация имеет ряд свойств, присущих только ей.

studfiles.net

Реферат - Вероятностный подход к определению количества информации. Понятие энтропии.

Если обратить внимание на разговорные языки, например русский, то можно сделать интересные выводы. Для упрощения теоретических исследований в информатике принято считать, что русский алфавит состоит из 32 символов (е и ё, а также ь и ъ между собой не различаются, но добавляется знак пробела между словами). Если считать, что каждая буква русского языка в сообщении появляется одинаково часто (т.е. равновероятно) и после каждой буквы может стоять любой другой символ, то, используя двоичную логарифмическую меру измерения информации Хартли, можно определить количество информации в каждом символе русского языка как:

I= log2 32=5.

Однако, фактически все бывает не так. Во всех разговорных языках одни буквы встречаются чаще, другие — гораздо реже. Исследования говорят, что на 1000 букв приходится следующее число повторений:

В русском языке: В английском языке:
О 110, Е 87, А 75, И 75, Т 65… Е 131, Т 105, А 86, О 80, N 71, R 68…

Кроме того, вероятность появления отдельных букв зависит от того, какие буквы им предшествуют. Так, в русском языке после гласной не может следовать мягкий знак, не могут стоять четыре гласные подряд и так далее. Любой разговорный язык имеет свои особенности и закономерности. По этим причинам количество информации в сообщениях, построенных из символов любого разговорного языка, нельзя оценивать двоичной логарифмической мерой Хартли.

Какое количество информации тогда содержится, к примеру, в тексте романа «Война и мир», во фресках Рафаэля или в генетическом коде человека? Ответа на эти вопросы наука не даёт и, по всей вероятности, даст не скоро. А возможно ли объективно измерить количество информации? К задачам подобного рода относятся также следующая:

Пример: Являются ли равновероятными сообщения «первой выйдет из дверей здания женщина» и «первым выйдет из дверей здания мужчина». Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно помещении идет речь. Если это, например, вестибюль станции метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

Для задач такого рода используется общая оценка количества информации Шеннона. Американский учёный Клод Шеннон в 1948 г. предложил формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе. Он использовал применяемую в математике и гидродинамике вероятностную меру неопределенности (энтропию) для того, чтобы в полной мере оценить состояние изучаемой системы и получить максимально возможную информацию о протекающих в этой системе процессах. Эта оценка количества информации, по-существу, является вероятностной мерой, и, как оценка неопределенности, она

Вывод: отражает способность какого-либо ис-точника проявлять все новые и новые состояния и таким образом отдавать информацию.

Шеннон энтропию определил как среднюю логарифмическую функцию множества вероятностей возможных состояний системы (возможных исходов опыта)[5]). Для расчета энтропии HШеннон предложил следующее уравнение:

H= –( p1log2 p1+p2 log2 p2+.. .+pN log2 pN),

где p i — вероятность появления i-е события в наборе из N событий.

Тогда количество информации, полученное исследователем после опыта будет не что иное, как разность между энтропией системы до H0и после h2опыта, или

I= H0–h2,

причем если неопределенность в результате опыта снимается полностью имеем:

I= – h2или I= Σ (pi log2 pi), i= 1,…,N .

Если события равновероятны, то количество информации определяется по формуле Хартли:

i =log2 N.

Пример: После экзамена по информатике, который сдавали студенты, объявляются оценки («2», «3», «4» или «5»). Какое количество информации будет нести сообщение об оценке учащегося A, который выучил лишь половину билетов, и сообщение об оценке учащегося B, который выучил все билеты..

Опыт показывает, что для учащегося A все четыре оценки (события) равновероятны, а для для учащегося B наиболее вероятной оценкой является «5» (p1 = 1/2), вероятность оценки «4» в два раза меньше (p2 = 1/4), а вероятности оценок «2» и «3» еще в два раза меньше (p3 = p4 = 1/8).

Тогда, количество информации, которое несет сообщение об оценке учащегося А, равно (на основании формулы Хартли)

i =log2 4= 2,

а количество информации, содержащее в сообщении об оценке ученика В, есть

I=–(1/2 log21/2+1/4 log21/4+1/8 log21/8+1/8 log21/8)=1,75.

Вычисления показали, что при равновероятных событиях мы получаем большее количество информации, чем при неравновероятных событиях.

www.ronl.ru

Реферат - Различные подходы к определению количества информации. Единицы измерения количества информации

--PAGE_BREAK--

Посмотрите внимательно на таблицу, какую взаимосвязь между величинами iи Nвы видите?

(отвечают)

Можно вывести следующую формулу, выражающую связь между количеством вариантов исхода и количеством информации, которое несет сообщение: <img width=«45» height=«21» src=«ref-1_1538954661-135.coolpic» v:shapes="_x0000_i1038">

Верно, молодцы! Эта формула, количественно оценивающая информацию, была предложена американским инженером Ральфом Хартли в 1928 году и, соответственно, так и называется – формула Хартли. Запишите эту формулу в тетрадях, и постарайтесь ее запомнить.

<img width=«45» height=«21» src=«ref-1_1538954661-135.coolpic» v:shapes="_x0000_i1039">- формула Хартли,

где N-количество вариантов исхода,

  i– количество информации, которое несет сообщение.Слайд4

<img width=«246» height=«145» src=«ref-1_1538954931-7264.coolpic» v:shapes="_x0000_i1040">

(записывают формулу в тетради)

Количество информации в сообщении измеряется в битах.

То есть 1 бит – это количество информации в сообщении, которое уменьшает неопределенность в два раза. Слайд 5

<img width=«217» height=«109» src=«ref-1_1538962195-4379.coolpic» v:shapes="_x0000_i1041">

(записывают определение в тетради)

Теперь решите следующую задачу:

При приеме некоторого сообщения получили 5 бит информации. Сколько вариантов исхода было до получения сообщения?

Слайд 6

<img width=«220» height=«134» src=«ref-1_1538966574-6101.coolpic» v:shapes="_x0000_i1042">

(одного из учеников вызвать к доске, другие делают на местах)

Дано:

 i=5 бит

      Найти N-?

Решение:

N=2i, N=25, N=32.

Ответ: 32 варианта исхода.

Подведем итог урока:

Какие цели в начале урока мы перед собой поставили?

Что нового узнали? Чему научились?

Можно ли измерять информацию?

(отвечают)

Информацию можно измерять.

В чем состоит содержательный подход к определению информации?

(отвечают)

Измерить количество информации можно только в том сообщении, в котором известно количество возможных событий (вариантов) и не один из них не имеет преимущества перед другим. Чтобы выяснить количество возможных исходов, человеку необходимо понять содержание (смысл) сообщения, поэтому такой подход называется содержательным.

В чём состоит неопределённость знания в опыте по бросанию монеты?

(отвечают)

При бросании монеты возможны два варианта исхода (орел или решка), заранее результат не известен, поэтому мы имеем неопределенность.

Что принято за единицу измерения количества информации?

(отвечают)

За единицу количества информации принимается такое количество информации, которое содержится в информационном сообщении, уменьшающем неопределенность знания в два раза. Такая единица называется битом.

Домашнее задание:

Угринович Н. Д.Информатика и ИКТ. Базовый курс. Учебник для 8 класса; стр.27-28 (прочитать и ответить на контрольные вопросы из учебника на стр. 29). Просмотреть опорный конспект урока в тетради, знать основные определения; и решить одну задачу. Слайд 7

<img width=«228» height=«138» src=«ref-1_1538972675-7844.coolpic» v:shapes="_x0000_i1043">

(записывают домашнее задание в тетради, и переписывают из слайда задачу)

5. Конспект урока №2 Тема урока: Измерение количества информации

(содержательный подход).

Единицы измерения информации

Тип урока: Комбинированный

Цели:

образовательные

-                   отработать решение задач, связанных с измерением количества информации при содержательном подходе;

развивающие

-                   формирование представления о содержательном подходе к определению количества информации;

воспитательные

-                   воспитать коммуникативность, креативность и любознательность;

-                   воспитать критическое мышление, интерес к изучаемой теме.

Задачи:

Ученик:

-                   должен уметь решать задачи, связанные с измерением количества информации при содержательном подходе;

Формы и методы: фронтальная, индивидуальная, объяснительно – иллюстративный, решение задач.

Оборудование урока: демонстрационная презентация «Содержательный подход к определению количества информации. Единицы измерения количества информации» (презентация находится самом конспекте).

Литература:

1.                 Лапчик М.П. и др. Методика преподавания информатики: Учеб. пособие для студ. пед. вузов.— М.: Издательский центр «Академия», 2001;

2.                 Угринович Н.Д. Информатика и ИКТ. Базовый курс: Учебник для 8 класса.— М.: БИНОМ. Лаборатория знаний, 2006.

План урока.

1. Организационный момент (1 мин)

2. Актуализация знаний (4мин)

4. Решение задач (15мин)

5. Изучение нового материала (10мин)

6. Закрепление (10мин)

7. Подведение итогов урока, домашнее задание (6 мин)

Ход урока

Учитель:

Ученики: Учитель: Ученик: Учитель:

Ученик: Учитель:

Ученик: Учитель:

Ученик: Учитель: Ученик:

Учитель: Ученик: Учитель: Ученик: Учитель: Ученик: Учитель: Ученик:

Учитель: Ученик: Учитель: Ученик: Учитель: Учитель:

Ученик:

Учитель: Ученик:  

Здравствуйте, ребята! Садитесь. Кто сегодня отсутствует?

(отвечают и настраиваются на работу)

Сегодня мы с вами отработаем навыки решения задач на измерение информации при содержательном подходе, а также познакомимся с единицами измерения информации и рассмотрим соотношения между ними.

Сначала, ответьте на несколько вопросов.

Можно ли измерять информацию?

(отвечают)

Информацию можно измерять.

В чем состоит содержательный подход к определению информации?

(отвечают)

Измерить количество информации можно только в том сообщении, в котором известно количество возможных событий (вариантов) и не один из них не имеет преимущества перед другим. Чтобы выяснить количество возможных исходов, человеку необходимо понять содержание (смысл) сообщения, поэтому такой подход называется содержательным.

Что принято за единицу измерения количества информации?

(отвечают)

За единицу количества информации принимается такое количество информации, которое содержится в информационном сообщении, уменьшающем неопределенность знания в два раза. Такая единица называется битом.

Как зависит количество информации от количества возможных событий?

(отвечают)

<img width=«45» height=«21» src=«ref-1_1538954661-135.coolpic» v:shapes="_x0000_i1044">

Эта формула сегодня понадобится при решении задач.

Откройте, пожалуйста, тетради. Запишите сегодняшнее число, и тему урока «Измерение количества информации (содержательный подход). Единицы измерения информации».Слайд 1

<img width=«247» height=«149» src=«ref-1_1538980654-5437.coolpic» v:shapes="_x0000_i1045">

(записывают число и тему урока)

Ребята, мы с вами начнем решение задач. Условия задач представлены на слайдах. Вам обязательно необходимо записывать условия задач, а также их решение. Слайд 2

(Каждую задачу решает у доски определенный ученик, остальные выполняют задания на местах.)

(Задачи на слайде 2)

<img width=«256» height=«158» src=«ref-1_1538986091-12445.coolpic» v:shapes="_x0000_i1046">

Задача №1

При приеме некоторого сообщения получили 6 бит информации. Сколько вариантов исхода было до получения сообщения?

(решает задачу)

Дано:

<img width=«33» height=«19» src=«ref-1_1538998536-108.coolpic» v:shapes="_x0000_i1047">

<img width=«41» height=«19» src=«ref-1_1538998644-122.coolpic» v:shapes="_x0000_i1048">

Решение:

<img width=«45» height=«21» src=«ref-1_1538954661-135.coolpic» v:shapes="_x0000_i1049">,<img width=«48» height=«21» src=«ref-1_1538998901-139.coolpic» v:shapes="_x0000_i1050">, <img width=«49» height=«19» src=«ref-1_1538999040-139.coolpic» v:shapes="_x0000_i1051">.

Ответ: 64 варианта исхода было до получения сообщения.

Задача №2

Сколько различных изображений лежало в стопке, если сообщение о вытащенной картинке несет 3 бита информации?

(решает задачу)

Дано:

<img width=«32» height=«19» src=«ref-1_1538999179-107.coolpic» v:shapes="_x0000_i1052">

<img width=«41» height=«19» src=«ref-1_1538998644-122.coolpic» v:shapes="_x0000_i1053">

Решение:

<img width=«45» height=«21» src=«ref-1_1538954661-135.coolpic» v:shapes="_x0000_i1054">,<img width=«47» height=«21» src=«ref-1_1538999543-138.coolpic» v:shapes="_x0000_i1055">, <img width=«41» height=«19» src=«ref-1_1538999681-126.coolpic» v:shapes="_x0000_i1056">.

Ответ: 8 изображений в стопке.

Минимальной единицей измерения количества информации является бит, а следующей по величине единицей – байт, причем: 1 байт = 8 битов = <img width=«17» height=«20» src=«ref-1_1538999807-98.coolpic» v:shapes="_x0000_i1057">битов. Таким образом, в информатике система образования кратных единиц измерения несколько отличается от принятых в большинстве наук. В компьютере информация кодируется с помощью двоичной знаковой системы, и поэтому в кратных единицах измерения количества информации используется коэффициент <img width=«19» height=«20» src=«ref-1_1538999905-97.coolpic» v:shapes="_x0000_i1058">. Так, кратные байту единицы измерения количества информации вводятся следующим образом:Слайд 3

1 килобайт (Кбайт) = <img width=«21» height=«20» src=«ref-1_1539000002-106.coolpic» v:shapes="_x0000_i1059">байт = 1024 байт

1 мегабайт (Мбайт) = <img width=«21» height=«20» src=«ref-1_1539000002-106.coolpic» v:shapes="_x0000_i1060">Кбайт = 1024 Кбайт

1 гигабайт (Гбайт) = <img width=«21» height=«20» src=«ref-1_1539000002-106.coolpic» v:shapes="_x0000_i1061">Мбайт = 1024 Мбайт

<img width=«255» height=«156» src=«ref-1_1539000320-7890.coolpic» v:shapes="_x0000_i1062">

(Ученики записывают в тетрадях)

Запомнить и закрепить навык перехода одних единиц измерения информации в другие поможет следующая памятка. Перерисуйте ее в тетрадь.

( перерисовывают памятку в тетрадь)

Пользуясь приведенной таблицей или памяткой, выполните следующее задание (желательно выполнять задания с проговариванием: «Перевожу килобайты в байты. В одном килобайте 1024 байта, поэтому умножаю на 1024»)

(Учащиеся по одному выходят к доске и выполняют по одному заданию.)

Слайд 4

<img width=«261» height=«156» src=«ref-1_1539008210-8834.coolpic» v:shapes="_x0000_i1063">

Задание №1

Переведи в байты.

1) 15 Кб, 256 Кб, 2500 Кб.

2) 72 Кб, 340 Мб, 7340032 Кб.

(выполняют ученики в тетрадях)

1) 15 Кб •1024 = 15360 байт,

 256 Кб •1024 = 262144 байт,

 2500 КБ • 1024=2560000 байт

2) 72 Кб •1024 = 73728 байт

 340 Мб •1024 = 348160 Кб•1024 =35615840 байт.

 7340032 Кб • 1024=7516192768 байт

Задание №2

Переведи в килобайты.

1) 7168 байт, 7680 байт, 2 Мб, 5 Гб.

2) 2560 байт, 257 Мб.

1) 7168 байт: 1024=7 Кб,

 7680 байт: 1024=7.5 Кб,

 2 Мб •1024 =2048 Кб,

 5 Гб•1024 =5120 Мб •1024 =5242880 Кб.

2) 2560 байт: 1024=1.5 Кб,

 257 Мб •1024 =263168 Кб.

Подведение итогов урока, домашнее задание

Какие цели в начале урока мы перед собой поставили? Что нового узнали?

(отвечают)

Домашнее задание:

Угринович Н. Д.Информатика и ИКТ. Базовый курс. Учебник для 8 класса; стр.27-31 (прочитать и ответить на контрольные вопросы из учебника на стр. 29, выполнить задания для самостоятельного выполнения на стр. 29-31) 

(записывают домашнее задание)     продолжение --PAGE_BREAK--

6. Конспект урока №3 Тема урока: Алфавитный подход к определению количества информации

Тип урока: Объяснение нового материала.

Цели:

образовательные

-                   познакомить с алфавитным подходом к измерению информации;

развивающие

-                   формирование представления об алфавитном подходе к определению количества информации;

-                   развитие логического мышления, расширения кругозора учащихся;

воспитательные

-                   воспитать у учащихся интерес к изучаемой теме;

-                   воспитание информационной культуры.

Задачи:

Ученик:

-                   должен уметь измерять информационный объем текста в байтах

Формы и методы: объяснительно — иллюстративный, частично – поисковый, решение задач.

Оборудование урока: карточки с заданиями; демонстрационная презентация «Алфавитный подход к определению информации» (презентация находится в самом конспекте).

Литература:

1.                 Лапчик М.П. и др. Методика преподавания информатики: Учеб. пособие для студ. пед. вузов.— М.: Издательский центр «Академия», 2001;

2.                 Угринович Н.Д. Информатика и ИКТ. Базовый курс: Учебник для 8 класса.— М.: БИНОМ. Лаборатория знаний, 2006.

План урока.

1. Организационный момент (1 мин)

2. Проверка домашнего задания (3 мин)

3. Актуализация знаний (5 мин)

4. Изучение нового материала (15 мин)

5. Закрепление (15 мин)

6. Подведение итогов урока, домашнее задание (6 мин) Ход урока:

Учитель:

Ученики:

Учитель: Ученик: Учитель: Ученик:

Учитель: Ученик:

Учитель: Ученик:

Учитель: Ученик:

Учитель: Ученик:

Учитель:

Ученик:

Учитель: Ученик:

Учитель: Ученик:

Учитель:

Ученик:

Учитель:

Ученик:

Учитель: Ученик: Учитель: Ученик:

Учитель: Ученик: Учитель: Ученик:

Учитель: Учитель: Ученик: Учитель: Ученик: Учитель: Ученик: Учитель: Ученик: Учитель: Ученик: Учитель: Учитель: Учитель: Ученик:

Здравствуйте, ребята! Садитесь. Кто сегодня отсутствует?

(отвечают и настраиваются на работу)

Проверка домашнего задания. Проверяю домашнее задание, подхожу и смотрю.

(если у ребят трудности проверяем на доске и заново решаем вместе)

Слайд 1

<img width=«253» height=«146» src=«ref-1_1539017044-5467.coolpic» v:shapes="_x0000_i1064">

Сегодня мы с вами продолжим разговор об измерении информации.

Откройте, пожалуйста, тетради. Запишите сегодняшнее число, и тему урока «Алфавитный подход к определению количества информации».

(ребята записывают число и тему урока)

Сейчас я буду задавать вопросы: Слайд 2

В какой из последовательностей единицы измерения информации указаны в порядке возрастания:

а) байт, килобайт, мегабайт, бит;

б) килобайт, байт, бит, мегабайт;

в) байт, мегабайт, килобайт, гигабайт;

г) мегабайт, килобайт, гигабайт, байт;

д) байт, килобайт, мегабайт, гигабайт.

<img width=«233» height=«158» src=«ref-1_1539022511-10193.coolpic» v:shapes="_x0000_i1065">

(отвечает) д

Верно, следующий вопрос:Слайд3

Является ли сообщение «2 умножить на 2 будет 4» информативным?

(отвечает) Нет, не является, так как не содержит новую для нас информацию.

Слайд3Содержит ли для вас сообщение «Завтра ожидается солнечная погода» информацию?

<img width=«255» height=«169» src=«ref-1_1539032704-12170.coolpic» v:shapes="_x0000_i1066">

(отвечает) Да. Это информативное сообщение.

Слайд3Что означает i в формуле? Что означает N в формуле?

(отвечает) i – количество информации одного из равновероятных исходов события, N – количество равновероятных событий.

Следующее задание: определить количество информации в тексте на экране (Азора упала на лапу Ароза)

(отвечают)...

Итак, данное задание естественно вызвало у вас затруднение по причине того, что невозможно вычленить количество равновероятных исходов события, если не понятен смысл сообщения.

Вы научились определять количество информации, которое содержится в сообщениях, уменьшающих неопределенность наших знаний. Для нас количество информации зависит от ее содержания, понятности и новизны. То есть, мы рассматривали информацию с позиции человека. Попробуйте подсчитать количество информации, полученной в результате прочтения нового для вас параграфа в учебнике! Сделать это невозможно, хотя фактом является то, что информация получена. Также любое техническое устройство не воспринимает содержание информации, поэтому в вычислительной технике используется другой подход к измерению информации – алфавитный. Каким образом в этом случае можно найти количество информации?

Вернемся вновь к сообщению, которое вызвало у нас затруднение: Азора упала на лапу Ароза.

С помощью какого алфавита написано это сообщение?

(отвечают) Русского алфавита

Сколько букв в этом алфавите?

(отвечают) 33

Запишите определения.Слайд 4

Алфавит– это конечное множество символов, используемых для представления информации.

Мощность алфавита– число символов алфавита.

Если учесть все знаки препинания, то в русском алфавите 54 символа.

<img width=«242» height=«150» src=«ref-1_1539044874-8555.coolpic» v:shapes="_x0000_i1067">

(записывают определения)

Сколько таких равновероятных событий в алфавите может произойти для данного сообщения?

(отвечают) 33, по количеству букв в алфавите.

Сколько информации мы получим от одной из 33 букв?

(отвечают) 5,04 битов.

Почему столько? Как вы решали?

(отвечают) По формуле <img width=«45» height=«21» src=«ref-1_1538954661-135.coolpic» v:shapes="_x0000_i1068">, где N = 33.

Получается мощность алфавита можно обозначить буквой N, так как это количество равновероятных исходов события: выпадение буквы (символа).

 (Учащиеся записывают)

N – мощность алфавита, i – количество информации, которое несет каждый символ алфавита. Формула: <img width=«47» height=«21» src=«ref-1_1539053564-136.coolpic» v:shapes="_x0000_i1069">.

Сколько информации содержит символ русского алфавита с учетом всех дополнительных знаков?

(отвечают) 5,75 битов.

А сколько информации содержат два таких символа?

(отвечают) В два раза больше.

А K символов?

(отвечают) В K раз больше, то есть К умноженное на информационный вес одного символа: K* i.

Если обозначим количество символов в данном тексте буквой К, общее количество информации во всем тексте буквой I, то можно вывести формулу. I = K * i

(Учащиеся записывают)

К – количество символов в тексте,

I – количество информации во всем тексте, тогда I = K * i

Хорошо. А теперь попробуйте вычислить количество информации в тексте Азора упала на лапу Ароза (если считать, что алфавит состоит из 33 символов)

<img width=«139» height=«21» src=«ref-1_1539053700-251.coolpic» v:shapes="_x0000_i1070">бит

Молодцы. Таким образом, мы сегодня с вами научились измерять количество информации в тексте (символьном сообщении), составленном из символов некоторого алфавита, то есть познакомились с алфавитным подходом измерения информации. Для закрепления полученных знаний, выполните следующие задания.Слайд5

<img width=«244» height=«149» src=«ref-1_1539053951-7456.coolpic» v:shapes="_x0000_i1071">

Задание 1

Пусть передается простое арифметическое выражение. Сколько информации содержит каждый из знаков?

(решают) Алфавит арифметических выражений состоит из 16 знаков: 0…9, «+», «-», «*», «/», «(», «)». N=16. Следовательно, <img width=«48» height=«21» src=«ref-1_1539061407-139.coolpic» v:shapes="_x0000_i1072">, i=4 бит.

Задание 2

Чему равна информационная емкость знака двоичной знаковой системы?

(решают) Передача информации в технических системах осуществляется в двоичной знаковой системе. N= 2. Следовательно, <img width=«40» height=«20» src=«ref-1_1539061546-124.coolpic» v:shapes="_x0000_i1073">, i=1 бит.

В тетрадях запишите: информационная емкость знака двоичной знаковой системы составляет 1 бит.

(записывают)

Сообщения бывают очень большими, содержащими огромное количество информации. Компьютер создан для того, чтобы обрабатывать большие объемы информации. Определим, сколько информации несет один символ текста, набранного на компьютере. Нужно выяснить количество символов в компьютерном алфавите.

Учитель предлагает примерно оценить количество символов в компьютерном алфавите.Слайд6

а – я

А – Я

a– z

A– Z

0 – 9

!@#$%^&*()_-+»№;|/\:?,.”=

всего

33

33

26

26

10

25

153

Количество информации может быть только целым числом.

   <img width=«165» height=«26» src=«ref-1_1539061670-334.coolpic» v:shapes="_x0000_i1074">

Выбрать число 128 нельзя, так как часть необходимых символов будет потеряна, значит, ближайшее допустимое количество символов 256. Тогда каков информационный вес компьютерного символа?

(решают) i= 8 бит.

Эту величину назвали байт. Вам это уже известно из прошлого урока. Так вот: бит – минимальная единица измерения информации, а байт – единица измерения информации в системе Си.

(записывают)

Значит информацию, которая обрабатывается компьютером, удобнее измерять в более крупных единицах измерения – в байтах. Существуют более крупные единицы измерения информации, которые мы с вами изучили на прошлом уроке.

А сейчас вновь приступим к решению задач. Но вначале вам необходимо разделиться на 4 группы. Каждой группе я раздам по одной задаче, которую вы должны коллективно решить между собой. После проведем устную проверку решений. Условие задачи обязательно запишите в тетрадях, а решение оформите дома.

(записывают)Слайд7

<img width=«216» height=«169» src=«ref-1_1539062004-16040.coolpic» v:shapes="_x0000_i1075">

1.                    Информационное сообщение объемом 1,5 Кбайта содержит 3072 символа. Сколько символов содержит алфавит, при помощи которого записано сообщение?

2.                     Книга, набранная с помощью компьютера, содержит 150 страниц, на каждой странице — 40 строк, в каждой строке — 60 символов. Каков объем информации в книге?

3.                    Сообщение занимает 2 страницы и содержит 1/16 Кбайта информации. На каждой странице записано 256 символов. Какова мощность использованного алфавита?

4.                    Подсчитайте, используя алфавитный подход к измерению информации, сколько бит информации содержится в тексте, заключенном в кавычки: «Кодирование информации с помощью знаковых систем». Учесть, что между словами ставится только один пробел и для кодирования информации используется кодировка Windows CP1251(таблица кодировки содержит 256 символов).

1. Дано:

<img width=«47» height=«21» src=«ref-1_1539078044-130.coolpic» v:shapes="_x0000_i1076">Кбайта

<img width=«65» height=«19» src=«ref-1_1539078174-156.coolpic» v:shapes="_x0000_i1077">симв.

Найти: <img width=«19» height=«19» src=«ref-1_1539078330-97.coolpic» v:shapes="_x0000_i1078">− ? 2. Дано:

страниц – 150

1 стр-ца−40 строк

1 строка – 60 симв. Найти: <img width=«33» height=«19» src=«ref-1_1539078427-106.coolpic» v:shapes="_x0000_i1079"> 3. Дано:

страниц −2

<img width=«55» height=«23» src=«ref-1_1539078533-154.coolpic» v:shapes="_x0000_i1080">Кб

1 стр-ца−256 симв.

 

Найти: <img width=«19» height=«19» src=«ref-1_1539078330-97.coolpic» v:shapes="_x0000_i1081">− ? 4. Дано:

<img width=«49» height=«19» src=«ref-1_1539078784-135.coolpic» v:shapes="_x0000_i1082">символов

<img width=«59» height=«19» src=«ref-1_1539078919-148.coolpic» v:shapes="_x0000_i1083">символов

Найти: <img width=«33» height=«19» src=«ref-1_1539078427-106.coolpic» v:shapes="_x0000_i1084">

Решение:

1) <img width=«47» height=«21» src=«ref-1_1539078044-130.coolpic» v:shapes="_x0000_i1085"> Кб =<img width=«143» height=«21» src=«ref-1_1539079303-258.coolpic» v:shapes="_x0000_i1086">бит;

2) <img width=«53» height=«19» src=«ref-1_1539079561-131.coolpic» v:shapes="_x0000_i1087">, отсюда <img width=«41» height=«41» src=«ref-1_1539079692-152.coolpic» v:shapes="_x0000_i1088">, значит <img width=«88» height=«41» src=«ref-1_1539079844-277.coolpic» v:shapes="_x0000_i1089">бита;

3)<img width=«108» height=«21» src=«ref-1_1539080121-204.coolpic» v:shapes="_x0000_i1090">символов

  Ответ: 16 символов.

Решение:

1) <img width=«136» height=«19» src=«ref-1_1539080325-249.coolpic» v:shapes="_x0000_i1091"> − количество символов во всей книге;

2) Если в компьютерном тексте 1 символ несет в себе 1 байт информации, то объем информации в книге равен:

<img width=«65» height=«19» src=«ref-1_1539080574-160.coolpic» v:shapes="_x0000_i1092"> байт =

=360000 байт = 0,3 Мб.

 Ответ: Объем информа- ции в книге составляет приблизительно 0,3 Мб.

Решение:

1) <img width=«45» height=«41» src=«ref-1_1539080734-162.coolpic» v:shapes="_x0000_i1093">Кб =<img width=«127» height=«41» src=«ref-1_1539080896-291.coolpic» v:shapes="_x0000_i1094">бит;

2)<img width=«112» height=«19» src=«ref-1_1539081187-205.coolpic» v:shapes="_x0000_i1095">симво- лов на двух страницах;

3) <img width=«104» height=«41» src=«ref-1_1539081392-275.coolpic» v:shapes="_x0000_i1096">бит;

4) <img width=«100» height=«21» src=«ref-1_1539081667-189.coolpic» v:shapes="_x0000_i1097">символа.

 Ответ: 2 символа.

Решение:

1) <img width=«87» height=«21» src=«ref-1_1539081856-185.coolpic» v:shapes="_x0000_i1098">, отсюда<img width=«32» height=«19» src=«ref-1_1539082041-109.coolpic» v:shapes="_x0000_i1099">бит;

2) <img width=«140» height=«19» src=«ref-1_1539082150-231.coolpic» v:shapes="_x0000_i1100">бит

Ответ: 384 бит.

Подведем итог в конце урока, хорошо выполнившим задание ставится оценка. Запишите домашнее задание.

Угринович Н. Д.Информатика и ИКТ. Базовый курс. Учебник для 8 класса; стр.31-33 (прочитать, выполнить задания для самостоятельного выполнения на стр. 33)

Повторить формулы алфавитного подхода к измерению информации.

(записывают домашнее задание)     продолжение --PAGE_BREAK--

7. Конспект урока №4 Тема урока: Измерение количества информации (алфавитный и содержательный подходы)

Тип урока: Повторение пройденного материала

Цели:

образовательные

-                   повторение, закрепление, контроль знаний и умений по теме «Количество информации. Алфавитный и содержательный подходы. Единицы измерения количеств информации»

развивающие

-                   развитие логического мышления, расширения кругозора учащихся;

воспитательные

-                   воспитать интерес к изучаемой теме;

-                   воспитание информационной культуры.

Задачи:

Ученик:

-                   должен уметь решать задачи на нахождение количества информации с точки зрения алфавитного и содержательного подходов;

-                   должен уметь систематизировать задачи на измерение информации по формулировке, типу, способу решения.

Формы и методы: фронтальная, индивидуальная, решение задач.

Оборудование урока:

1.                 карточки с заданиями для самостоятельной работы и домашней контрольной работы;

2.                 демонстрационная презентация «Измерение количества информации. Содержательный и алфавитный подходы» (презентация находится в самом конспекте).

Литература

1.                 Лапчик М.П. и др. Методика преподавания информатики: Учеб. пособие для студ. пед. вузов.— М.: Издательский центр «Академия», 2001;

2.                 Угринович Н.Д. Информатика и ИКТ. Базовый курс: Учебник для 8 класса.— М.: БИНОМ. Лаборатория знаний, 2006.

План урока.

1. Организационный момент (1 мин)

2. Проверка домашнего задания (5 мин)

3. Актуализация знаний (5 мин)

4. Решение задач (15 мин)

5. Самостоятельная работа (15 мин)

6. Подведение итогов урока, домашнее задание (5 мин) Ход урока:

Учитель:

Ученики:

Учитель: Ученик: Учитель:

Ученик: Учитель: Ученик: Учитель: Ученик: Учитель: Ученик: Учитель: Ученик: Учитель: Ученик: Учитель: Ученик: Учитель:

Ученик: Учитель: Ученик: Учитель: Ученик: Учитель: Ученик:

Здравствуйте, ребята! Садитесь. Кто сегодня отсутствует?

(отвечают и настраиваются на работу)

Проверка домашнего задания. Проверяю домашнее задание, подхожу и смотрю.

Слайд1

<img width=«239» height=«150» src=«ref-1_1539082381-6462.coolpic» v:shapes="_x0000_i1101">

Сегодня мы с вами продолжим разговор об измерении информации.

Откройте, пожалуйста, тетради. Запишите сегодняшнее число, и тему урока «Измерение количества информации (алфавитный и содержательный подходы)».

(записывают число и тему урока)

Сегодня на уроке мы будем решать задачи на измерение информации с точки зрения и содержательного и алфавитного походов. В конце урока проведем самостоятельную работу, на дом же будет задана домашняя контрольная работа.

Для начала вспомним материал прошлых уроков.

Какие подходы к измерению информации существуют?

(отвечают) Существуют 2 подхода к измерению информации: содержательный и алфавитный.

Верно. Чем они отличаются?

(отвечают) Содержательный подход позволяет измерить информацию только в том сообщении, в котором известно количество возможных событий (вариантов) и не один из них не имеет преимущества перед другим, т.е. здесь важно содержание сообщения. Алфавитный же подход не зависит от воспринимающего его субъекта. Он является универсальным, так как не зависит от содержания сообщения.

Отлично! Как определяется количество информации с точки зрения содержательного подхода?

(отвечают)

С точки зрения содержательного подхода количество информации можно рассматривать как меру уменьшения неопределенности знания при получении информационных сообщений.

Какая формула используется для количественного измерения информации при содержательном подходе? И что означает каждый символ в этой формуле?

(отвечают)

<img width=«48» height=«21» src=«ref-1_1539088843-140.coolpic» v:shapes="_x0000_i1102">, где <img width=«19» height=«19» src=«ref-1_1539078330-97.coolpic» v:shapes="_x0000_i1103">− количество возможных информационных сообщений,<img width=«13» height=«17» src=«ref-1_1539089080-85.coolpic» v:shapes="_x0000_i1104">− количество информации.

Какие формулы используются для измерения количества информации сообщения при алфавитном подходе?

(отвечают) <img width=«47» height=«21» src=«ref-1_1539053564-136.coolpic» v:shapes="_x0000_i1105">, I = K * i, где N – мощность алфавита, i – количество информации, которое несет каждый символ алфавита, К – количество символов в тексте, I – количество информации во всем тексте.

Решите задачи устно.

1.В коробке лежало 32 разноцветных карандаша. Сколько информации несет сообщение о том, что из коробки достали синий карандаш?

Решение:

<img width=«79» height=«21» src=«ref-1_1539089301-167.coolpic» v:shapes="_x0000_i1106">, <img width=«33» height=«19» src=«ref-1_1539089468-107.coolpic» v:shapes="_x0000_i1107">бит.

Ответ: 5 бит.

2.Из непрозрачного мешочка вынимают шарики с номерками и известно, что информационное сообщение о номере шарика несет 4 бита информации. Определите количество шариков в мешочке.

Решение:

<img width=«108» height=«21» src=«ref-1_1539080121-204.coolpic» v:shapes="_x0000_i1108">шариков.

Ответ: 16 шариков.

3.Сообщение записано с помощью алфавита, содержащего 8 символов. Какое количество информации несет одна буква этого алфавита?

Решение:

<img width=«69» height=«21» src=«ref-1_1539089779-155.coolpic» v:shapes="_x0000_i1109">, отсюда <img width=«32» height=«19» src=«ref-1_1538999179-107.coolpic» v:shapes="_x0000_i1110">бита.

Ответ: 3 бита.

4.Информационный объем одного символа некоторого сообщения равен 6 битам. Сколько символов входит в алфавит, с помощью которого было составлено это сообщение?

Решение:

<img width=«108» height=«21» src=«ref-1_1539090041-203.coolpic» v:shapes="_x0000_i1111">символа.

Ответ: 64 символа.

Переведите в байты: 8 бит, 1Кбайт, 1 Мбайт, 1Гбайт.

Решение:

8 бит = 1 байт, 1Кбайт = 1024 байт, 1 Мбайт = =<img width=«23» height=«20» src=«ref-1_1539090244-107.coolpic» v:shapes="_x0000_i1112">байт, 1Гбайт = <img width=«23» height=«20» src=«ref-1_1539090351-107.coolpic» v:shapes="_x0000_i1113">байт.

Следующие задачи решите письменно. Слайд 2

(три ученика решают у доски, а остальные на местах)

1.Сколько страниц текста уместится на дискету и компакт- диск, если известно, что объем одной дискеты 1.44 Мбайт, объем одного компакт – диска 650 Мбайт, одна страница текста содержит 50 строк, одна строка содержит 60 символов.

<img width=«278» height=«197» src=«ref-1_1539090458-23650.coolpic» v:shapes="_x0000_i1114">

1.Дано:

Объем 1 дискеты – 1.44 Мбайт;

Объем 1 компакт-диска–650 Мбайт;

1 стр-ца−50 строк;

1 строка− 60 симв. Найти: сколько страниц уместится на дискету и компакт-диск.

Решение:

1) 1.44 Мбайт =

<img width=«132» height=«19» src=«ref-1_1539114108-233.coolpic» v:shapes="_x0000_i1115">

<img width=«92» height=«19» src=«ref-1_1539114341-197.coolpic» v:shapes="_x0000_i1116">бай – объем одной дискеты;

2) 650 Мбайт =

<img width=«128» height=«19» src=«ref-1_1539114538-230.coolpic» v:shapes="_x0000_i1117">

 <img width=«88» height=«19» src=«ref-1_1539114768-192.coolpic» v:shapes="_x0000_i1118">байт;

3) k= 50 • 60 = 3000 символов – в одной стр-це;

4) I = K • i,

I =1 байт • 3000 символов =

= 3000 байт;

5) 1 509 949.44: 3000<img width=«13» height=«13» src=«ref-1_1539114960-82.coolpic» v:shapes="_x0000_i1119">500 страниц – уместится на дискету;

6) 681 574 400: 3000<img width=«13» height=«13» src=«ref-1_1539114960-82.coolpic» v:shapes="_x0000_i1120">

<img width=«13» height=«13» src=«ref-1_1539114960-82.coolpic» v:shapes="_x0000_i1121">227190 страниц – уместится на компакт-диске.

Ответ: 500; 227190.

2. Сообщение, составленное с помощью 32-символьного алфавита, содержит 80 символов. Другое сообщение составлено с использованием 64-символьного алфавита и содержит 70 символов. Сравните объемы информации, содержащейся в сообщениях.

Дано:

<img width=«53» height=«24» src=«ref-1_1539115206-150.coolpic» v:shapes="_x0000_i1122">символа;

<img width=«56» height=«24» src=«ref-1_1539115356-154.coolpic» v:shapes="_x0000_i1123">символа;

<img width=«53» height=«24» src=«ref-1_1539115510-151.coolpic» v:shapes="_x0000_i1124">символов;

<img width=«55» height=«24» src=«ref-1_1539115661-149.coolpic» v:shapes="_x0000_i1125">символов;

Сравнить <img width=«15» height=«24» src=«ref-1_1539115810-94.coolpic» v:shapes="_x0000_i1126">и <img width=«16» height=«24» src=«ref-1_1539115904-96.coolpic» v:shapes="_x0000_i1127">−?

Решение:

1) <img width=«83» height=«25» src=«ref-1_1539116000-188.coolpic» v:shapes="_x0000_i1128">, <img width=«33» height=«19» src=«ref-1_1539089468-107.coolpic» v:shapes="_x0000_i1129">бит − объем одного символа первого сообщения;

2) <img width=«84» height=«25» src=«ref-1_1539116295-192.coolpic» v:shapes="_x0000_i1130">,<img width=«33» height=«19» src=«ref-1_1538998536-108.coolpic» v:shapes="_x0000_i1131">бит − объем одного символа второго сообщения;

3) <img width=«144» height=«24» src=«ref-1_1539116595-255.coolpic» v:shapes="_x0000_i1132">бит − объем первого сообщения;

4) <img width=«147» height=«24» src=«ref-1_1539116850-261.coolpic» v:shapes="_x0000_i1133">бит −объем второго сообщения;

Ответ: во втором сообщении информации больше, чем в первом.

3.Объем сообщения, содержащего 2048 символов, составил 1/512 Мбайта. Каков размер алфавита, с помощью которого записано сообщение?

Дано:

<img width=«65» height=«19» src=«ref-1_1539117111-156.coolpic» v:shapes="_x0000_i1134">симв.;

<img width=«64» height=«23» src=«ref-1_1539117267-165.coolpic» v:shapes="_x0000_i1135">Мбайт; Найти: <img width=«19» height=«19» src=«ref-1_1539078330-97.coolpic» v:shapes="_x0000_i1136">−?

Решение:

1) <img width=«64» height=«23» src=«ref-1_1539117267-165.coolpic» v:shapes="_x0000_i1137">Мбайт =

=<img width=«167» height=«23» src=«ref-1_1539117694-304.coolpic» v:shapes="_x0000_i1138">

=16384 бит;

2) <img width=«53» height=«19» src=«ref-1_1539079561-131.coolpic» v:shapes="_x0000_i1139">,<img width=«111» height=«41» src=«ref-1_1539118129-316.coolpic» v:shapes="_x0000_i1140">

<img width=«24» height=«18» src=«ref-1_1539118445-98.coolpic» v:shapes="_x0000_i1141">бит – объем одного символа;

3) <img width=«116» height=«21» src=«ref-1_1539118543-213.coolpic» v:shapes="_x0000_i1142">символов.

Ответ: 256 символов.

А сейчас проведем самостоятельную работу. Время на выполнение работы – 20 мин.

(Учащиеся выполняют самостоятельную работу в течении 20 мин. Задания распределены по степени сложности. Базовый уровень выполняют слабые ученики, задания повышенной сложности — средние и сильные учащиеся. По окончании проводится проверка.)Слайд 3,4,5,6

<img width=«229» height=«153» src=«ref-1_1539118756-11366.coolpic» v:shapes="_x0000_i1143"> <img width=«219» height=«140» src=«ref-1_1539130122-9909.coolpic» v:shapes="_x0000_i1144">

Базовый уровень

Вариант 1

Вариант 2

1. При составлении сообщения использовали 128-символьный алфавит. Каким будет информационный объем такого сообщения, если оно содержит 2048 символов?

2. Сообщение занимает 2 страницы. На каждой странице по 80 строк. В каждой строке по 32 символа. Найдите информационный объем такого текста, если при его составлении использовали 256-символьный алфавит.

3. Выразите 8 Мбайт в битах.

<img width=«270» height=«177» src=«ref-1_1539140031-16204.coolpic» v:shapes="_x0000_i1145">

1. При составлении сообщения использовали 64-символьный алфавит. Каким будет информационный объем такого сообщения, если оно содержит 3072 символа?

2. Сообщение занимает 3 страницы. На каждой странице по 48 строк. В каждой строке по 64 символов. Найдите информационный объем такого текста, если при его составлении использовали 256-символьный алфавит.

3. Выразите 9 Мбайт в битах.

<img width=«267» height=«175» src=«ref-1_1539156235-17433.coolpic» v:shapes="_x0000_i1146">

Уровень повышенной сложности

Вариант 1

Вариант 2

1. Информационное сообщение объемом 3 Кбайта содержит 3072 символов. Каков размер алфавита, с помощью которого оно было составлено?

2. Сообщение занимает 4 страницы по 40 строк и содержит 7200 байтов информации. Сколько символов в строке, если при составлении этого сообщения использовали 64-символьный алфавит?

3. Найдите<img width=«13» height=«15» src=«ref-1_1539173668-84.coolpic» v:shapes="_x0000_i1147">: <img width=«17» height=«21» src=«ref-1_1539173752-97.coolpic» v:shapes="_x0000_i1148">бит = 32 Кбайта.

1. Информационное сообщение имеет объем 3 Кбайта. Сколько в нем символов, если размер алфавита, с помощью которого оно было составлено, равен 16.

2. Сообщение занимает 3 страницы и содержит 7875 байтов информации. Сколько строк в тексте, если символов в строке 50 и при составлении этого сообщения использовали 128-символьный алфавит?

3. Найдите<img width=«13» height=«15» src=«ref-1_1539173668-84.coolpic» v:shapes="_x0000_i1149">: <img width=«24» height=«21» src=«ref-1_1539173933-106.coolpic» v:shapes="_x0000_i1150">бит = 128 Кбайта.

Ответы к самостоятельной работе

Базовый уровень

Уровень повышенной сложности

Вариант 1

Вариант 2

Вариант 1

Вариант 2

1

1792 байт

1

2304 байт

1

256 символов

1

6144

2

5 Кбайт

2

9 Кбайт

2

60 символов

2

60 строк

3

16777216 бит

3

75497472 бит

3

6

3

5     продолжение --PAGE_BREAK--

www.ronl.ru


Смотрите также

 

..:::Новинки:::..

Windows Commander 5.11 Свежая версия.

Новая версия
IrfanView 3.75 (рус)

Обновление текстового редактора TextEd, уже 1.75a

System mechanic 3.7f
Новая версия

Обновление плагинов для WC, смотрим :-)

Весь Winamp
Посетите новый сайт.

WinRaR 3.00
Релиз уже здесь

PowerDesk 4.0 free
Просто - напросто сильный upgrade проводника.

..:::Счетчики:::..

 

     

 

 

.