Реферат: Информация. Единица измерения количества информации. Измерение информации реферат


Реферат: Измерение информации

Реферат на тему: Измерение информации.

Объемный и вероятностный подход.

Выполнил: ученик 10а класса

Школы №52

Ибрагимов Орхан.

Содержание.

Введение………………………………………….3

Вероятностный подход………………………….4

Таблица. Частотность букв русского языка…... 5

Объемный подход……………………………….6

Список используемой литературы……………..7

Введение.

Определить понятие «количество информации» довольно сложно. В решении этой проблемы существуют два основных подхода. Исторически они возникли почти одновременно. В конце 40-х годов XX века один из основоположников кибернетики американский математик Клод Шеннон развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к «объемному» подходу.

Вероятностный подход

Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной .кости, имеющей N граней (наиболее распространенным является случай шестигранной кости: N = 6). Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1,2,... N.

Введем в рассмотрение численную величину, измеряющую неопределенность -энтропию (обозначим ее Н). Величины N и Н связаны между собой некоторой функциональной зависимостью:

H = f ( N ) , (1.1)

а сама функция f является возрастающей, неотрицательной и определенной (в рассматриваемом нами примере) для N = 1, 2,... 6.

Рассмотрим процедуру бросания кости более подробно:

1) готовимся бросить кость; исход опыта неизвестен, т.е. имеется некоторая неопределенность; обозначим ее h2;

2) кость брошена; информация об исходе данного опыта получена; обозначим количество этой информации через I;

3) обозначим неопределенность данного опыта после его осуществления через h3. За количество информации, которое получено в ходе осуществления опыта, примем разность неопределенностей «до» и «после» опыта:

I = h2 - h3 (1.2)

Очевидно, что в случае, когда получен конкретный результат, имевшаяся неопределенность снята (Н2 = 0), и, таким образом, количество полученной информации совпадает с первоначальной энтропией. Иначе говоря, неопределенность, заключенная в опыте, совпадает с информацией об исходе этого опыта. Заметим, что значение Н2 могло быть и не равным нулю, например, в случае, когда в ходе опыта следующей выпала грань со значением, большим «З».

Следующим важным моментом является определение вида функции f в формуле (1.1). Если варьировать число граней N и число бросаний кости (обозначим эту величину через М), общее число исходов (векторов длины М, состоящих из знаков 1,2,.... N ) будет равно N в степени М:

X=NM . (1.3)

Так, в случае двух бросаний кости с шестью гранями имеем: Х = 62 = 36. Фактически каждый исход Х есть некоторая пара (X1, X2), где X1 и X2 - соответственно исходы первого и второго бросаний (общее число таких пар - X).

Таблица 1.3. Частотность букв русского языка

i

Символ

Р(i )

i

Символ

P(i )

i

Символ

Р(i )

1

Пробел

0,175

13

0,028

24

Г

0.012

2

0

0,090

14

М

0,026

25

Ч

0,012

3

Е

0,072

15

Д

0,025

26

И

0,010

4

Ё

0,072

16

П

0,023

27

X

0,009

5

А

0,062

17

У

0,021

28

Ж

0,007

6

И

0,062

18

Я

0,018

29

Ю

0,006

7

Т

0,053

19

Ы

0,016

30

Ш

0.006

8

Н

0,053

20

З

0.016

31

Ц

0,004

9

С

0,045

21

Ь

0,014

32

Щ

0,003

10

Р

0,040

22

Ъ

0,014

33

Э

0,003

11

В

0,038

23

Б

0,014

34

Ф

0,002

12

Л

0,035

Объемный подход

В двоичной системе счисления знаки 0 и 1 будем называть битами (от английского выражения Binary digiTs - двоичные цифры). Отметим, что создатели компьютеров отдают предпочтение именно двоичной системе счисления потому, что в техническом устройстве наиболее просто реализовать два противоположных физических состояния: некоторый физический элемент, имеющий два различных состояния: намагниченность в двух противоположных направлениях; прибор, пропускающий или нет электрический ток; конденсатор, заряженный или незаряженный и т.п. В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации, подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом, в частности, невозможно нецелое число битов (в отличие от вероятностного подхода).

Для удобства использования введены и более крупные, чем бит, единицы количества информации. Так, двоичное слово из восьми знаков содержит один, байт информации, 1024 байта образуют килобайт (кбайт), 1024 килобайта - мегабайт (Мбайт), а 1024 мегабайта - гигабайт (Гбайт).

Между вероятностным и объемным количеством информации соотношение неоднозначное. Далеко не всякий текст, записанный двоичными символами, допускает измерение объема информации в кибернетическом смысле, но заведомо допускает его в объемном. Далее, если некоторое сообщение допускает измеримость количества информации в обоих смыслах, то они не обязательно совпадают, при этом кибернетическое количество информации не может быть больше объемного.

В дальнейшем тексте данного учебника практически всегда количество информации понимается в объемном смысле.

Список используемой литературы.

Учебник Информатики и ИКТ 10-11 класс ( И.Г.Семакин, Е.К.Хеннер)

Сайт http://www.sitereferatov.ru

www.yurii.ru

Реферат - Измерение информации: содержательный и алфавитный подходы. Единицы измерения информации.

 

1. Уже в процесс зарождения человеческого общества возникла необходимость согласования совместных действий (добывание пищи, охота, отражение врагов и др.), что предполагает средства общения между членами коллективных действий. Вначале это были жесты, мимика, отдельные звуки, а затем — устная и письменная речь, средства связи. Люди стали иметь возможность обмениваться сведениями, опытом знаниями между собой, а также передавать все это, что сегодня называется информацией, из поколения в поколение. Мы получаем информацию из окружающего мира с помощью органов чувств и путем обработки ее нашим мозгом.

Сообщения и информация – это центральные понятия информатики. Хотя в обыденной жизни эти понятия употребляются как синонимы, но в более строгом пономании между ними есть определенные отличия. Эти отличия проявляются уже в токой фразе, “из этого сообщения я не получил никакой информации”.

Так вот первое положение «Информация – это знания человека. Сообщение несет информацию для человека, если содержащиеся в нем сведения являются для него новыми и непонятными» — является содержательным подходом к измерению информации.

Данный подход основывается на том, что должны присутствовать какая-то неопределенность в знаниях. Навпример. Вы бросаете монету, загадывая, что выпадет: орел или решка? Есть всего два варианта возможного реального результата бросания монеты. Причем, ни один из этих вариантов не имеет преимущества перед другим. В таком случае говорят, что они равноверорятны.

Так вот, в этом случае перед подбрасыванием монеты неопределенность знаний о результате равна 2.

Следовательно: неопределенность знаний о некотором событии – это количество возможных результатов события (бросания монеты, кубика; вытаскивание жребия).

Вернемся к примеру с монетой. После того, как вы бросили монету и посмотрели на нее, вы получили зрительное сообщение, что выпал, например, орел. Произошло одно из двух возможных событий. Неопределенность знаний уменьшилась в 2 раза: было 2 варианта, остался один. Значит, узнав результат бросания монеты, вы получили 1 бит информации.

А сейчас попробуем получить формулу, по которой вычимсляется количество информации, содердащейся в сообщении о том, что произошло одно из множества равновероятных событий.

Обозначим буквой N количество возможных событий, или, как мы это еще называли, — неопределенность знаний. Буквой i будем обозначать количество информации в сообщении о том, что произошло одно из N событий.

2i=N

В примере с монетой N=2, i=1.

А теперь познакомимся с другим способом измерения информации. Этот способ не связывает количество информации с содержанием сообщения, и он называется алфавитным подходом.

Проще всего разобраться на примере текста, написанного на русском языке.

Все множество используемых в языке символов будем традиционно называть алфавитом. Обычно под алфавитом понимают только буквы, но поскольку в тексте могут встречаться знаки препинания, цифры, скобки, то мы их тоже включим в алфавит. В алфавите также следует включить и пробел.

Полное число символов алфавита принято называть мощностью алфавита. Будем обозначать буквой N. Например, мощность алфавита из русских букв и дополнительных символов равна 54.

Представьте себе, что текст к вам поступает последовательно, по одному знаку, словно бумажная ленточка, выползающая из телеграфного аппарата. Предположим, что каждый появляющийся на ленте символ с одинаковой вероятностью может быть любым символом алфавита.

В каждой очередной позиции текста может появиться любой из N символов. Каждый символ несет i бит информации.

2i=N

Для N = 54, используя таблицу количества информации в сообщении об одном из N равновероятных событий получаем i=5,755бит.

Следовательно, при алфавитном подходе к измерению информации количество информации от содержания не зависит. Количество информации зависит от объема текста и от мощности алфавита.

Например. Посчитать количество информации одной странице книги, если на одной странице 50 строк по 60 символов в каждой.

50*60=3000 знаков, следовательно объем равен 5,755*3000=17265 бит.

Количество информации, содержащееся в символьном сообщении, равно K*i, где K – число символов в тексте сообщения, а I – информационный вес символа, который находится из уравнения 2i=N, где N – мощность используемого алфавита.

Для опредиления количества информации используется единица измерения – бит (от англ. Bit, образовано от сочетания binary digit —двоичная цифра). Один бит – количество информации, содержащееся в сообщении «да» или «нет» (в двоичном коде «1» и «0»).

Так как бит – это наименьшее количество информации, то для измерения больших объемов применяются более крупные единицы измерения. Отношение между единицами следующие. 1байт- 8 бит

1килобайт (Кбайт)- 2610бита==1024 байта

1мегабайт (Мбайт)- 1024 Кбайт

1гигабайт (Гбайт)- 1024 Мбайт

www.ronl.ru

Измерение информации

Реферат на тему: Измерение информации.

Объемный и вероятностный подход.

Выполнил: ученик 10а класса

Школы №52

Ибрагимов Орхан.

Содержание.

Введение………………………………………….3

Вероятностный подход………………………….4

Таблица. Частотность букв русского языка…... 5

Объемный подход……………………………….6

Список используемой литературы……………..7

Введение.

Определить понятие «количество информации» довольно сложно. В решении этой проблемы существуют два основных подхода. Исторически они возникли почти одновременно. В конце 40-х годов XX века один из основоположников кибернетики американский математик Клод Шеннон развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к «объемному» подходу.

Вероятностный подход

Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной .кости, имеющей N граней (наиболее распространенным является случай шестигранной кости: N = 6). Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1,2,... N.

Введем в рассмотрение численную величину, измеряющую неопределенность -энтропию (обозначим ее Н). Величины N и Н связаны между собой некоторой функциональной зависимостью:

H = f ( N ) , (1.1)

а сама функция f является возрастающей, неотрицательной и определенной (в рассматриваемом нами примере) для N = 1, 2,... 6.

Рассмотрим процедуру бросания кости более подробно:

1) готовимся бросить кость; исход опыта неизвестен, т.е. имеется некоторая неопределенность; обозначим ее h2;

2) кость брошена; информация об исходе данного опыта получена; обозначим количество этой информации через I;

3) обозначим неопределенность данного опыта после его осуществления через h3. За количество информации, которое получено в ходе осуществления опыта, примем разность неопределенностей «до» и «после» опыта:

I = h2 - h3 (1.2)

Очевидно, что в случае, когда получен конкретный результат, имевшаяся неопределенность снята (Н2 = 0), и, таким образом, количество полученной информации совпадает с первоначальной энтропией. Иначе говоря, неопределенность, заключенная в опыте, совпадает с информацией об исходе этого опыта. Заметим, что значение Н2 могло быть и не равным нулю, например, в случае, когда в ходе опыта следующей выпала грань со значением, большим «З».

Следующим важным моментом является определение вида функции f в формуле (1.1). Если варьировать число граней N и число бросаний кости (обозначим эту величину через М), общее число исходов (векторов длины М, состоящих из знаков 1,2,.... N ) будет равно N в степени М:

X=NM . (1.3)

Так, в случае двух бросаний кости с шестью гранями имеем: Х = 62 = 36. Фактически каждый исход Х есть некоторая пара (X1, X2), где X1 и X2 - соответственно исходы первого и второго бросаний (общее число таких пар - X).

Таблица 1.3. Частотность букв русского языка

Объемный подход

В двоичной системе счисления знаки 0 и 1 будем называть битами (от английского выражения Binary digiTs - двоичные цифры). Отметим, что создатели компьютеров отдают предпочтение именно двоичной системе счисления потому, что в техническом устройстве наиболее просто реализовать два противоположных физических состояния: некоторый физический элемент, имеющий два различных состояния: намагниченность в двух противоположных направлениях; прибор, пропускающий или нет электрический ток; конденсатор, заряженный или незаряженный и т.п. В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации, подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом, в частности, невозможно нецелое число битов (в отличие от вероятностного подхода).

Для удобства использования введены и более крупные, чем бит, единицы количества информации. Так, двоичное слово из восьми знаков содержит один, байт информации, 1024 байта образуют килобайт (кбайт), 1024 килобайта - мегабайт (Мбайт), а 1024 мегабайта - гигабайт (Гбайт).

Между вероятностным и объемным количеством информации соотношение неоднозначное. Далеко не всякий текст, записанный двоичными символами, допускает измерение объема информации в кибернетическом смысле, но заведомо допускает его в объемном. Далее, если некоторое сообщение допускает измеримость количества информации в обоих смыслах, то они не обязательно совпадают, при этом кибернетическое количество информации не может быть больше объемного.

В дальнейшем тексте данного учебника практически всегда количество информации понимается в объемном смысле.

Список используемой литературы.

Учебник Информатики и ИКТ 10-11 класс ( И.Г.Семакин, Е.К.Хеннер)

Сайт http://www.sitereferatov.ru

mirznanii.com

Реферат: Измерение информации

Реферат на тему:Измерение информации.

Объемный и вероятностный подход.

Выполнил: ученик 10акласса

Школы №52

Ибрагимов Орхан.

Содержание.

Введение………………………………………….3

Вероятностный подход………………………….4

Таблица. Частотность букв русского языка…... 5

Объемный подход……………………………….6

Список используемой литературы……………..7

Введение.

Определить понятие «количество информации» довольно сложно. В решении этой проблемы существуют два основных подхода. Исторически они возникли почти одновременно. В конце 40-х годов XX века один из основоположников кибернетики американский математик Клод Шеннон развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к «объемному» подходу.

Вероятностный подход

Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной .кости, имеющей N граней (наиболее распространенным является случай шестигранной кости: N = 6). Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1,2,... N.

Введем в рассмотрение численную величину, измеряющую неопределенность -энтропию(обозначим ее Н). Величины N и Н связаны между собой некоторой функциональной зависимостью:

H=f(N), (1.1)

а сама функцияfявляется возрастающей, неотрицательной и определенной (в рассматриваемом нами примере) для N = 1, 2,... 6.

Рассмотрим процедуру бросания кости более подробно:

1) готовимся бросить кость; исход опыта неизвестен, т.е. имеется некоторая неопределенность; обозначим ее h2;

2) кость брошена; информация об исходе данного опыта получена; обозначим количество этой информации через I;

3) обозначим неопределенность данного опыта после его осуществления через h3. За количество информации, которое получено в ходе осуществления опыта, примем разность неопределенностей «до» и «после» опыта:

I = h2 - h3(1.2)

Очевидно, что в случае, когда получен конкретный результат, имевшаяся неопределенность снята(Н2= 0), и, таким образом, количество полученной информации совпадает с первоначальной энтропией. Иначе говоря, неопределенность, заключенная в опыте, совпадает с информацией об исходе этого опыта. Заметим, что значение Н2 могло быть и не равным нулю, например, в случае, когда в ходе опыта следующей выпала грань со значением, большим «З».

Следующим важным моментом является определение вида функцииfв формуле (1.1). Если варьировать число гранейNи число бросаний кости (обозначим эту величину черезМ),общее число исходов (векторов длины М, состоящих из знаков 1,2,....N)будет равноNв степениМ:

X=NM.(1.3)

Так, в случае двух бросаний кости с шестью гранями имеем:Х= 62= 36. Фактически каждый исходХесть некоторая пара(X1, X2),гдеX1иX2 -соответственно исходы первого и второго бросаний (общее число таких пар -X).

Таблица 1.3. Частотность букв русского языка

i

Символ

Р(i)

i

Символ

P(i)

i

Символ

Р(i)

1

Пробел

0,175

13

0,028

24

Г

0.012

2

0

0,090

14

М

0,026

25

Ч

0,012

3

Е

0,072

15

Д

0,025

26

И

0,010

4

Ё

0,072

16

П

0,023

27

X

0,009

5

А

0,062

17

У

0,021

28

Ж

0,007

6

И

0,062

18

Я

0,018

29

Ю

0,006

7

Т

0,053

19

Ы

0,016

30

Ш

0.006

8

Н

0,053

20

З

0.016

31

Ц

0,004

9

С

0,045

21

Ь

0,014

32

Щ

0,003

10

Р

0,040

22

Ъ

0,014

33

Э

0,003

11

В

0,038

23

Б

0,014

34

Ф

0,002

12

Л

0,035

Объемный подход

В двоичной системе счисления знаки 0 и 1 будем называтьбитами(от английского выражения Binary digiTs - двоичные цифры). Отметим, что создатели компьютеров отдают предпочтение именно двоичной системе счисления потому, что в техническом устройстве наиболее просто реализовать два противоположных физических состояния: некоторый физический элемент, имеющий два различных состояния: намагниченность в двух противоположных направлениях; прибор, пропускающий или нет электрический ток; конденсатор, заряженный или незаряженный и т.п. В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации, подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом, в частности, невозможно нецелое число битов (в отличие от вероятностного подхода).

Для удобства использования введены и более крупные, чем бит, единицы количества информации. Так, двоичное слово из восьми знаков содержит один,байтинформации,1024 байта образуюткилобайт(кбайт), 1024 килобайта -мегабайт(Мбайт), а 1024 мегабайта -гигабайт(Гбайт).

Между вероятностным и объемным количеством информации соотношение неоднозначное. Далеко не всякий текст, записанный двоичными символами, допускает измерение объема информации в кибернетическом смысле, но заведомо допускает его в объемном. Далее, если некоторое сообщение допускает измеримость количества информации в обоих смыслах, то они не обязательно совпадают, при этом кибернетическое количество информации не может быть больше объемного.

В дальнейшем тексте данного учебника практически всегда количество информации понимается в объемном смысле.

Список используемой литературы.

Учебник Информатики и ИКТ 10-11 класс ( И.Г.Семакин, Е.К.Хеннер)

Сайт http://www.sitereferatov.ru

superbotanik.net

Реферат Измерение информации

Реферат на тему: Измерение информации.

      Объемный и вероятностный подход.

Выполнил: ученик 10а класса                                                                                                             

                                                                                                                     Школы №52

                                                                                      Ибрагимов Орхан.

Содержание.

Введение………………………………………….3

Вероятностный подход………………………….4

        Таблица. Частотность букв русского языка…... 5

        Объемный подход……………………………….6

Список используемой литературы……………..7

                        

                           Введение.

Определить понятие «количество информации» довольно сложно. В решении этой проблемы существуют два основных подхода. Исторически они возникли почти одновременно. В конце 40-х годов XX века один из основоположников кибернетики американский математик Клод Шеннон развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к «объемному» подходу.

                                                                          Вероятностный подходРассмотрим в качестве примера опыт, связанный с бросанием правильной игральной .кости, имеющей N граней (наиболее распространенным является случай шестигранной кости: N = 6). Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1,2,... N.

Введем в рассмотрение численную величину, измеряющую неопределенность -энтропию (обозначим ее Н). Величины N и Н связаны между собой некоторой функциональной зависимостью:H = f (N),                                                  (1.1)а сама функция f является возрастающей, неотрицательной и определенной (в рассматриваемом нами примере) для N = 1, 2,... 6.

Рассмотрим процедуру бросания кости более подробно:

1) готовимся бросить кость; исход опыта неизвестен, т.е. имеется некоторая неопределенность; обозначим ее h2;

2) кость брошена; информация об исходе данного опыта получена; обозначим количество этой информации через I;

3) обозначим неопределенность данного опыта после его осуществления через h3. За количество информации, которое получено в ходе осуществления опыта, примем разность неопределенностей «до» и «после» опыта:I = h2 - h3                                                         (1.2)Очевидно, что в случае, когда получен конкретный результат, имевшаяся неопределенность снята (Н2 = 0), и, таким образом, количество полученной информации совпадает с первоначальной энтропией. Иначе говоря, неопределенность, заключенная в опыте, совпадает с информацией об исходе этого опыта. Заметим, что значение Н2 могло быть и не равным нулю, например, в случае, когда в ходе опыта следующей выпала грань со значением, большим «З».

Следующим важным моментом является определение вида функции f в формуле (1.1). Если варьировать число граней N и число бросаний кости (обозначим эту величину через М), общее число исходов (векторов длины М, состоящих из знаков 1,2,.... N) будет равно N в степени М:X=NM.                                                       (1.3)Так, в случае двух бросаний кости с шестью гранями имеем: Х = 62 = 36. Фактически каждый исход Х есть некоторая пара (X1, X2), где X1 и X2 - соответственно исходы первого и второго бросаний (общее число таких пар - X).Таблица 1.3. Частотность букв русского языка

i Символ Р(i) i Символ P(i) i Символ Р(i)
1 Пробел 0,175 13 0,028 24 Г 0.012
2 0 0,090 14 М 0,026 25 Ч 0,012
3 Е 0,072 15 Д 0,025 26 И 0,010
4 Ё 0,072 16 П 0,023 27 X 0,009
5 А 0,062 17 У 0,021 28 Ж 0,007
6 И 0,062 18 Я 0,018 29 Ю 0,006
7 Т 0,053 19 Ы 0,016 30 Ш 0.006
8 Н 0,053 20 З 0.016 31 Ц 0,004
9 С 0,045 21 Ь 0,014 32 Щ 0,003
10 Р 0,040 22 Ъ 0,014 33 Э 0,003
11 В 0,038 23 Б 0,014 34 Ф 0,002
12 Л 0,035

                                                                                                      Объемный подход         В двоичной системе счисления знаки 0 и 1 будем называть битами (от английского выражения Binary digiTs - двоичные цифры). Отметим, что создатели компьютеров отдают предпочтение именно двоичной системе счисления потому, что в техническом устройстве наиболее просто реализовать два противоположных физических состояния: некоторый физический элемент, имеющий два различных состояния: намагниченность в двух противоположных направлениях; прибор, пропускающий или нет электрический ток; конденсатор, заряженный или незаряженный и т.п. В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации, подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом, в частности, невозможно нецелое число битов (в отличие от вероятностного подхода).

Для удобства использования введены и более крупные, чем бит, единицы количества информации. Так, двоичное слово из восьми знаков содержит один, байт информации, 1024 байта образуют килобайт (кбайт), 1024 килобайта - мегабайт (Мбайт), а 1024 мегабайта - гигабайт (Гбайт).

Между вероятностным и объемным количеством информации соотношение неоднозначное. Далеко не всякий текст, записанный двоичными символами, допускает измерение объема информации в кибернетическом смысле, но заведомо допускает его в объемном. Далее, если некоторое сообщение допускает измеримость количества информации в обоих смыслах, то они не обязательно совпадают, при этом кибернетическое количество информации не может быть больше объемного.

В дальнейшем тексте данного учебника практически всегда количество информации понимается в объемном смысле.Список используемой литературы.Учебник Информатики и  ИКТ 10-11 класс ( И.Г.Семакин, Е.К.Хеннер)

Сайт   http://www.sitereferatov.ru

bukvasha.ru

Реферат - Информация. Единица измерения количества информации

Министерство образования и науки Российской Федерации

Федеральное агентство по образованию

Министерство образования Свердловской области

Негосударственное образовательное учреждение

Среднего профессионального образования

Уральский экономический колледж

Ревдинский филиал

Контрольная работа

предмет: Информатика — математика

Выполнил:

Козырин А.Л.,15/10 гр,

3 курс

Руководитель:

Ревда, 2011

Билет №1. Информация. Единица измерения количества информации.

Информация – это сведения об окружающем мире (объекте, процессе, явлении, событии), которые являются объектом преобразования (включая хранение, передачу и т.д.) и используются для выработки поведения, для принятия решения, для управления или для обучения.

Количество информации можно рассматривать как меру уменьшения неопределенности знания при получении информационных сообщений.

При всем многообразии подходов к определению понятия информации, с позиции измерения информации выделяют два из них: определение К. Шеннона, применяемое в математической теории информации (содержательный подход), и определение А. Н. Колмогорова, применяемое в отраслях информатики, связанных с использованием компьютеров (алфавитный подход).

1. Содержательный подход. Согласно Шеннону, информативность сообщения характеризуется содержащейся в нем полезной информацией — той частью сообщения, которая снимает полностью или уменьшает неопределенность какой-либо ситуации. По Шеннону, информация — уменьшение неопределенности наших знаний.

Содержательный подход часто называют субъективным, так как разные люди (субъекты) информацию об одном и том же предмете оценивают по-разному.

Но если число исходов не зависит от суждений людей (случай бросания кубика или монеты), то информация о наступлении одного из возможных исходов является объективной.

Если сообщение уменьшило неопределенность знаний ровно в два раза, то говорят, что сообщение несет 1 бит информации.

1 бит — объем информации такого сообщения, которое уменьшает неопределенность знания в два раза.

2. Алфавитный подход. Алфавитный подход основан на том, что всякое сообщение можно закодировать с помощью конечной последовательности символов некоторого алфавита.

Алфавит — упорядоченный набор символов, используемый для кодирования сообщений на некотором языке.

Мощность алфавита — количество символов алфавита. Двоичный алфавит содержит 2 символа, его мощность равна двум. Сообщения, записанные с помощью символов ASCII, используют алфавит из 256 символов. Сообщения, записанные по системе UNICODE, используют алфавит из 65 536 символов.

С позиций computer science носителями информации являются любые последовательности символов, которые хранятся, передаются и обрабатываются с помощью компьютера. Согласно Колмогорову, информативность последовательности символов не зависит от содержания сообщения, алфавитный подход является объективным, т.е. он не зависит от субъекта, воспринимающего сообщение.

Единицы измерения информации.

Как уже было сказано, основная единица измерения информации — бит. 8 бит составляют 1 байт.

Наряду с байтами для измерения количества информации используются более крупные единицы:

1 Кбайт (один килобайт) = 210 байт = 1024 байта;

1 Мбайт (один мегабайт) = 210 Кбайт = 1024 Кбайта;

1 Гбайт (один гигабайт) = 210 Мбайт = 1024 Мбайта.

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

1 Терабайт (Тб) = 1024 Гбайта = 240 байта,

1 Петабайт (Пб) = 1024 Тбайта = 250 байта.

Билет №6. Устройство памяти компьютера. Носители информации (гибкий диск, жесткий диск, диск CD - ROM / R / RW , DVD и т.д.

Основной функцией внешней памяти компьютера является способность долговременно хранить большой объем информации (программы, документы, аудио-и видеоклипы и т. д.). Устройство, которое обеспечивает запись/считывание информации, называется накопителем или дисководом, а хранится информация на носителях (например, дискетах).

В накопителях на гибких магнитных дисках (НГМД или дискетах) и накопителях на жестких магнитных дисках (НЖМД или винчестерах), в основу записи, хранения и считывания информации положен магнитный принцип, а в лазерных дисководах — оптический принцип.

1. Гибкие магнитные диски помещаются в пластмассовый корпус. Такой носитель информации называется дискетой. Дискета вставляется в дисковод, вращающий диск с постоянной угловой скоростью. Магнитная головка дисковода устанавливается на определенную концентрическую дорожку диска, на которую и записывается (или считывается) информация.

Информационная ёмкость дискеты невелика и составляет всего 1.44 Мбайт. Скорость записи и считывания информации также мала (около 50 Кбайт/с) из-за медленного вращения диска (360 об./мин).

В целях сохранения информации гибкие магнитные диски следует предохранять от воздействия сильных магнитных полей и нагревания, так как это может привести к размагничиванию носителя и потере информации.

2. Жесткий диск (HDD — Hard Disk Drive) относится к несменным дисковым магнитным накопителям. Первый жесткий диск был разработан фирмой IBM в 1973 г. и имел емкость 16 Кбайт.

Жесткие магнитные диски представляют собой несколько десятков дисков, размещенных на одной оси, заключенных в металлический корпус и вращающихся с высокой угловой скоростью. За счет множества дорожек на каждой стороне дисков и большого количества дисков информационная емкость жестких дисков может в десятки тысяч раз превышать информационную емкость дискет и достигать сотен Гбайт. Скорость записи и считывания информации с жестких дисков достаточно велика (около 133 Мбайт/с) за счет быстрого вращения дисков (7200 об./мин). Часто жесткий диск называют винчестер.

В жестких дисках используются достаточно хрупкие и миниатюрные элементы. Чтобы сохранить информацию и работоспособность жестких дисков, необходимо оберегать их от ударов и резких изменений пространственной ориентации в процессе работы.

3. Лазерные дисководы и диски. За последние несколько лет компьютерные устройства для чтения компакт-дисков (CD), называемые CD-ROM, стали практически необходимой частью любого компьютера. Это произошло потому, что разнообразные программные продукты стали занимать значительное количество места, и поставка их на дискетах оказалась чрезмерно дорогостоящей и ненадёжной. Поэтому их стали поставлять на CD (таких же, как и обычные музыкальные).

Лазерные дисководы используют оптический принцип чтения информации. На лазерных дисках CD (CD — Compact Disk, компакт диск) и DVD (DVD — Digital Video Disk, цифровой видеодиск) информация записана на одну спиралевидную дорожку (как на грампластинке), содержащую чередующиеся участки с различной отражающей способностью. Лазерный луч падает на поверхность вращающегося диска, а интенсивность отраженного луча зависит от отражающей способности участка дорожки и приобретает значения 0 или 1. Для сохранности информации лазерные диски надо предохранять от механических повреждений (царапин), а также от загрязнения.

На лазерных дисках хранится информация, которая была записана на них в процессе изготовления. Запись на них новой информации невозможна. Производятся такие диски путем штамповки. Существуют CD-R и DVD-R диски информация на которые может быть записана только один раз. На дисках CD-RW и DVD-RW информация может быть записана/перезаписана многократно. Диски разных видов можно отличить не только по маркировки, но и по цвету отражающей поверхности.

Запись на CD и DVD при помощи обычных CD-ROM и DVD-ROM невозможна. Для этого необходимы устройства CD-RW и DVD-RW с помощью которых возможны чтение-однократная запись и чтение-запись-перезапись. Эти устройства обладают достаточно мощным лазером, позволяющем менять отражающую способность участков поверхности в процессе записи диска.

Информационная ёмкость CD-ROM достигает 700 Мбайт, а скорость считывания информации (до 7.8 Мбайт/с) зависит от скорости вращения диска. DVD-диски имеют гораздо большую информационную ёмкость (однослойный односторонний диск — 4.7 Гбайт) по сравнению с CD-дисками, т.к. используются лазеры с меньшей длинной волны, что позволяет размещать оптические дорожки более плотно. Так же существуют двухслойные DVD-диски и двухсторонние DVD-диски. В настоящее время скорости считывания 16-скоростных DVD-дисководов достигает 21 Мбайт/с.

4. Устройства на основе flash-памяти. Flash-память — это энергонезависимый тип памяти, позволяющий записывать и хранить данные в микросхемах. Устройства на основе flash-памяти не имеют в своём составе движущихся частей, что обеспечивает высокую сохранность данных при их использовании в мобильных устройствах.

Flash-память представляет собой микросхему, помещенную в миниатюрный корпус. Для записи или считывания информации накопители подключаются к компьютеру через USB-порт. Информационная емкость карт памяти достигает 1024 Мбайт.

Билет №5. Функциональная схема компьютера (основные устройства, их функции и взаимосвязь).

По своему назначению компьютер — это универсальный прибор для работы с информацией. По принципам своего устройства компьютер — это модель человека, работающего с информацией.

Персональный компьютер (ПК) — это компьютер, предназначенный для обслуживания одного рабочего места. По своим характеристикам он может отличаться от больших ЭВМ, но функционально способен выполнять аналогичные операции. По способу эксплуатации различают настольные (desktop), портативные (laptop и notebook) и карманные (palmtop) модели ПК.

Аппаратное обеспечение. Поскольку компьютер предоставляет все три класса информационных методов для работы с данными (аппаратные, программные и естественные), принято говорить о компьютерной системе как о состоящей из аппаратных и программных средств, работающих совместно. Узлы, составляющие аппаратные средства компьютера, называют аппаратным обеспечением. Они выполняют всю физическую работу с данными: регистрацию, хранение, транспортировку и преобразование как по форме, так и по содержанию, а также представляют их в виде, удобном для взаимодействия с естественными информационными методами человека.

Совокупность аппаратных средств компьютера называют его аппаратной конфигурацией.

Программное обеспечение. Программы могут находиться в двух состояниях: активном и пассивном. В пассивном состоянии программа не работает и выглядит как данные, содержательная часть которых — сведения. В этом состоянии содержимое программы можно «читать» с помощью других программ, как читают книги, и изменять. Из него можно узнать назначение программы и принцип ее работы. В пассивном состоянии программы создаются, редактируются, хранятся и транспортируются. Процесс создания и редактирования программ называется программированием.

Когда программа находится в активном состоянии, содержательная часть ее данных рассматривается как команды, согласно которым работают аппаратные средства компьютера. Чтобы изменить порядок их работы, достаточно прервать исполнение одной программы и начать исполнение другой, содержащей иной набор команд.

Совокупность программ, хранящихся на компьютере, образует его программное обеспечение.Совокупность программ, подготовленных к работе, называют установленным программным обеспечением. Совокупность программ, работающих в тот или иной момент времени, называют программной конфигурацией.

Устройство компьютера. Любой компьютер (даже самый большой) состоит из четырех частей:

· устройства ввода информации

· устройства обработки информации

· устройства хранения

· устройства вывода информации.

Конструктивно эти части могут быть объединены в одном корпусе размером с книгу или же каждая часть может состоять из нескольких достаточно громоздких устройств

Базовая аппаратная конфигурация ПК. Базовой аппаратной конфигурацией персонального компьютера называют минимальный комплект аппаратных средств, достаточный для начала работы с компьютером. С течением времени понятие базовой конфигурации постепенно меняется.

Чаще всего персональный компьютер состоит из следующих устройств:

1.Системный блок — основной блок компьютерной системы. В нем располагаются устройства, считающиеся внутренними. Устройства, подключаемые к системному блоку снаружи, считаются внешними. Для внешних устройств используют также термин периферийное оборудование.

2. Монитор — устройство для визуального воспроизведения символьной и графической информации. Служит в качестве устройства вывода. Для настольных ПК в настоящее время наиболее распространены мониторы, основанные на электронно-лучевых трубках. Они отдаленно напоминают бытовые телевизоры.

3. Клавиатура — клавишное устройство, предназначенное для управления работой компьютера и ввода в него информации. Информация вводится в виде алфавитно-цифровых символьных данных.

4. Мышь — устройство «графического» управления.

Дополнительно могут подключатся другие устройства ввода и вывода информации, например звуковые колонки, принтер, сканер и др.

Внутренние устройства персонального компьютера. Внутренними считаются устройства, располагающиеся в системном блоке. Доступ к некоторым из них имеется на лицевой панели, что удобно для быстрой смены информационных носителей, например гибких магнитных дисков. Разъемы некоторых устройств выведены на заднюю стенку — они служат для подключения периферийного оборудования. К некоторым устройствам системного блока доступ не предусмотрен — для обычной работы он не требуется.

Процессор. Микропроцессор — основная микросхема персонального компьютера. Все вычисления выполняются в ней. Основная характеристика процессора — тактовая частота (измеряется в мегагерцах, МГц). Чем выше тактовая частота, тем выше производительность процессора. Так, например, при тактовой частоте 500 МГц процессор может за одну секунду изменить свое состояние 500 миллионов раз. Для большинства операций одного такта недостаточно, поэтому количество операций, которые процессор может выполнить в секунду, зависит не только от тактовой частоты, но и от сложности операций.

Единственное устройство, о существовании которого процессор «знает от рождения», — оперативная память — с нею он работает совместно. Оттуда поступают данные и команды. Данные копируются в ячейки процессора (они называются регистрами), а потом преобразуются в соответствии с содержанием команд. Более полную картину того, как процессор взаимодействует с оперативной памятью, вы получите в главах, посвященных основам программирования.

Оперативная память. Оперативную память можно представить как обширный массив ячеек, в которых хранятся числовые данные и команды в то время, когда компьютер включен. Объем оперативной памяти измеряется в миллионах байтов — мегабайтах (Мбайт).

Процессор может обратиться к любой ячейке оперативной памяти (байту), поскольку она имеет неповторимый числовой адрес. Обратиться к индивидуальному биту оперативной памяти процессор не может, так как у бита нет адреса. В то же время, процессор может изменить состояние любого бита, но для этого требуется несколько действий.

Материнская плата. Материнская плата — это самая большая плата персонального компьютера. На ней располагаются магистрали, связывающие процессор с оперативной памятью, — так называемые шины. Различают шину данных, по которой процессор копирует данные из ячеек памяти, адресную шину, по которой он подключается к конкретным ячейкам памяти, и шину команд, по которой в процессор поступают команды из программ. К шинам материнской платы подключаются также все прочие внутренние устройства компьютера. Управляет работой материнской платы микропроцессорный набор микросхем — так называемый чипсет.

Видеоадаптер. Видеоадаптер — внутреннее устройство, устанавливаемое в один из разъемов материнской платы. В первых персональных компьютерах видеоадаптеров не было. Вместо них в оперативной памяти отводилась небольшая область для хранения видеоданных. Специальная микросхема (видеоконтроллер) считывала данные из ячеек видеопамяти и в соответствии с ними управляла монитором.

По мере улучшения графических возможностей компьютеров область видеопамяти отделили от основной оперативной памяти и вместе с видеоконтроллером выделили в отдельный прибор, который назвали видеоадаптером. Современные видеоадаптеры имеют собственный вычислительный процессор (видеопроцессор), который снизил нагрузку на основной процессор при построении сложных изображений. Особенно большую роль видеопроцессор играет при построении на плоском экране трехмерных изображений. В ходе таких операций ему приходится выполнять особенно много математических расчетов.

В некоторых моделях материнских плат функции видеоадаптера выполняют микросхемы чипсета — в этом случае говорят, что видеоадаптер интегрирован с материнской платой. Если же видеоадаптер выполнен в виде отдельного устройства, его называют видеокартой. Разъем видеокарты выведен на заднюю стенку. К нему подключается монитор.

Звуковой адаптер. В настоящее время средства для работы со звуком считаются стандартными. Для этого на материнской плате устанавливается звуковой адаптер. Он может быть интегрирован в чипсете материнской платы или выполнен как отдельная подключаемая плата, которая называется звуковой картой.

Разъемы звуковой карты выведены на заднюю стенку компьютера. Для воспроизведения звука к ним подключают звуковые колонки или наушники. Отдельный разъем предназначен для подключения микрофона. При наличии специальной программы это позволяет записывать звук. Имеется также разъем (линейный выход) для подключения к внешней звукозаписывающей или звуковоспроизводящей аппаратуре (магнитофонам, усилителям и т.п.).

Жесткий диск. Поскольку оперативная память компьютера очищается при отключении питания, необходимо устройство для длительного хранения данных и программ. В настоящее время для этих целей широко применяют так называемые жесткие диски. Принцип действия жесткого диска основан на регистрации изменений магнитного поля вблизи записывающей головки.

Основным параметром жесткого диска является емкость, измеряемая в гигабайтах (миллиардах байтов), Гбайт. Средний размер современного жесткого диска составляет 80 — 160 Гбайт, причем этот параметр неуклонно растет.

Дисковод гибких дисков. Для транспортировки данных между удаленными компьютерами используют так называемые гибкие диски. Стандартный гибкий диск (дискета) имеет сравнительно небольшую емкость 1,44 Мбайт. По современным меркам этого совершенно недостаточно для большинства задач хранения и транспортировки данных, но низкая стоимость носителей и высокая степень готовности к работе сделали гибкие диски самыми распространенными носителями данных.

Для записи и чтения данных, размещенных на гибких дисках, служит специальное устройство — дисковод. Приемное отверстие дисковода выведено на лицевую панель системного блока.

Дисковод CD-ROM. Для транспортировки больших объемов данных удобно использовать компакт-диски CD-ROM. Эти диски позволяют только читать ранее записанные данные — производить запись на них нельзя. Емкость одного диска составляет порядка 650-700 Мбайт.

Для чтения компакт-дисков служат дисководы CD-ROM. Основной параметр дисковода CD-ROM— скорость чтения. Она измеряется в кратных единицах. За единицу принята скорость чтения, утвержденная в середине 80-х гг. для музыкальных компакт-дисков (аудиодисков). Современные дисководы CD-ROM обеспечивают скорость чтения 40х — 52х. Основной недостаток дисководов CD-ROM — невозможность записи дисков — преодолен в современных устройствах однократной записи — CD-R. Существуют также устройства CD-RW, позволяющие осуществлять многократную запись.

Принцип хранения данных на компакт-дисках не магнитный, как у гибких дисков, а оптический.

Коммуникационные порты. Для связи с другими устройствами, например принтером, сканером, клавиатурой, мышью и т. п., компьютер оснащается так называемыми портами. Порт — это не просто разъем для подключения внешнего оборудования, хотя порт и заканчивается разъемом. Порт — более сложное устройство, чем просто разъем, имеющее свои микросхемы и управляемое программно.

Сетевой адаптер. Сетевые адаптеры необходимы компьютерам, чтобы они могли обмениваться данными между собой. Этот прибор следит за тем, чтобы процессор не подал новую порцию данных на внешний порт, пока сетевой адаптер соседнего компьютера не скопировал к себе предыдущую порцию. После этого процессору дается сигнал о том, что данные забраны и можно подавать новые. Так осуществляется передача.

Когда сетевой адаптер «узнает» от соседнего адаптера, что у того есть порция данных, он копирует их к себе, а потом проверяет, ему ли они адресованы. Если да, он передает их процессору. Если нет, он выставляет их на выходной порт, откуда их заберет сетевой адаптер очередного соседнего компьютера. Так данные перемещаются между компьютерами до тех пор, пока не попадут к адресату.

Сетевые адаптеры могут быть встроены в материнскую плату, но чаще устанавливаются отдельно, в виде дополнительных плат, называемых сетевыми картами.

www.ronl.ru


Смотрите также