В новом формате компакт-дисков Audio DVD за одну секунду сигнал измеряется 96 000 раз, т.е. применяют частоту семплирования 96 кГц. Для экономии места на жестком диске в мультимедийных приложениях довольно часто применяют меньшие частоты: 11, 22, 32 кГц. Это приводит к уменьшению слышимого диапазона частот, а, значит, происходит сильное искажение того, что слышно.
Если в виде графика представить один и тот же звук высотой 1 кГц (нота до седьмой октавы фортепиано примерно соответствует этой частоте), но семплированный с разной частотой (нижняя часть синусоиды не показана на всех графиках), то будут видны различия. Одно деление на горизонтальной оси, которая показывает время, соответствует 10 семплам. Можно видеть, что на частоте 11 кГц примерно пять колебаний звуковой волны приходится на каждые 50 семплов, то есть один период синусоиды отображается всего при помощи 10 значений. Это довольно неточная передача. В то же время, если рассматривать частоту оцифровки 44 кГц, то на каждый период синусоиды приходится уже почти 50 семплов. Это позволяет получить сигнал хорошего качества.[7]
Разрядность указывает с какой точностью происходят изменения амплитуды аналогового сигнала. Точность, с которой при оцифровке передается значение амплитуды сигнала в каждый из моментов времени, определяет качество сигнала после цифро-аналогового преобразования. Именно от разрядности зависит достоверность восстановления формы волны.
Для кодирования значения амплитуды используют принцип двоичного кодирования. Звуковой сигнал должен быть представленным в виде последовательности электрических импульсов (двоичных нулей и единиц). Обычно используют 8, 16-битное или 20-битное представление значений амплитуды. При двоичном кодировании непрерывного звукового сигнала его заменяют последовательностью дискретных уровней сигнала. От частоты дискретизации (количества измерений уровня сигнала в единицу времени) зависит качество кодирования. С увеличением частоты дискретизации увеличивается точность двоичного представления информации. При частоте 8 кГц (количество измерений в секунду 8000) качество семплированного звукового сигнала соответствует качеству радиотрансляции, а при частоте 48 кГц (количество измерений в секунду 48000) - качеству звучания аудио- CD.
Если использовать 8-битное кодирование, то можно достичь точность изменения амплитуды аналогового сигнала до 1/256 от динамического диапазона цифрового устройства (28 = 256).
Если использовать 16-битное кодирование для представления значений амплитуды звукового сигнала, то точность измерения возрастет в 256 раз.
В современных преобразователях принято использовать 20-битное кодирование сигнала, что позволяет получать высококачественную оцифровку звука.
Чем выше частота дискретизации и чем больше разрядов отводится для каждого отсчета, тем точнее будет представлен звук, но при этом увеличивается и размер звукового файла. Поэтому в зависимости от характера звука, требований, предъявляемых к его качеству и объему занимаемой памяти, выбирают некоторые компромиссные значения.
Описанный способ кодирования звуковой информации достаточно универсален, он позволяет представить любой звук и преобразовывать его самыми разными способами. Но бывают случаи, когда выгодней действовать по-иному.
Издавна используется довольно компактный способ представления музыки – нотная запись. В ней специальными символами указывается, какой высоты звук, на каком инструменте и как сыграть. Фактически, ее можно считать алгоритмом для музыканта, записанным на особом формальном языке. В 1983 ведущие производители компьютеров и музыкальных синтезаторов разработали стандарт, определивший такую систему кодов. Он получил название MIDI.
Конечно, такая система кодирования позволяет записать далеко не всякий звук, она годится только для инструментальной музыки. Но есть у нее и неоспоримые преимущества: чрезвычайно компактная запись, естественность для музыканта (практически любой MIDI-редактор позволяет работать с музыкой в виде обычных нот), легкость замены инструментов, изменения темпа и тональности мелодии.
Есть и другие, чисто компьютерные, форматы записи музыки. Среди них – формат MP3, позволяющий с очень большим качеством и степенью сжатия кодировать музыку, при этом вместо 18–20 музыкальных композиций на стандартном компакт-диске (CDROM) помещается около 200. Одна песня занимает, примерно, 3,5 Mb, что позволяет пользователям сети Интернет легко обмениваться музыкальными композициями.
Ухо человека воспринимает звук в диапазоне от 20 Гц до 20 КГц (1 Гц - 1 колебание в секунду).[9]
Это алгоритм архивации без потери качества. Представим себе самый общий случай, когда в файле представлена большая часть таблицы ASCII и почти нет однородных последовательностей. В таком случае выгоду можно получить только если разные байты (символы) встречаются в данном файле с различной частотой. Тогда наиболее часто встречающиеся символы могут быть закодированы меньшим числом бит, а те, что встречаются довольно редко наоборот большим числом бит. В итоге результирующий файл с большой вероятностью будет меньшего объема, чем исходный.
Прежде чем описать алгоритм перекодировки, позволяющий наиболее часто встречающиеся символы (байты) кодировать не восемью, а гораздо меньшим числом бит, следует указать на ограничения, свойственные любому, даже самому эффективному алгоритму без потери качества.
Можно представить, что все файлы - это тексты, написанные в алфавите, состоящем из 256 букв (так оно на самом деле и есть). Рассмотрим все множество файлов, размер которых не превышает n byte (где n произвольное число). И допустим, что существует некий алгоритм кодирования, который любой из этих файлов сжимает с "положительной" эффективностью. Тогда множество всех их архивов содержится во множестве всех файлов, размер которых меньше n byte. Согласно нашему предположению существует взаимно-однозначное соответствие между двумя конечными множествами, число элементов в которых не совпадает. Чего быть не может. Отсюда можно сделать довольно значимые выводы: 1) не существует архиватора, который бы одинаково хорошо паковал любые файлы, 2) для любого архиватора найдутся файлы, в результате сжатия которых будут получаться архивы в лучшем случае не меньшего размера, чем исходные файлы. [4]
Алгори́тм Ле́мпеля — Зи́ва — Ве́лча — это универсальный алгоритм сжатия данных без потерь, созданный Абрахамом Лемпелем, Якобом Зивом и Терри Велчем. Он был опубликован Велчем в 1984 году, в качестве улучшенной реализации алгоритма LZ78, опубликованного Лемпелем и Зивом в 1978 году. Алгоритм разработан так, чтобы его можно было быстро реализовать, но он не обязательно оптимален, поскольку он не проводит никакого анализа входных данных.
Лемель и Зив используют следующую идею: если в тексте сообщения появляется последовательность из двух ранее уже встречавшихся символов, то эта последовательность объявляется новым символом, для нее назначается код, который при определенных условиях может быть значительно короче исходной последовательности. В дальнейшем в сжатом сообщении вместо исходной последовательности записывается назначенный код. При декодировании повторяются аналогичные действия и потому становятся известными последовательности символов для каждого кода.
Одна из алгоритмических реализаций этой идеи включает следующие операции. Первоначально каждому символу алфавита присваивается определенный код (коды - порядковые номера, начиная с 0).
При кодировании:
1. Выбирается первый символ сообщения и заменяется на его код.
2. Выбираются следующие два символа и заменяются своими кодами. Одновременно этой комбинации двух символов присваивается свой код. Обычно это номер, равный числу уже использованных кодов. Так, если алфавит включает 8 символов, имеющих коды от 000 до 111, то первая двухсимвольная комбинация получит код 1000, следующая - код 1001 и т.д.
3. Выбираются из исходного текста очередные 2, 3,...N символов до тех пор, пока не образуется еще не встречавшаяся комбинация. Тогда этой комбинации присваивается очередной код, и поскольку совокупность А из первых N-1 символов уже встречалась, то она имеет свой код, который и записывается вместо этих N-1 символов. Каждый акт введения нового кода назовем шагом кодирования.
4. Процесс продолжается до исчерпания исходного текста.
При декодировании код первого символа, а затем второго и третьего заменяются на символы алфавита. При этом становится известным код комбинации второго и третьего символов. В следующей позиции могут быть только коды уже известных символов и их комбинаций. Процесс декодирования продолжается до исчерпания сжатого текста. [11]
Управление правильностью (помехозащищенностью) передачи информации выполняется с помощью помехоустойчивого кодирования. Различают коды, обнаруживающие ошибки, и корректирующие коды, которые дополнительно к обнаружению еще и исправляют ошибки. Помехозащищенность достигается с помощью введения избыточности. Устранение ошибок с помощью корректирующих кодов реализуют в симплексных каналах связи. В дуплексных каналах достаточно применения кодов, обнаруживающих ошибки так как сигнализация об ошибке вызывает повторную передачу от источника. Это основные методы, используемые в информационных сетях.
Простейшими способами обнаружения ошибок являются контрольное суммирование, проверка на нечетность. Однако они недостаточно надежны, особенно при появлении пачек ошибок. Поэтому в качестве надежных обнаруживающих кодов применяют циклические коды. Примером корректирующего кода является код Хемминга.
В настоящее время темпы развития телекоммуникационных систем стали предпосылкой для появления принципиально новых способов кодирования сообщений. Причем одной из задач кодирования стало не только достоверная передача, но и быстрая обработка данных. Несмотря на рост мощности вычислительной техники, актуальным остается вопрос построения простых алгоритмов коррекции ошибок. Одним из малоизученных направлений в этой области можно считать использование кодов с иррациональным основанием.
Работа подавляющего числа современных систем связи основана на передаче сообщений в цифровом виде. Сбой при приеме любого элемента цифровых данных способен вызвать значительное искажение всего сообщения в целом, что, в свою очередь, может привести к полной потере информации, содержащейся в нем. Высокоэффективным средством решения данной проблемы является применение помехоустойчивого кодирования, основанного на введении искусственной избыточности в передаваемое сообщение. Отметим, что в современных информационных системах важнейшей задачей является обеспечение информационной безопасности, связанной с методами криптографии и кодирования, теоретические основы которой заложил Шеннон в своих трудах.[2]
В 50-е-70-е годы было разработано большое количество алгебраических кодов с исправлением ошибок, среди которых наиболее востребованными стали коды Боуза-Чоудхури-Хоквингема (БЧХ), Рида-Соломона (РС), Рида-Малера, Адамара, Юстенсена, Гоппы, циклические коды, сверточные коды с разными алгоритмами декодирования (последовательное декодирование, алгоритм Витерби), арифметические коды.
Однако на практике применяется относительно небольшая группа алгебраических помехоустойчивых кодов: БЧХ, Рида-Соломона и сверхточные коды. Наиболее широко применяются циклические коды с обнаружением ошибок в стандартных протоколах HDLC, Х.25/2 (LAP-B, LAP-M). Коды Рида-Соломона с исправлением ошибок находят применение в каналах радиосвязи. В каналах спутниковой связи, характеризующихся независимым характером ошибок, широко применяются сверхточные коды .
Следует отметить тот факт, что хотя существующие на данный момент системы передачи данных отвечают всем основным стандартам и требованиям, они все же не являются совершенными. Причин тому влияние помех в канале связи. Одним из средств решения подобных несоответствий в системах передачи цифровой информации, является применение помехоустойчивых кодов, лежащих в основе устройств кодирования/декодирования.
Помехоустойчивое кодирование передаваемой информации позволяет в приемной части системы обнаруживать и исправлять ошибки. Коды, применяемые при помехоустойчивом кодировании, называются корректирующими кодами. Как правило, корректирующий код может исправлять меньше ошибок, чем обнаруживать. Число ошибок, которые корректирующий код может исправить в определенном интервале последовательности двоичных символов, например, в одной кодовой комбинации, называется исправляющей способностью кода.
В разных средах характер помех разный. Ошибки могут быть одиночные, а могут возникать группами, сразу по несколько. В результате помех могут исчезать биты или наоборот — появляться лишние.
Под помехой понимается любое воздействие, накладывающееся на полезный сигнал и затрудняющее его прием.
Ранее отмечалось, что при передаче сообщений по каналам связи могут возникать помехи, способные привести к искажению принимаемых знаков. Так, например, если вы попытаетесь передать речевое сообщению в ветреную погоду человеку, находящемуся от вас на значительном расстоянии, то оно может быть сильно искажено такой помехой как ветер. Вообще, передача сообщений при наличии помех является серьезной теоретической и практической задачей. Ее значимость возрастает в связи с повсеместным внедрением компьютерных телекоммуникаций, в которых помехи неизбежны.
При работе с кодированной информацией, искажаемой помехами, можно выделить следующие основные проблемы: установления самого факта того, что произошло искажение информации; выяснения того, в каком конкретно месте передаваемого текста это произошло; исправления ошибки – хотя бы с некоторой степенью достоверности.
Помехи в передачи информации - свойство отнюдь не только технических систем. Это - вполне обычное дело в быту, например - разговор по телефону, в трубке которого "трещит", вождение автомобиля в тумане и т.д.
referat911.ru
Кодирование информации в ЭВМ
Проверил:
Выполнил:
Оренбург 2009
Содержание
Ведение………………………………………………………………………………………………………..3
Программа на кодирование информации ………………………………………………………...19
Заключение …………………………………………………………………………………………………24
Литература ………………………………………………………………………………………………….25
Введение
Теория кодирования близка к древнейшему искусству тайнописи – криптографии. Над разработкой различных шифров трудились многие известные ученые: философ Ф. Бэкон, математики Д.Кардано, Д. Валлис. Одновременно с развитием методов шифровки развивались приемы расшифровки, или криптоанализа.
C появлением компьютеров возникла необходимость кодирования всех видов информации, с которыми имеет дело и отдельный человек, и человечество в целом. Но решать задачу кодирования информации человечество начало задолго до появления компьютеров.
Грандиозные достижения человечества - письменность и арифметика - есть не что иное, как система кодирования речи и числовой информации. Информация никогда не появляется в чистом виде, она всегда как-то представлена, как-то закодирована.
Рассмотрим примеры кодирования, с которыми мы сталкиваемся в нашей жизни. На Руси, где леса гасили звук, для передачи срочных сообщений использовался дым костров. Многие африканские племена до сих пор используют специальные барабаны - тамтамы, обмениваясь сообщениями со скоростью звука. До сих пор на флоте используется семафорная азбука, когда каждой букве соответствует определенное положение рук сигнальщика, подчеркиваемое флажками. Но для того, чтобы сообщение было не только принято, но и понято, приходилось предварительно договариваться, что означают, например, два дыма, или последовательность из трех быстрых ударов, или разведенные в стороны руки.
Итак, кроме самого сообщения и способа его передачи, появился еще один компонент - преобразование информации или, по-научному выражаясь, кодирование. Без него никакой передачи информации не состоится.
Вообще-то, обычная разговорная и письменная речь – это тоже своего рода кодирование. И изучение иностранного языка мы фактически изучаем другие звуковые и буквенные коды знакомых с детства предметов и явлений.
Но вернемся к передаче срочных сообщений. По мере развития цивилизации, появлялись и новые возможности их пересылки.
Майкл Фарадей в 1831 году сделал открытие, буквально перевернувшее мир: он изобрел способ получения электрического тока. И чуть ли не сразу же электрический ток был использован для передачи сообщений [10].
На основе теоретических разработок английского ученого Шиллинга, американский изобретатель Сэмюэл Морзе создал и широко внедрил в практику телеграфные аппараты и линии связи. Морзе пришлось создавать язык, отчасти похожий на язык африканского барабанного телеграфа. И электрический ток, и барабан имеют весьма небогатый собственный язык. По барабану можно либо стучать, либо нет. Электрический ток или идет, или его нет. Поэтому и кодировка, предложенная Морзе использовала всего три своеобразные буквы: длинный сигнал (тире), короткий сигнал (точка), нет сигнала (пауза) - для разделения букв. Так, знаменитый сигнал SOS - (Save Our Souls - спасите наши души) кодируется так:
<точка>, <точка>, <точка> - S <пауза> <тире>, <тире>, <тире> - O <пауза> <точка>, <точка>, <точка> - S
Код Морзе полтора века служил человечеству. Его сигналы пробивались сквозь такие атмосферные помехи, которые глушили любую членораздельную речь. И лишь в последнее время, когда появились спутники связи, он практически не применяется. К сожалению, все ранние попытки сделать машину, понимающую код Морзе, оказались безуспешными. Предложенные варианты оказывались излишне громоздкими, ненадежными и дорогими. Конечно, техника начала века была еще не столь совершенна, как сейчас, но свою роль сыграло и то, что сам по себе код Морзе был весьма сложен для распознавания его автоматами.
В середине нашего века под руководством Алана Тьюринга под Лондоном появились компьютеры, обрабатывающие буквы и цифры, т.е. символьную информацию. Именно там в 1943 году был создан специализированный компьютер, расшифровывающий немецкие военные коды (машина называлась “Колосс”). Тысячи перехваченных за день неприятельских сообщений вводились в память “Колосса”, после чего в поисках соответствия машина перебирала сотни тысяч вариантов, расшифровывая самые сложные коды.
Актуальность: В связи с широким распространением персональных компьютеров не только как средств обработки информации, но также как оперативных средств коммуникации (электронная, телефаксная почта), возникают проблемы, связанные с обеспечением защиты информации от преднамеренных или случайных искажений. Поэтому необходимость кодирования информации имеет большое значение в решении этой проблемы и остаётся актуальной и на сегодняшний день.
Объект: Информационные процессы
Предмет: Кодирование информации
Цель: Разработать программно – методический комплекс “Кодирование информации”
Задачи:
Теоретическая часть
Рассмотрим ряд определений, использующихся в теории кодирования:
Код – правило, описывающее соответствие знаков (или их сочетаний) одного алфавита знакам (или их сочетаниям) другого алфавита.
Кодирование – перевод информации, представленной посредством первичного алфавита, в последовательность кодов.
Декодирование - операция, обратная кодированию, т.е. восстановление информации в первичном алфавите по полученной последовательности кодов.
Операции кодирования и декодирования называются обратимыми, если их последовательное применение обеспечивает возврат к исходной информации без каких-либо ее потерь.
Примером обратимого кодирования является представление знаков в телеграфном коде при передаче сообщений и восстановление их при приеме.
Примером необратимого кодирования является перевод текста с одного естественного языка на другой (обратный перевод побуквенно обычно не соответствует исходному тексту).
Основными задачами кодирования являются:
1. Обеспечение экономичности передачи информации посредством устранения избыточности
2. Обеспечение надежности (помехоустойчивости) передачи информации
3. Согласование скорости передачи информации с пропускной способностью канала
Соответствие между элементами дискретных сообщений и видом кодирования обеспечивается выбором:
1. Длительности сигналов
2. Длины кодового слова
3. Алфавита знаков и способа кодирования (побуквенного, блочного). Различают побуквенное и блочное кодирование. При побуквенном кодировании каждому знаку внешнего алфавита ставиться в соответствие кодовое слово из знаков внутреннего алфавита. При блочном кодировании слову из знаков внешнего алфавита ставиться в соответствие кодовое слово из знаков внутреннего алфавита.
Чтобы код был обратимым, необходимо:
1) чтобы разным символам входного алфавита А были сопоставлены разные кодовые комбинации;
2) чтобы никакая кодовая комбинация не составляла начальной части какой-нибудь другой кодовой комбинации.
Кодирование информации (иногда говорят — шифровка) – это процесс формирования определенного представления информации. В более узком смысле под термином «кодирование» часто понимают переход от одной формы представления информации к другой, более удобной для хранения, передачи или обработки.
Компьютер может обрабатывать только информацию, представленную в числовой форме. Вся информация (например, звуки, изображения, показания приборов и т. д.) для обработки на компьютере должна быть преобразована в числовую форму. Например, чтобы перевести в числовую форму музыкальный звук, можно через небольшие промежутки времени измерять интенсивность звука на определенных частотах, представляя результаты каждого измерения в числовой форме.
Аналогичным образом на компьютере можно обрабатывать текстовую информацию. При вводе в компьютер каждая буква кодируется определенным числом, а при выводе на внешние устройства (экран или печать) для восприятия человеком по этим числам строятся изображения букв. Соответствие между набором букв и числами называется кодировкой символов.
Как правило, все числа в компьютере представляются с помощью нулей и единиц (а не десяти цифр, как это привычно для людей). Иными словами, компьютеры обычно работают в двоичной системе счисления, поскольку при этом устройства для их обработки получаются значительно более простыми. Ввод чисел в компьютер и вывод их для чтения человеком может осуществляться в привычной десятичной форме, а все необходимые преобразования выполняют программы, работающие на компьютере[9].
Одна и та же информация может быть представлена (закодирована) в нескольких формах. Двоичное кодирование – один из распространенных способов представления информации. В вычислительных машинах, в роботах и станках с числовым программным управлением, как правило, вся информация, с которой имеет дело устройство, кодируется в виде слов двоичного алфавита. Двоичный алфавит состоит из двух цифр 0 и 1. Цифровые ЭВМ (персональные компьютеры относятся к классу цифровых) используют двоичное кодирование любой информации. В основном это объясняется тем, что построить техническое устройство, безошибочно различающее 2 разных состояния сигнала, технически оказалось проще, чем то, которое бы безошибочно различало 5 или 10 различных состояний.
К недостаткам двоичного кодирования относят очень длинные записи двоичных кодов, что затрудняет работу с ними.
Среди всего разнообразия информации, обрабатываемой на компьютере, значительную часть составляют числовая, текстовая, графическая и аудиоинформация. Познакомимся с некоторыми способами кодирования этих типов информации в ЭВМ. [ 3]
Основная операция, производимая над отдельными символами текста - сравнение символов.
Множество символов, используемых при записи текста, называется алфавитом. Количество символов в алфавите называется его мощностью.
При сравнении символов наиболее важными аспектами являются уникальность кода для каждого символа и длина этого кода, а сам выбор принципа кодирования практически не имеет значения.
В настоящее время, большая часть пользователей, при помощи компьютера обрабатывает текстовую информацию, которая состоит из символов: букв, цифр, знаков препинания и др. Подсчитаем, сколько всего символов и какое количество бит нам нужно: 10 цифр, 12 знаков препинания, 15 знаков арифметических действий, буквы русского и латинского алфавита, ВСЕГО: 155 символов, что соответствует 8 бит информации.
Суть кодирования заключается в том, что каждому символу ставят в соответствие двоичный код от 00000000 до 11111111 или соответствующий ему десятичный код от 0 до 255.
Для кодирования текстов используются различные таблицы перекодировки.
Таблица перекодировки - таблица, содержащая упорядоченный некоторым образом перечень кодируемых символов, в соответствии с которой происходит преобразование символа в его двоичный код и обратно.
Наиболее популярные таблицы перекодировки: ДКОИ-8, ASCII, CP1251, Unicode, причем тексты, закодированные при помощи одной таблицы не будут правильно отображаться в другой, поэтому важно, чтобы при кодировании и декодировании одного и того же текста использовалась одна и та же таблица. ( Базовая таблица кодировки ASCII приведена в таблице 1.1.). Не так давно был предложен новый стандарт символьного кодирования UNICODE, где каждый символ кодируется уже двумя байтами. Он позволяет свободно обмениваться сообщениями по Интернету на любом языке, не выясняя предварительно, понимает ли другой компьютер ваш родной алфавит.
referat911.ru
Содержание
Введение
1. Представлениеинформации в ЭВМ
1.1 Непрерывная и дискретная информация
1.2 Кодирование информации
1.3. Представление информации в двоичном коде
Заключение
Список использованной литературы
Введение
Теоретической основойинформатики является группа фундаментальных наук таких как: теория информации,теория алгоритмов, математическая логика, теория формальных языков и грамматик,комбинаторный анализ и т.д. Кроме них информатика включает такие разделы, какархитектура ЭВМ, операционные системы, теория баз данных, технологияпрограммирования и многие другие. Важным в определении информатики как наукиявляется то, что с одной стороны, она занимается изучением устройств ипринципов действия средств вычислительной техники, а с другой – систематизациейприемов и методов работы с программами, управляющими этой техникой.
Информационная технология– это совокупность конкретных технических и программных средств, с помощьюкоторых выполняются разнообразные операции по обработке информации во всехсферах нашей жизни и деятельности. Иногда информационную технологию называют компьютернойтехнологией или прикладной информатикой.
/>Информацияаналоговая и цифровая. Термин «информация»восходит к латинскомуinformatio,– разъяснение, изложение, осведомленность.
Информацию можноклассифицировать разными способами, и разные науки это делают по-разному.Например, в философии различают информацию объективную и субъективную.Объективная информация отражает явления природы и человеческого общества.Субъективная информация создается людьми и отражает их взгляд на объективныеявления.
В информатике отдельнорассматривается аналоговая информация и цифровая. Это важно, поскольку человекблагодаря своим органам чувств, привык иметь дело с аналоговой информацией, авычислительная техника, наоборот, в основном, работает с цифровой информацией.
1. Представление информации в ЭВМ
1.1Непрерывная и дискретная информация
Человек воспринимаетинформацию с помощью органов чувств. Свет, звук, тепло – это энергетическиесигналы, а вкус и запах – это результат воздействия химических соединений, воснове которого тоже энергетическая природа. Человек испытывает энергетическиевоздействия непрерывно и может никогда не встретиться с одной и той же ихкомбинацией дважды. Нет двух одинаковых зеленых листьев на одном дереве и двух абсолютноодинаковых звуков – это информация аналоговая. Если же разным цветам датьномера, а разным звукам – ноты, то аналоговую информацию можно превратить вцифровую.
/>/>/>/>Чтобы сообщение было передано отисточника к получателю, необходима некоторая материальная субстанция – носительинформации. Сообщение, передаваемое с помощью носителя, назовем сигналом. Вобщем случае сигнал – это изменяющийся во времени физический процесс. Такойпроцесс может содержать различные характеристики (например, при передачеэлектрических сигналов могут изменяться напряжение и сила тока). Та изхарактеристик, которая используется для представления сообщений, называетсяпараметром сигнала.
В случае когда параметрсигнала принимает последовательное во времени конечное число значений (при этомвсе они могут быть пронумерованы), сигнал называется дискретным, а сообщение,передаваемое с помощью таких сигналов -дискретным сообщением. Информация,передаваемая источником, в этом случае также называется дискретной. Если жеисточник вырабатывает непрерывное сообщение (соответственно параметр сигнала –непрерывная функция от времени), соответствующая информация называетсянепрерывной. Пример дискретного сообщения – процесс чтения книги, информация вкоторой представлена текстом, т.е. дискретной последовательностью отдельныхзначков (букв). Примером непрерывного сообщения служит человеческая речь,передаваемая модулированной звуковой волной; параметром сигнала в этом случаеявляется давление, создаваемое этой волной в точке нахождения приемника –человеческого уха.
Непрерывное сообщениеможет быть представлено непрерывной функцией, заданной на некотором отрезке [а,Ь] (см. рис. 2). Непрерывное сообщение можно преобразовать в дискретное (такаяпроцедура называется дискретизацией). Для этого из бесконечного множествазначений этой функции (параметра сигнала) выбирается их определенное число,которое приближенно может характеризовать остальные значения. Один из способовтакого выбора состоит в следующем. Область определения функции разбиваетсяточками x1, x2,… хn, наотрезки равной длины и на каждом из этих отрезков значение функции принимаетсяпостоянным и равным, например, среднему значению на этом отрезке; полученная наэтом этапе функция называется в математике ступенчатой. Следующий шаг –проецирование значений “ступенек” на ось значений функции (ось ординат).Полученная таким образом последовательность значений функции у1,у2,… уn. является дискретным представлениемнепрерывной функции, точность которого можно неограниченно улучшать путемуменьшения длин отрезков разбиения области значений аргумента.
/>
Рис. 1. Процедурадискретизации непрерывного сообщения
Ось значений функцииможно разбить на отрезки с заданным шагом и отобразить каждый из выделенныхотрезков из области определения функции в соответствующий отрезок из множествазначений (рис. 2). В итоге получим конечное множество чисел, определяемых,например, по середине или одной из границ таких отрезков.
Таким образом, любоесообщение может быть представлено как дискретное, иначе говоряпоследовательностью знаков некоторого алфавита.
Возможность дискретизациинепрерывного сигнала с любой желаемой точностью (для возрастания точностидостаточно уменьшить шаг) принципиально важна с точки зрения информатики.Компьютер – цифровая машина, т.е. внутреннее представление информации в немдискретно. Дискретизация входной информации (если она непрерывна) позволяетсделать ее пригодной для компьютерной обработки. Существуют и другиевычислительные машины – аналоговые ЭВМ. Они используются обычно для решениязадач специального характера и широкой публике практически не известны. Эти ЭВМв принципе не нуждаются в дискретизации входной информации, так как еевнутреннее представление у них непрерывно. В этом случае все наоборот – есливнешняя информация дискретна, то ее “перед употреблением” необходимопреобразовать в непрерывную.
/>/>/>/>Единицы количества информации:/> вероятностный и объемный подходы
Определить понятие“количество информации” довольно сложно. В решении этой проблемы существуют дваосновных подхода. Исторически они возникли почти одновременно. В конце 40-хгодов XX века один из основоположников кибернетики американский математик КлодШеннон развил вероятностный подход к измерению количества информации, а работыпо созданию ЭВМ привели к “объемному” подходу.
Вероятностный подход
Рассмотрим в качествепримера опыт, связанный с бросанием правильной игральной.кости, имеющей Nграней (наиболее распространенным является случай шестигранной кости: N = 6).Результаты данного опыта могут быть следующие: выпадение грани с одним изследующих знаков: 1,2,… N.
Введем в рассмотрениечисленную величину, измеряющую неопределенность -энтропию (обозначим ее Н).Величины N и Н связаны между собой некоторой функциональной зависимостью:
H = f (N), (1.1)
а сама функция fявляется возрастающей, неотрицательной и определенной (в рассматриваемом намипримере) для N = 1, 2,… 6.
Рассмотрим процедурубросания кости более подробно:
1) готовимся броситькость; исход опыта неизвестен, т.е. имеется некоторая неопределенность;обозначим ее h2;
2) кость брошена;информация об исходе данного опыта получена; обозначим количество этойинформации через I;
3) обозначимнеопределенность данного опыта после его осуществления через h3.За количество информации, которое получено в ходе осуществления опыта, примемразность неопределенностей “до” и “после” опыта:
I = h2 – h3 (1.2)
Очевидно, что в случае,когда получен конкретный результат, имевшаяся неопределенность снята (Н2= 0), и, таким образом, количество полученной информации совпадает спервоначальной энтропией. Иначе говоря, неопределенность, заключенная в опыте,совпадает с информацией об исходе этого опыта. Заметим, что значение Н2могло быть и не равным нулю, например, в случае, когда в ходе опыта следующейвыпала грань со значением, большим “З”.
Следующим важным моментомявляется определение вида функции f в формуле (1.1). Если варьироватьчисло граней N и число бросаний кости (обозначим эту величину через М),общее число исходов (векторов длины М, состоящих из знаков 1,2,… N)будет равно N в степени М:
X=NM. (1.3)
Так, в случае двухбросаний кости с шестью гранями имеем: Х=62=36. Фактическикаждый исход Х есть некоторая пара (X1, X2),где X1 и X2 – соответственно исходы первогои второго бросаний (общее число таких пар – X).
Ситуацию с бросанием Мраз кости можно рассматривать как некую сложную систему, состоящую изнезависимых друг от друга подсистем – “однократных бросаний кости”. Энтропиятакой системы в М раз больше, чем энтропия одной системы (так называемый“принцип аддитивности энтропии”):
f(6M) = M ∙f(6)
Данную формулу можнораспространить и на случай любого N:
F(NM) = M ∙ f(N)(1.4)
Прологарифмируем левую иправую части формулы (1.3):
lnX=M ∙lnN,М=lnX/1nM.
Подставляем полученноедля M значение в формулу (1.4):
/>
Обозначив через Кположительную константу, получим: f(X) =К ∙ lnХ, или, с учетом(1.1), H=K ∙ lnN. Обычно принимают К = 1 / ln 2.Таким образом
H = log2 N.(1.5)
Это – формула Хартли.
Важным при введениекакой-либо величины является вопрос о том, что принимать за единицу ееизмерения. Очевидно, Н будет равно единице при N=2. Иначе говоря,в качестве единицы принимается количество информации, связанное с проведениемопыта, состоящего в получении одного из двух равновероятных исходов (примеромтакого опыта может служить бросание монеты при котором возможны два исхода:“орел”, “решка”). Такая единица количества информации называется “бит”.
Все N исходоврассмотренного выше опыта являются равновероятными и поэтому можно считать, чтона “долю” каждого исхода приходится одна N-я часть общейнеопределенности опыта: (log2N)1N. При этомвероятность i-го исхода Рiравняется, очевидно, 1/N.
Таким образом,
/>(1.6)
Та же формула (1.6)принимается за меру энтропии в случае, когда вероятности различных исходовопыта неравно вероятны (т.е. Рi могут быть различны). Формула(1.6) называется формулой Шеннона.
В качестве примераопределим количество информации, связанное с появлением каждого символа всообщениях, записанных на русском языке. Будем считать, что русский алфавитсостоит из 33 букв и знака “пробел” для разделения слов. По формуле (1.5)
Н = log2 34 ≈ 5 бит.
Однако, в словах русскогоязыка (равно как и в словах других языков) различные буквы встречаютсянеодинаково часто. Ниже приведена табл. 1 вероятностей частоты употребленияразличных знаков русского алфавита, полученная на основе анализа очень большихпо объему текстов.
В двоичной системесчисления знаки 0 и 1 будем называть битами (от английского выражения BinarydigiTs – двоичные цифры). Отметим, что создатели компьютеров отдаютпредпочтение именно двоичной системе счисления потому, что в техническомустройстве наиболее просто реализовать два противоположных физическихсостояния: некоторый физический элемент, имеющий два различных состояния:намагниченность в двух противоположных направлениях; прибор, пропускающий илинет электрический ток; конденсатор, заряженный или незаряженный и т.п. Вкомпьютере бит является наименьшей возможной единицей информации. Объеминформации, записанной двоичными знаками в памяти компьютера или на внешнемносителе информации подсчитывается просто по количеству требуемых для такойзаписи двоичных символов. При этом, в частности, невозможно нецелое число битов(в отличие от вероятностного подхода).
Для удобстваиспользования введены и более крупные, чем бит, единицы количества информации.Так, двоичное слово из восьми знаков содержит один, байт информации, 1024 байтаобразуют килобайт (кбайт), 1024 килобайта – мегабайт (Мбайт), а 1024 мегабайта– гигабайт (Гбайт).
Между вероятностным иобъемным количеством информации соотношение неоднозначное. Далеко не всякийтекст, записанный двоичными символами, допускает измерение объема информации вкибернетическом смысле, но заведомо допускает его в объемном. Далее, еслинекоторое сообщение допускает измеримость количества информации в обоихсмыслах, то они не обязательно совпадают, при этом кибернетическое количествоинформации не может быть больше объемного.
В дальнейшем практическивсегда количество информации понимается в объемном смысле.
/>/>/>/>4. Информация: более широкий взгляд
Подробнее>>
/>/>/>/>5. Свойства информации
Свойства информации:
• запоминаемость;
• передаваемость;
• преобразуемость;
• воспроизводимость;
• стираемость.
Свойство запоминаемости –одно из самых важных. Запоминаемую информацию будем называть макроскопической(имея ввиду пространственные масштабы запоминающей ячейки и время запоминания).Именно с макроскопической информацией мы имеем дело в реальной практике.
Передаваемость информациис помощью каналов связи (в том числе с помехами) хорошо исследована в рамкахтеории информации К. Шеннона. В данном случае имеется ввиду несколько инойаспект – способность информации к копированию, т.е. к тому, что она может быть“запомнена” другой макроскопической системой и при этом останется тождественнойсамой себе. Очевидно, что количество информации не должно возрастать прикопировании.
Воспроизводимостьинформации тесно связана с ее передаваемостью и не является ее независимымбазовым свойством. Если передаваемость означает, что не следует считатьсущественными пространственные отношения между частями системы, между которымипередается информация, то воспроизводимость характеризует неиссякаемость инеистощимость информации, т.е. что при копировании информация остаетсятождественной самой себе.
Фундаментальное свойствоинформации – преобразуемость. Оно означает, что информация может менять способи форму своего существования. Копируемость есть разновидность преобразованияинформации, при котором ее количество не меняется. В общем случае количествоинформации в процессах преобразования меняется, но возрастать не может.Свойство стираемости информации также не является независимым. Оно связано стаким преобразованием информации (передачей), при котором ее количествоуменьшается и становится равным нулю.
Подводя итог сказанному,отметим, что предпринимаются (но отнюдь не завершены) попытки ученых,представляющих самые разные области знания, построить единую теорию, котораяпризвана формализовать понятие информации и информационного процесса, описатьпревращения информации в процессах самой разной природы. Движение информацииесть сущность процессов управления, которые суть проявление имманентнойактивности материи, ее способности к самодвижению. С момента возникновениякибернетики управление рассматривается применительно ко всем формам движенияматерии, а не только к высшим (биологической и социальной). Многие проявлениядвижения в неживых – искусственных (технических) и естественных (природных) –системах также обладают общими признаками управления, хотя их исследуют вхимии, физике, механике в энергетической, а не в информационной системепредставлений. Информационные аспекты в таких системах составляют предмет новоймеждисциплинарной науки – синергетики.
Высшей формой информации,проявляющейся в управлении в социальных системах, являются знания. Этонаддисциплинарное понятие, широко используемое в педагогике и исследованиях поискусственному интеллекту, также претендует на роль важнейшей философскойкатегории. В философском плане познание следует рассматривать как один изфункциональных аспектов управления. Такой подход открывает путь к системномупониманию генезиса процессов познания, его основ и перспектив./>/>/>
1.2Кодирование информации
Представление информации происходитв различных формах в процессе восприятия окружающей среды живыми организмами ичеловеком, в процессах обмена информацией между человеком и человеком,человеком и компьютером, компьютером и компьютером и так далее. Преобразованиеинформации из одной формы представления (знаковой системы) в другую называетсякодированием.
Средством кодированияслужит таблица соответствия знаковых систем, которая устанавливает взаимнооднозначное соответствие между знаками или группами знаков двух различныхзнаковых систем.
В процессе обменаинформацией часто приходится производить операции кодирования и декодированияинформации. При вводе знака алфавита в компьютер путем нажатия соответствующейклавиши на клавиатуре происходит кодирование знака, то есть преобразованиекомпьютерный код. При выводе знака на экран монитора или принтер происходитобратный процесс — декодирование, когда из компьютерного кода знакпреобразуется в его графическое изображение.
С появлением языка, азатем и знаковых систем расширились возможности общения между людьми. Этопозволило хранить идеи, полученные знания и любые данные, передавать ихразличными способами на расстояние и в другие времена — не только своимсовременникам, но и будущим поколениям. До наших дней дошли творения предков,которые с помощью различных символов увековечили себя и свои деяния впамятниках и надписях. Наскальные рисунки (петроглифы) до сих пор служатзагадкой для ученых. Возможно, таким способом древние люди хотели вступить вконтакт с нами, будущими жителями планеты и сообщить о событиях их жизни.
Каждый народ имеет свойязык, состоящий из набора символов (букв): русский, английский, японский имногие другие. Вы уже познакомились с языком математики, физики, химии.
Представление информациис помощью какого-либо языка часто называют кодированием.
Код — набор символов (условныхобозначений) дли представления информации. Кодирование— процесспредставления информации в виде кода.
Водитель передает сигналс помощью гудка или миганием фар. Кодом является наличие или отсутствие гудка,а в случае световой сигнализации — мигание фар или его отсутствие.
Вы встречаетесь скодированием информации при переходе дороги по сигналам светофора. Кодопределяют цвета светофора — красный, желтый, зеленый.
В основу естественногоязыка, на котором общаются люди, тоже положен код. Только в этом случае онназывается алфавитом. При разговоре этот код передается звуками, при письме —буквами. Одну и ту же информацию можно представить с помощью различных кодов.Например, запись разговора можно зафиксировать посредством русских букв илиспециальных стенографических значков.
По мере развития техникипоявлялись разные способы кодирования информации. Во второй половине XIX векаамериканский изобретатель Сэмюэль Морзе изобрел удивительный код, который служитчеловечеству до сих пор. Информация кодируется тремя «буквами»: длинный сигнал(тире), короткий сигнал (точка) и отсутствие сигнала (пауза) для разделениябукв. Таким образом, кодирование сводится к использованию набора символов,расположенных в строго определенном порядке.
1.3Представление информации в двоичном коде
Люди всегда искалиспособы быстрого обмена сообщениями. Для этого посылали гонцов, использовалипочтовых голубей. У народов существовали различные способы оповещения онадвигающейся опасности: барабанный бой, дым костров, флаги и т. д. Однакоиспользование такого представления информации требует предварительнойдоговоренности о понимании принимаемого сообщения.
Знаменитый немецкийученый Готфрид Вильгельм Лейбниц предложил еще в XVII веке уникальную и простуюсистему представления чисел. «Вычисление с помощью двоек… является для наукиосновным и порождает новые открытия… при сведении чисел к простейшим началам,каковы 0 и 1, везде появляется чудесный порядок».
Сегодня такой способ представленияинформации с помощью языка, содержащего всего два символа алфавита — 0 и 1,широко используется в технических устройствах, в том числе ив компьютере. Этидва символа 0 и 1 принято называть двоичными цифрами или битами (от англ. bit —BinaryDigit — двоичный знак).
Вся информация, которуюобрабатывает компьютер должна быть представлена двоичным кодом с помощью двухцифр 0 и 1. Эти два символа принято называть двоичными цифрами или битами. Спомощью двух цифр 0 и 1 можно закодировать любое сообщение. Это явилосьпричиной того, что в компьютере обязательно должно быть организованно дваважных процесса: кодирование и декодирование.
Кодирование преобразование входной информации вформу, воспринимаемую компьютером, т.е. двоичный код.
Декодирование – преобразование данных из двоичногокода в форму, понятную человеку.
С точки зрениятехнической реализации использование двоичной системы счисления для кодированияинформации оказалось намного более простым, чем применение других способов.Действительно, удобно кодировать информацию в виде последовательности нулей иединиц, если представить эти значения как два возможных устойчивых состоянияэлектронного элемента:
-отсутствиеэлектрического сигнала;
— наличие электрическогосигнала.
Эти состояния легкоразличать. Недостаток двоичного кодирования — длинные коды. Но в технике легчеиметь дело с большим количеством простых элементов, чем с небольшим числомсложных.
Вам приходится постоянносталкиваться с устройством, которое может находится только в двух устойчивыхсостояниях: включено/выключено. Конечно же, это хорошо знакомый всемвыключатель. А вот придумать выключатель, который мог бы устойчиво и быстро переключатьсяв любое из 10 состояний, оказалось невозможным. В результате после ряданеудачных попыток разработчики пришли к выводу о невозможности построениякомпьютера на основе десятичной системы счисления. И в основу представлениячисел в компьютере была положена именно двоичная система счисления.
Способы кодирования идекодирования информации в компьютере, в первую очередь, зависит от вид;,информации, а именно, что должно кодироваться: числа, текст, графическиеизображения или звук.
Представление(кодирование)чисел
Для записи информации околичестве объектов используются числа. Числа записываются с помощью набораспециальных символов.
Система счисления — способ записи чисел с помощьюнабора специальных знаков, называемых цифрами.
Системы счисленияподразделяются на позиционные и непозиционные.
В позиционных системахсчисления величина, обозначаемая цифрой в записи числа, зависит от её положенияв числе (позиции).
Цветные изображенияформируются в соответствии с двоичным кодом цвета каждой точки, хранящимся ввидеопамяти. Цветные изображения могут иметь различную глубину цвета, котораязадается количеством битов, используемым для кодирования цвета точки. Наиболеераспространенными значениями глубины цвета являются 8,16, 24 или 32 бита.
Цветное изображение наэкране монитора формируется за счет смешивания трех базовых цветов: красного,зеленого и синего. Такая цветовая модель называется RGB-моделью по первымбуквам английских названий цветов (Red, Green, Blue).
Заключение
Информацию можноклассифицировать разными способами, и разные науки это делают по-разному.Например, в философии различают информацию объективную и субъективную.Объективная информация отражает явления природы и человеческого общества.Субъективная информация создается людьми и отражает их взгляд на объективныеявления.
В информатике отдельнорассматривается аналоговая информация и цифровая. Это важно, поскольку человекблагодаря своим органам чувств, привык иметь дело с аналоговой информацией, авычислительная техника, наоборот, в основном, работает с цифровой информацией.
Человек воспринимаетинформацию с помощью органов чувств. Свет, звук, тепло – это энергетическиесигналы, а вкус и запах – это результат воздействия химических соединений, воснове которого тоже энергетическая природа. Человек испытывает энергетическиевоздействия непрерывно и может никогда не встретиться с одной и той же их комбинациейдважды. Нет двух одинаковых зеленых листьев на одном дереве и двух абсолютноодинаковых звуков – это информация аналоговая. Если же разным цветам датьномера, а разным звукам – ноты, то аналоговую информацию можно превратить вцифровую.
/>Кодированиеинформации. Кодирование информации – это процесс формирования определенногопредставления информации.
В более узком смысле подтермином «кодирование» часто понимают переход от одной формы представленияинформации к другой, более удобной для хранения, передачи или обработки.
Компьютер можетобрабатывать только информацию, представленную в числовой форме. Вся другаяинформация (звуки, изображения, показания приборов и т. д.) для обработки накомпьютере должна быть преобразована в числовую форму. Например, чтобыперевести в числовую форму музыкальный звук, можно через небольшие промежуткивремени измерять интенсивность звука на определенных частотах, представляярезультаты каждого измерения в числовой форме. С помощью компьютерных программможно преобразовывать полученную информацию, например «наложить» друг на другазвуки от разных источников.
Аналогично на компьютереможно обрабатывать текстовую информацию. При вводе в компьютер каждая буквакодируется определенным числом, а при выводе на внешние устройства (экран илипечать) для восприятия человеком по этим числам строятся изображения букв.Соответствие между набором букв и числами называется кодировкой символов.
Как правило, все числа вкомпьютере представляются с помощью нулей и единиц (а не десяти цифр, как этопривычно для людей). Иными словами, компьютеры обычно работают в двоичнойсистемесчисления, поскольку при этом устройства для их обработки получаютсязначительно более простыми.
Списокиспользованной литературы
1. Агальцов В.П., Титов В.М. Информатика дляэкономистов: Учебник. – М.: ИД «ФОРУМ»: ИНФРА-М, 2006. – 448 с.
2. Информатика для экономистов: Учебник / Под общ. ред.В.М. Матюшка. – М.: ИНФРА-М, 2007. – 880с.
3. Информатика. Общий курс: Учебник / Под ред. В.И.Колесникова. – М.: Издательско-торговая корпорация «Дашков и К◦»;Ростов н/Д: Наука-Пресс, 2008. – 400 с.
4. Информатика: Практикум по технологии работы накомпьютере / Под ред. Н.В. Макаровой. – М.: Финансы и статистика, 2005. – 256с.
5. Информатика: Учебник / Под общ. ред. А.Н. Данчула. –М.: Изд-во РАГС, 2004. – 528 с.
6. Соболь Б.В. Информатика: Учебник / Соболь Б.В., ГалинА.Б., Панов Ю.В., Рашидова Е.В., Садовой Н.Н. – М.: Ростов н/Д: Феникс, 2005. –448 с.
www.ronl.ru
Введение 3
Основные понятия 4
Представление данных в ЭВМ 5
Кодирование символьной информации 8
Кодирование числовой информации 9
Кодирование текстовой информации 9
Кодирование графической информации 10
Кодирование звуковой информации 11
Заключение 12
Список использованной литературы 13
Содержание
Кодирование графической информацииВажный этапкодирования графических изображений — эторазбиение их на дискретные элементы (дискретизация).
Основной способ представления графики для ее хранения и обработки при помощи компьютера — растровые и векторные изображенияВекторные изображенияпредставляют собой графические объекты, состоящие из элементарных геометрических фигур (обычно отрезков и дуг).
Положения этих элементарных отрезков определяются координатами точек и величинами радиусов. Для каждой линии указывают двоичные коды типов линий (сплошные, пунктирные, штрихпунктирные), толщин и цветов. Растровые изображения представляют собой совокупности точек (пикселей), полученные в результате дискретизации изображений в соответствии с матричным принципом. Матричный принцип кодирования графических изображений — разбиение на заданное количество строк и столбцов. Каждый элемент полученной сетки кодируется по выбранному правилу. Pixel (pictureelement — элемент рисунка) — минимальная единица изображения.
Его цвет и яркость можно задать независимо от остальных частей изображения. По матричному принципу строятся изображения, которые выводятся на принтер, отображаются на дисплеях, получаются при помощи сканера. Качество изображения зависит от плотности расположения пикселей, то есть чем выше разрешающая способность устройства, и чем точнее закодированы цвета каждого из них. Для черно-белых изображений код цвета каждого пикселя задаются одним битом. Для цветного рисунказадается двоичный код цвета каждой точки. Так как цвет кодируется в двоичном коде, то при использовании, например, 16-цветного рисунок, для того, чтобы кодировать каждый пиксель, потребуется 4 бита, а если есть возможность использовать
1. бит (2 байта) для кодирования цвета одного пикселя, то тогдаможно передать 65 536 различных цветов. При использовании трех байтов (24 битов) для кодирования цвета одной точки можно отразить почти
1. миллионов разных оттенков цветов. Кодирование звуковой информацииИз курса физики известно, что звук — это колебания воздуха. По своей природе звук — это непрерывный сигнал. При преобразовании звука в электрический сигнал (например, при помощи микрофона), можно увидеть плавно изменяющееся с течением времени напряжение. Для компьютерной обработки аналоговый сигнал нужно каким-то образом преобразовать в последовательность двоичных чисел, а для этого его необходимо дискретизировать и оцифровать. Можно поступить следующим образом: измерять амплитуду сигнала через равные промежутки времени и записывать полученные числовые значения в память компьютера. ЗаключениеВ представленном реферате были рассмотрены методы кодирования различных видов информации и алгоритмы получения кодов для представления данных в ЭВМ. Подводя итоги данной работы, можно констатировать актуальность и важность такой темы, как кодирование информации. Список использованной литературыВернер М. Основы кодирования: Пер. с нем. — М.: ТЕХНОСФЕРА, 2004. — 288с. Гашков С. Б. Системы счисления и их применение. — М.: МЦНМО, 2004. Ковалгин Ю.А., Вологдин Э.И. Цифровое кодирование звуковых сигналов. — СПб: КОРОНА-принт, 2004. — 240с. Панин В.В. Основы теории информации: учебное пособие для вузов. — М.: БИНОМ. Лаборатория знаний, 2007. — 436с. Цымбал В. П. Теория информации и кодирование. — Киев: Выща Школа, 1977. — 288 с.
1. Вернер М. Основы кодирования: Пер. с нем. — М.: ТЕХНОСФЕРА, 2004. — 288с.
2. Гашков С. Б. Системы счисления и их применение. — М.: МЦНМО, 2004.
3. Ковалгин Ю.А., Вологдин Э.И. Цифровое кодирование звуковых сигналов. — СПб: КОРОНА-принт, 2004. — 240с.
4. Панин В.В. Основы теории информации: учебное пособие для вузов. — М.: БИНОМ. Лаборатория знаний, 2007. — 436с.
5. Цымбал В. П. Теория информации и кодирование. — Киев: Выща Школа, 1977. — 288 с.
список литературы
referatbooks.ru
Содержание
Введение
1. Представление информации в ЭВМ
1.1 Непрерывная и дискретная информация
1.2 Кодирование информации
1.3. Представление информации в двоичном коде
Заключение
Список использованной литературы
Введение
Теоретической основой информатики является группа фундаментальных наук таких как: теория информации, теория алгоритмов, математическая логика, теория формальных языков и грамматик, комбинаторный анализ и т.д. Кроме них информатика включает такие разделы, как архитектура ЭВМ, операционные системы, теория баз данных, технология программирования и многие другие. Важным в определении информатики как науки является то, что с одной стороны, она занимается изучением устройств и принципов действия средств вычислительной техники, а с другой – систематизацией приемов и методов работы с программами, управляющими этой техникой.
Информационная технология – это совокупность конкретных технических и программных средств, с помощью которых выполняются разнообразные операции по обработке информации во всех сферах нашей жизни и деятельности. Иногда информационную технологию называют компьютерной технологией или прикладной информатикой.
Информация аналоговая и цифровая. Термин «информация»восходит к латинскому informatio,– разъяснение, изложение, осведомленность.
Информацию можно классифицировать разными способами, и разные науки это делают по-разному. Например, в философии различают информацию объективную и субъективную. Объективная информация отражает явления природы и человеческого общества. Субъективная информация создается людьми и отражает их взгляд на объективные явления.
В информатике отдельно рассматривается аналоговая информация и цифровая. Это важно, поскольку человек благодаря своим органам чувств, привык иметь дело с аналоговой информацией, а вычислительная техника, наоборот, в основном, работает с цифровой информацией.
1. Представление информации в ЭВМ
1.1 Непрерывная и дискретная информация
Человек воспринимает информацию с помощью органов чувств. Свет, звук, тепло – это энергетические сигналы, а вкус и запах – это результат воздействия химических соединений, в основе которого тоже энергетическая природа. Человек испытывает энергетические воздействия непрерывно и может никогда не встретиться с одной и той же их комбинацией дважды. Нет двух одинаковых зеленых листьев на одном дереве и двух абсолютно одинаковых звуков – это информация аналоговая. Если же разным цветам дать номера, а разным звукам – ноты, то аналоговую информацию можно превратить в цифровую.
Чтобы сообщение было передано от источника к получателю, необходима некоторая материальная субстанция – носитель информации. Сообщение, передаваемое с помощью носителя, назовем сигналом. В общем случае сигнал – это изменяющийся во времени физический процесс. Такой процесс может содержать различные характеристики (например, при передаче электрических сигналов могут изменяться напряжение и сила тока). Та из характеристик, которая используется для представления сообщений, называется параметром сигнала.
В случае когда параметр сигнала принимает последовательное во времени конечное число значений (при этом все они могут быть пронумерованы), сигнал называется дискретным, а сообщение, передаваемое с помощью таких сигналов -дискретным сообщением. Информация, передаваемая источником, в этом случае также называется дискретной. Если же источник вырабатывает непрерывное сообщение (соответственно параметр сигнала – непрерывная функция от времени), соответствующая информация называется непрерывной. Пример дискретного сообщения – процесс чтения книги, информация в которой представлена текстом, т.е. дискретной последовательностью отдельных значков (букв). Примером непрерывного сообщения служит человеческая речь, передаваемая модулированной звуковой волной; параметром сигнала в этом случае является давление, создаваемое этой волной в точке нахождения приемника – человеческого уха.
Непрерывное сообщение может быть представлено непрерывной функцией, заданной на некотором отрезке [а, Ь] (см. рис. 2). Непрерывное сообщение можно преобразовать в дискретное (такая процедура называется дискретизацией). Для этого из бесконечного множества значений этой функции (параметра сигнала) выбирается их определенное число, которое приближенно может характеризовать остальные значения. Один из способов такого выбора состоит в следующем. Область определения функции разбивается точками x 1, x 2,… хn , на отрезки равной длины и на каждом из этих отрезков значение функции принимается постоянным и равным, например, среднему значению на этом отрезке; полученная на этом этапе функция называется в математике ступенчатой. Следующий шаг – проецирование значений “ступенек” на ось значений функции (ось ординат). Полученная таким образом последовательность значений функции у 1, у 2,… уn . является дискретным представлением непрерывной функции, точность которого можно неограниченно улучшать путем уменьшения длин отрезков разбиения области значений аргумента.
Рис. 1. Процедура дискретизации непрерывного сообщения
Ось значений функции можно разбить на отрезки с заданным шагом и отобразить каждый из выделенных отрезков из области определения функции в соответствующий отрезок из множества значений (рис. 2). В итоге получим конечное множество чисел, определяемых, например, по середине или одной из границ таких отрезков.
Таким образом, любое сообщение может быть представлено как дискретное, иначе говоря последовательностью знаков некоторого алфавита.
Возможность дискретизации непрерывного сигнала с любой желаемой точностью (для возрастания точности достаточно уменьшить шаг) принципиально важна с точки зрения информатики. Компьютер – цифровая машина, т.е. внутреннее представление информации в нем дискретно. Дискретизация входной информации (если она непрерывна) позволяет сделать ее пригодной для компьютерной обработки. Существуют и другие вычислительные машины – аналоговые ЭВМ. Они используются обычно для решения задач специального характера и широкой публике практически не известны. Эти ЭВМ в принципе не нуждаются в дискретизации входной информации, так как ее внутреннее представление у них непрерывно. В этом случае все наоборот – если внешняя информация дискретна, то ее “перед употреблением” необходимо преобразовать в непрерывную.
Единицы количества информации:вероятностный и объемный подходы
Определить понятие “количество информации” довольно сложно. В решении этой проблемы существуют два основных подхода. Исторически они возникли почти одновременно. В конце 40-х годов XX века один из основоположников кибернетики американский математик Клод Шеннон развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к “объемному” подходу.
Вероятностный подход
Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной.кости, имеющей N граней (наиболее распространенным является случай шестигранной кости: N = 6). Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1,2,… N.
Введем в рассмотрение численную величину, измеряющую неопределенность -энтропию (обозначим ее Н ). Величины N и Н связаны между собой некоторой функциональной зависимостью:
H = f (N), (1.1)
а сама функция f является возрастающей, неотрицательной и определенной (в рассматриваемом нами примере) для N = 1, 2,… 6.
Рассмотрим процедуру бросания кости более подробно:
1) готовимся бросить кость; исход опыта неизвестен, т.е. имеется некоторая неопределенность; обозначим ее h2 ;
2) кость брошена; информация об исходе данного опыта получена; обозначим количество этой информации через I ;
3) обозначим неопределенность данного опыта после его осуществления через h3. За количество информации, которое получено в ходе осуществления опыта, примем разность неопределенностей “до” и “после” опыта:
I = h2 – h3 (1.2)
Очевидно, что в случае, когда получен конкретный результат, имевшаяся неопределенность снята (Н2 = 0), и, таким образом, количество полученной информации совпадает с первоначальной энтропией. Иначе говоря, неопределенность, заключенная в опыте, совпадает с информацией об исходе этого опыта. Заметим, что значение Н2 могло быть и не равным нулю, например, в случае, когда в ходе опыта следующей выпала грань со значением, большим “З”.
Следующим важным моментом является определение вида функции f в формуле (1.1). Если варьировать число граней N и число бросаний кости (обозначим эту величину через М), общее число исходов (векторов длины М, состоящих из знаков 1,2,… N) будет равно N в степени М:
X=NM. (1.3)
Так, в случае двух бросаний кости с шестью гранями имеем: Х =62 =36. Фактически каждый исход Х есть некоторая пара (X1, X2 ), где X1 и X2 – соответственно исходы первого и второго бросаний (общее число таких пар – X).
Ситуацию с бросанием М раз кости можно рассматривать как некую сложную систему, состоящую из независимых друг от друга подсистем – “однократных бросаний кости”. Энтропия такой системы в М раз больше, чем энтропия одной системы (так называемый “принцип аддитивности энтропии”):
f(6M ) = M ∙ f(6)
Данную формулу можно распространить и на случай любого N:
F(NM) = M ∙ f(N) (1.4)
Прологарифмируем левую и правую части формулы (1.3):
lnX=M ∙ lnN ,М =lnX/ 1nM.
Подставляем полученное для M значение в формулу (1.4):
Обозначив через К положительную константу, получим: f(X) =К ∙ lnХ, или, с учетом (1.1), H=K ∙ lnN. Обычно принимают К = 1 / ln 2. Таким образом
H = log2 N. (1.5)
Это – формула Хартли.
Важным при введение какой-либо величины является вопрос о том, что принимать за единицу ее измерения. Очевидно, Н будет равно единице при N=2. Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов (примером такого опыта может служить бросание монеты при котором возможны два исхода: “орел”, “решка”). Такая единица количества информации называется “бит”.
Все N исходов рассмотренного выше опыта являются равновероятными и поэтому можно считать, что на “долю” каждого исхода приходится одна N-я часть общей неопределенности опыта: (log2N) 1N. При этом вероятность i -го исхода Рi равняется, очевидно, 1/N.
Таким образом,
(1.6)
Та же формула (1.6) принимается за меру энтропии в случае, когда вероятности различных исходов опыта неравно вероятны (т.е. Рi могут быть различны). Формула (1.6) называется формулой Шеннона.
В качестве примера определим количество информации, связанное с появлением каждого символа в сообщениях, записанных на русском языке. Будем считать, что русский алфавит состоит из 33 букв и знака “пробел” для разделения слов. По формуле (1.5)
Н = log2 34 ≈ 5 бит.
Однако, в словах русского языка (равно как и в словах других языков) различные буквы встречаются неодинаково часто. Ниже приведена табл. 1 вероятностей частоты употребления различных знаков русского алфавита, полученная на основе анализа очень больших по объему текстов.
В двоичной системе счисления знаки 0 и 1 будем называть битами (от английского выражения Binary digiTs – двоичные цифры). Отметим, что создатели компьютеров отдают предпочтение именно двоичной системе счисления потому, что в техническом устройстве наиболее просто реализовать два противоположных физических состояния: некоторый физический элемент, имеющий два различных состояния: намагниченность в двух противоположных направлениях; прибор, пропускающий или нет электрический ток; конденсатор, заряженный или незаряженный и т.п. В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом, в частности, невозможно нецелое число битов (в отличие от вероятностного подхода).
Для удобства использования введены и более крупные, чем бит, единицы количества информации. Так, двоичное слово из восьми знаков содержит один, байт информации, 1024 байта образуют килобайт (кбайт), 1024 килобайта – мегабайт (Мбайт), а 1024 мегабайта – гигабайт (Гбайт).
Между вероятностным и объемным количеством информации соотношение неоднозначное. Далеко не всякий текст, записанный двоичными символами, допускает измерение объема информации в кибернетическом смысле, но заведомо допускает его в объемном. Далее, если некоторое сообщение допускает измеримость количества информации в обоих смыслах, то они не обязательно совпадают, при этом кибернетическое количество информации не может быть больше объемного.
В дальнейшем практически всегда количество информации понимается в объемном смысле.
4. Информация: более широкий взгляд
Подробнее>>
5. Свойства информации
Свойства информации:
• запоминаемость;
• передаваемость;
• преобразуемость;
• воспроизводимость;
• стираемость.
Свойство запоминаемости – одно из самых важных. Запоминаемую информацию будем называть макроскопической (имея ввиду пространственные масштабы запоминающей ячейки и время запоминания). Именно с макроскопической информацией мы имеем дело в реальной практике.
Передаваемость информации с помощью каналов связи (в том числе с помехами) хорошо исследована в рамках теории информации К. Шеннона. В данном случае имеется ввиду несколько иной аспект – способность информации к копированию, т.е. к тому, что она может быть “запомнена” другой макроскопической системой и при этом останется тождественной самой себе. Очевидно, что количество информации не должно возрастать при копировании.
Воспроизводимость информации тесно связана с ее передаваемостью и не является ее независимым базовым свойством. Если передаваемость означает, что не следует считать существенными пространственные отношения между частями системы, между которыми передается информация, то воспроизводимость характеризует неиссякаемость и неистощимость информации, т.е. что при копировании информация остается тождественной самой себе.
Фундаментальное свойство информации – преобразуемость. Оно означает, что информация может менять способ и форму своего существования. Копируемость есть разновидность преобразования информации, при котором ее количество не меняется. В общем случае количество информации в процессах преобразования меняется, но возрастать не может. Свойство стираемости информации также не является независимым. Оно связано с таким преобразованием информации (передачей), при котором ее количество уменьшается и становится равным нулю.
Подводя итог сказанному, отметим, что предпринимаются (но отнюдь не завершены) попытки ученых, представляющих самые разные области знания, построить единую теорию, которая призвана формализовать понятие информации и информационного процесса, описать превращения информации в процессах самой разной природы. Движение информации есть сущность процессов управления, которые суть проявление имманентной активности материи, ее способности к самодвижению. С момента возникновения кибернетики управление рассматривается применительно ко всем формам движения материи, а не только к высшим (биологической и социальной). Многие проявления движения в неживых – искусственных (технических) и естественных (природных) – системах также обладают общими признаками управления, хотя их исследуют в химии, физике, механике в энергетической, а не в информационной системе представлений. Информационные аспекты в таких системах составляют предмет новой междисциплинарной науки – синергетики.
Высшей формой информации, проявляющейся в управлении в социальных системах, являются знания. Это наддисциплинарное понятие, широко используемое в педагогике и исследованиях по искусственному интеллекту, также претендует на роль важнейшей философской категории. В философском плане познание следует рассматривать как один из функциональных аспектов управления. Такой подход открывает путь к системному пониманию генезиса процессов познания, его основ и перспектив.
1.2 Кодирование информации
Представление информации происходит в различных формах в процессе восприятия окружающей среды живыми организмами и человеком, в процессах обмена информацией между человеком и человеком, человеком и компьютером, компьютером и компьютером и так далее. Преобразование информации из одной формы представления (знаковой системы) в другую называется кодированием.
Средством кодирования служит таблица соответствия знаковых систем, которая устанавливает взаимно однозначное соответствие между знаками или группами знаков двух различных знаковых систем.
В процессе обмена информацией часто приходится производить операции кодирования и декодирования информации. При вводе знака алфавита в компьютер путем нажатия соответствующей клавиши на клавиатуре происходит кодирование знака, то есть преобразование компьютерный код. При выводе знака на экран монитора или принтер происходит обратный процесс — декодирование, когда из компьютерного кода знак преобразуется в его графическое изображение.
С появлением языка, а затем и знаковых систем расширились возможности общения между людьми. Это позволило хранить идеи, полученные знания и любые данные, передавать их различными способами на расстояние и в другие времена — не только своим современникам, но и будущим поколениям. До наших дней дошли творения предков, которые с помощью различных символов увековечили себя и свои деяния в памятниках и надписях. Наскальные рисунки (петроглифы) до сих пор служат загадкой для ученых. Возможно, таким способом древние люди хотели вступить в контакт с нами, будущими жителями планеты и сообщить о событиях их жизни.
Каждый народ имеет свой язык, состоящий из набора символов (букв): русский, английский, японский и многие другие. Вы уже познакомились с языком математики, физики, химии.
Представление информации с помощью какого-либо языка часто называют кодированием.
Код — набор символов (условных обозначений) дли представления информации. Кодирование — процесс представления информации в виде кода.
Водитель передает сигнал с помощью гудка или миганием фар. Кодом является наличие или отсутствие гудка, а в случае световой сигнализации — мигание фар или его отсутствие.
Вы встречаетесь с кодированием информации при переходе дороги по сигналам светофора. Код определяют цвета светофора — красный, желтый, зеленый.
В основу естественного языка, на котором общаются люди, тоже положен код. Только в этом случае он называется алфавитом. При разговоре этот код передается звуками, при письме — буквами. Одну и ту же информацию можно представить с помощью различных кодов. Например, запись разговора можно зафиксировать посредством русских букв или специальных стенографических значков.
По мере развития техники появлялись разные способы кодирования информации. Во второй половине XIX века американский изобретатель Сэмюэль Морзе изобрел удивительный код, который служит человечеству до сих пор. Информация кодируется тремя «буквами»: длинный сигнал (тире), короткий сигнал (точка) и отсутствие сигнала (пауза) для разделения букв. Таким образом, кодирование сводится к использованию набора символов, расположенных в строго определенном порядке.
1.3 Представление информации в двоичном коде
Люди всегда искали способы быстрого обмена сообщениями. Для этого посылали гонцов, использовали почтовых голубей. У народов существовали различные способы оповещения о надвигающейся опасности: барабанный бой, дым костров, флаги и т. д. Однако использование такого представления информации требует предварительной договоренности о понимании принимаемого сообщения.
Знаменитый немецкий ученый Готфрид Вильгельм Лейбниц предложил еще в XVII веке уникальную и простую систему представления чисел. «Вычисление с помощью двоек… является для науки основным и порождает новые открытия… при сведении чисел к простейшим началам, каковы 0 и 1, везде появляется чудесный порядок».
Сегодня такой способ представления информации с помощью языка, содержащего всего два символа алфавита — 0 и 1, широко используется в технических устройствах, в том числе ив компьютере. Эти два символа 0 и 1 принято называть двоичными цифрами или битами (от англ. bit — BinaryDigit — двоичный знак).
Вся информация, которую обрабатывает компьютер должна быть представлена двоичным кодом с помощью двух цифр 0 и 1. Эти два символа принято называть двоичными цифрами или битами. С помощью двух цифр 0 и 1 можно закодировать любое сообщение. Это явилось причиной того, что в компьютере обязательно должно быть организованно два важных процесса: кодирование и декодирование.
Кодирование преобразование входной информации в форму, воспринимаемую компьютером, т.е. двоичный код.
Декодирование – преобразование данных из двоичного кода в форму, понятную человеку.
С точки зрения технической реализации использование двоичной системы счисления для кодирования информации оказалось намного более простым, чем применение других способов. Действительно, удобно кодировать информацию в виде последовательности нулей и единиц, если представить эти значения как два возможных устойчивых состояния электронного элемента:
-отсутствие электрического сигнала;
— наличие электрического сигнала.
Эти состояния легко различать. Недостаток двоичного кодирования — длинные коды. Но в технике легче иметь дело с большим количеством простых элементов, чем с небольшим числом сложных.
Вам приходится постоянно сталкиваться с устройством, которое может находится только в двух устойчивых состояниях: включено/выключено. Конечно же, это хорошо знакомый всем выключатель. А вот придумать выключатель, который мог бы устойчиво и быстро переключаться в любое из 10 состояний, оказалось невозможным. В результате после ряда неудачных попыток разработчики пришли к выводу о невозможности построения компьютера на основе десятичной системы счисления. И в основу представления чисел в компьютере была положена именно двоичная система счисления.
Способы кодирования и декодирования информации в компьютере, в первую очередь, зависит от вид;, информации, а именно, что должно кодироваться: числа, текст, графические изображения или звук.
Представление(кодирование) чисел
Для записи информации о количестве объектов используются числа. Числа записываются с помощью набора специальных символов.
Система счисления — способ записи чисел с помощью набора специальных знаков, называемых цифрами.
Системы счисления подразделяются на позиционные и непозиционные.
В позиционных системах счисления величина, обозначаемая цифрой в записи числа, зависит от её положения в числе (позиции).
Цветные изображения формируются в соответствии с двоичным кодом цвета каждой точки, хранящимся в видеопамяти. Цветные изображения могут иметь различную глубину цвета, которая задается количеством битов, используемым для кодирования цвета точки. Наиболее распространенными значениями глубины цвета являются 8,16, 24 или 32 бита.
Цветное изображение на экране монитора формируется за счет смешивания трех базовых цветов: красного, зеленого и синего. Такая цветовая модель называется RGB-моделью по первым буквам английских названий цветов (Red, Green, Blue).
Заключение
Информацию можно классифицировать разными способами, и разные науки это делают по-разному. Например, в философии различают информацию объективную и субъективную. Объективная информация отражает явления природы и человеческого общества. Субъективная информация создается людьми и отражает их взгляд на объективные явления.
В информатике отдельно рассматривается аналоговая информация и цифровая. Это важно, поскольку человек благодаря своим органам чувств, привык иметь дело с аналоговой информацией, а вычислительная техника, наоборот, в основном, работает с цифровой информацией.
Человек воспринимает информацию с помощью органов чувств. Свет, звук, тепло – это энергетические сигналы, а вкус и запах – это результат воздействия химических соединений, в основе которого тоже энергетическая природа. Человек испытывает энергетические воздействия непрерывно и может никогда не встретиться с одной и той же их комбинацией дважды. Нет двух одинаковых зеленых листьев на одном дереве и двух абсолютно одинаковых звуков – это информация аналоговая. Если же разным цветам дать номера, а разным звукам – ноты, то аналоговую информацию можно превратить в цифровую.
Кодирование информации. Кодирование информации – это процесс формирования определенного представления информации.
В более узком смысле под термином «кодирование» часто понимают переход от одной формы представления информации к другой, более удобной для хранения, передачи или обработки.
Компьютер может обрабатывать только информацию, представленную в числовой форме. Вся другая информация (звуки, изображения, показания приборов и т. д.) для обработки на компьютере должна быть преобразована в числовую форму. Например, чтобы перевести в числовую форму музыкальный звук, можно через небольшие промежутки времени измерять интенсивность звука на определенных частотах, представляя результаты каждого измерения в числовой форме. С помощью компьютерных программ можно преобразовывать полученную информацию, например «наложить» друг на друга звуки от разных источников.
Аналогично на компьютере можно обрабатывать текстовую информацию. При вводе в компьютер каждая буква кодируется определенным числом, а при выводе на внешние устройства (экран или печать) для восприятия человеком по этим числам строятся изображения букв. Соответствие между набором букв и числами называется кодировкой символов.
Как правило, все числа в компьютере представляются с помощью нулей и единиц (а не десяти цифр, как это привычно для людей). Иными словами, компьютеры обычно работают в двоичнойсистеме счисления, поскольку при этом устройства для их обработки получаются значительно более простыми.
Список использованной литературы
1. Агальцов В.П., Титов В.М. Информатика для экономистов: Учебник. – М.: ИД «ФОРУМ»: ИНФРА-М, 2006. – 448 с.
2. Информатика для экономистов: Учебник / Под общ. ред. В.М. Матюшка. – М.: ИНФРА-М, 2007. – 880с.
3. Информатика. Общий курс: Учебник / Под ред. В.И. Колесникова. – М.: Издательско-торговая корпорация «Дашков и К◦ »; Ростов н/Д: Наука-Пресс, 2008. – 400 с.
4. Информатика: Практикум по технологии работы на компьютере / Под ред. Н.В. Макаровой. – М.: Финансы и статистика, 2005. – 256 с.
5. Информатика: Учебник / Под общ. ред. А.Н. Данчула. – М.: Изд-во РАГС, 2004. – 528 с.
6. Соболь Б.В. Информатика: Учебник / Соболь Б.В., Галин А.Б., Панов Ю.В., Рашидова Е.В., Садовой Н.Н. – М.: Ростов н/Д: Феникс, 2005. – 448 с.
www.ronl.ru