Р’ РЅРѕРІРѕРј формате компакт-РґРёСЃРєРѕРІ Audio DVD Р·Р° РѕРґРЅСѓ секунду сигнал измеряется 96 000 раз, С‚.Рµ. применяют частоту семплирования 96 кГц. Для СЌРєРѕРЅРѕРјРёРё места РЅР° жестком РґРёСЃРєРµ РІ мультимедийных приложениях довольно часто применяют меньшие частоты: 11, 22, 32 кГц. Рто РїСЂРёРІРѕРґРёС‚ Рє уменьшению слышимого диапазона частот, Р°, значит, РїСЂРѕРёСЃС…РѕРґРёС‚ сильное искажение того, что слышно. В В В
Если РІ РІРёРґРµ графика представить РѕРґРёРЅ Рё тот же Р·РІСѓРє высотой 1 кГц (нота РґРѕ седьмой октавы фортепиано примерно соответствует этой частоте), РЅРѕ семплированный СЃ разной частотой (нижняя часть СЃРёРЅСѓСЃРѕРёРґС‹ РЅРµ показана РЅР° всех графиках), то Р±СѓРґСѓС‚ РІРёРґРЅС‹ различия. РћРґРЅРѕ деление РЅР° горизонтальной РѕСЃРё, которая показывает время, соответствует 10 семплам. Можно видеть, что РЅР° частоте 11 кГц примерно пять колебаний Р·РІСѓРєРѕРІРѕР№ волны приходится РЅР° каждые 50 семплов, то есть РѕРґРёРЅ период СЃРёРЅСѓСЃРѕРёРґС‹ отображается всего РїСЂРё помощи 10 значений. Рто довольно неточная передача. Р’ то же время, если рассматривать частоту оцифровки 44 кГц, то РЅР° каждый период СЃРёРЅСѓСЃРѕРёРґС‹ приходится уже почти 50 семплов. Рто позволяет получить сигнал хорошего качества.[7] В В В
Разрядность указывает СЃ какой точностью РїСЂРѕРёСЃС…РѕРґСЏС‚ изменения амплитуды аналогового сигнала. Точность, СЃ которой РїСЂРё оцифровке передается значение амплитуды сигнала РІ каждый РёР· моментов времени, определяет качество сигнала после цифро-аналогового преобразования. Рменно РѕС‚ разрядности зависит достоверность восстановления формы волны. В В В
Для кодирования значения амплитуды используют принцип двоичного кодирования. Р—РІСѓРєРѕРІРѕР№ сигнал должен быть представленным РІ РІРёРґРµ последовательности электрических импульсов (двоичных нулей Рё единиц). Обычно используют 8, 16-битное или 20-битное представление значений амплитуды. РџСЂРё двоичном кодировании непрерывного Р·РІСѓРєРѕРІРѕРіРѕ сигнала его заменяют последовательностью дискретных уровней сигнала. РћС‚ частоты дискретизации (количества измерений СѓСЂРѕРІРЅСЏ сигнала РІ единицу времени) зависит качество кодирования. РЎ увеличением частоты дискретизации увеличивается точность двоичного представления информации. РџСЂРё частоте 8 кГц (количество измерений РІ секунду 8000) качество семплированного Р·РІСѓРєРѕРІРѕРіРѕ сигнала соответствует качеству радиотрансляции, Р° РїСЂРё частоте 48 кГц (количество измерений РІ секунду 48000) - качеству звучания аудио- CD. В В В
Если использовать 8-битное кодирование, то можно достичь точность изменения амплитуды аналогового сигнала РґРѕ 1/256 РѕС‚ динамического диапазона цифрового устройства (28 = 256). В В В
Если использовать 16-битное кодирование для представления значений амплитуды Р·РІСѓРєРѕРІРѕРіРѕ сигнала, то точность измерения возрастет РІ 256 раз. В В В
В современных преобразователях принято использовать 20-битное кодирование сигнала, что позволяет получать высококачественную оцифровку звука.
Чем выше частота дискретизации и чем больше разрядов отводится для каждого отсчета, тем точнее будет представлен звук, но при этом увеличивается и размер звукового файла. Поэтому в зависимости от характера звука, требований, предъявляемых к его качеству и объему занимаемой памяти, выбирают некоторые компромиссные значения.
Описанный способ кодирования звуковой информации достаточно универсален, он позволяет представить любой звук и преобразовывать его самыми разными способами. Но бывают случаи, когда выгодней действовать по-иному.
Рздавна используется довольно компактный СЃРїРѕСЃРѕР± представления музыки – нотная запись. Р’ ней специальными символами указывается, какой высоты Р·РІСѓРє, РЅР° каком инструменте Рё как сыграть. Фактически, ее можно считать алгоритмом для музыканта, записанным РЅР° РѕСЃРѕР±РѕРј формальном языке. Р’ 1983 ведущие производители компьютеров Рё музыкальных синтезаторов разработали стандарт, определивший такую систему РєРѕРґРѕРІ. РћРЅ получил название MIDI.
Конечно, такая система кодирования позволяет записать далеко не всякий звук, она годится только для инструментальной музыки. Но есть у нее и неоспоримые преимущества: чрезвычайно компактная запись, естественность для музыканта (практически любой MIDI-редактор позволяет работать с музыкой в виде обычных нот), легкость замены инструментов, изменения темпа и тональности мелодии.
Есть Рё РґСЂСѓРіРёРµ, чисто компьютерные, форматы записи музыки. Среди РЅРёС… – формат MP3, позволяющий СЃ очень большим качеством Рё степенью сжатия кодировать музыку, РїСЂРё этом вместо 18–20 музыкальных композиций РЅР° стандартном компакт-РґРёСЃРєРµ (CDROM) помещается около 200. РћРґРЅР° песня занимает, примерно, 3,5 Mb, что позволяет пользователям сети Рнтернет легко обмениваться музыкальными композициями.
Ухо человека воспринимает звук в диапазоне от 20 Гц до 20 КГц (1 Гц - 1 колебание в секунду).[9]
В
В
Рто алгоритм архивации без потери качества. Представим себе самый общий случай, РєРѕРіРґР° РІ файле представлена большая часть таблицы ASCII Рё почти нет однородных последовательностей. Р’ таком случае выгоду можно получить только если разные байты (символы) встречаются РІ данном файле СЃ различной частотой. РўРѕРіРґР° наиболее часто встречающиеся символы РјРѕРіСѓС‚ быть закодированы меньшим числом Р±РёС‚, Р° те, что встречаются довольно редко наоборот большим числом Р±РёС‚. Р’ итоге результирующий файл СЃ большой вероятностью будет меньшего объема, чем исходный.
Прежде чем описать алгоритм перекодировки, позволяющий наиболее часто встречающиеся символы (байты) кодировать не восемью, а гораздо меньшим числом бит, следует указать на ограничения, свойственные любому, даже самому эффективному алгоритму без потери качества.
Можно представить, что все файлы - это тексты, написанные в алфавите, состоящем из 256 букв (так оно на самом деле и есть). Рассмотрим все множество файлов, размер которых не превышает n byte (где n произвольное число). Рдопустим, что существует некий алгоритм кодирования, который любой из этих файлов сжимает с "положительной" эффективностью. Тогда множество всех их архивов содержится во множестве всех файлов, размер которых меньше n byte. Согласно нашему предположению существует взаимно-однозначное соответствие между двумя конечными множествами, число элементов в которых не совпадает. Чего быть не может. Отсюда можно сделать довольно значимые выводы: 1) не существует архиватора, который бы одинаково хорошо паковал любые файлы, 2) для любого архиватора найдутся файлы, в результате сжатия которых будут получаться архивы в лучшем случае не меньшего размера, чем исходные файлы. [4]
В
В
Алгори́тм Ле́мпеля — Зи́ва — Ве́лча — это универсальный алгоритм сжатия данных без потерь, созданный Абрахамом Лемпелем, Якобом Зивом и Терри Велчем. Он был опубликован Велчем в 1984 году, в качестве улучшенной реализации алгоритма LZ78, опубликованного Лемпелем и Зивом в 1978 году. Алгоритм разработан так, чтобы его можно было быстро реализовать, но он не обязательно оптимален, поскольку он не проводит никакого анализа входных данных.
Лемель и Зив используют следующую идею: если в тексте сообщения появляется последовательность из двух ранее уже встречавшихся символов, то эта последовательность объявляется новым символом, для нее назначается код, который при определенных условиях может быть значительно короче исходной последовательности. В дальнейшем в сжатом сообщении вместо исходной последовательности записывается назначенный код. При декодировании повторяются аналогичные действия и потому становятся известными последовательности символов для каждого кода.
Одна из алгоритмических реализаций этой идеи включает следующие операции. Первоначально каждому символу алфавита присваивается определенный код (коды - порядковые номера, начиная с 0).
 При кодировании:
1. Выбирается первый символ сообщения и заменяется на его код.
2. Выбираются следующие два символа и заменяются своими кодами. Одновременно этой комбинации двух символов присваивается свой код. Обычно это номер, равный числу уже использованных кодов. Так, если алфавит включает 8 символов, имеющих коды от 000 до 111, то первая двухсимвольная комбинация получит код 1000, следующая - код 1001 и т.д.
3. Выбираются из исходного текста очередные 2, 3,...N символов до тех пор, пока не образуется еще не встречавшаяся комбинация. Тогда этой комбинации присваивается очередной код, и поскольку совокупность А из первых N-1 символов уже встречалась, то она имеет свой код, который и записывается вместо этих N-1 символов. Каждый акт введения нового кода назовем шагом кодирования.
4. Процесс продолжается до исчерпания исходного текста.
При декодировании код первого символа, а затем второго и третьего заменяются на символы алфавита. При этом становится известным код комбинации второго и третьего символов. В следующей позиции могут быть только коды уже известных символов и их комбинаций. Процесс декодирования продолжается до исчерпания сжатого текста. [11]
В
В
 Управление правильностью (помехозащищенностью) передачи информации выполняется СЃ помощью помехоустойчивого кодирования. Различают РєРѕРґС‹, обнаруживающие ошибки, Рё корректирующие РєРѕРґС‹, которые дополнительно Рє обнаружению еще Рё исправляют ошибки. Помехозащищенность достигается СЃ помощью введения избыточности. Устранение ошибок СЃ помощью корректирующих РєРѕРґРѕРІ реализуют РІ симплексных каналах СЃРІСЏР·Рё. Р’ дуплексных каналах достаточно применения РєРѕРґРѕРІ, обнаруживающих ошибки так как сигнализация РѕР± ошибке вызывает повторную передачу РѕС‚ источника. Рто основные методы, используемые РІ информационных сетях.
 Простейшими способами обнаружения ошибок являются контрольное суммирование, проверка на нечетность. Однако они недостаточно надежны, особенно при появлении пачек ошибок. Поэтому в качестве надежных обнаруживающих кодов применяют циклические коды. Примером корректирующего кода является код Хемминга.
 В настоящее время темпы развития телекоммуникационных систем стали предпосылкой для появления принципиально новых способов кодирования сообщений. Причем одной из задач кодирования стало не только достоверная передача, но и быстрая обработка данных. Несмотря на рост мощности вычислительной техники, актуальным остается вопрос построения простых алгоритмов коррекции ошибок. Одним из малоизученных направлений в этой области можно считать использование кодов с иррациональным основанием.
Работа подавляющего числа современных систем связи основана на передаче сообщений в цифровом виде. Сбой при приеме любого элемента цифровых данных способен вызвать значительное искажение всего сообщения в целом, что, в свою очередь, может привести к полной потере информации, содержащейся в нем. Высокоэффективным средством решения данной проблемы является применение помехоустойчивого кодирования, основанного на введении искусственной избыточности в передаваемое сообщение. Отметим, что в современных информационных системах важнейшей задачей является обеспечение информационной безопасности, связанной с методами криптографии и кодирования, теоретические основы которой заложил Шеннон в своих трудах.[2]
В 50-е-70-е годы было разработано большое количество алгебраических кодов с исправлением ошибок, среди которых наиболее востребованными стали коды Боуза-Чоудхури-Хоквингема (БЧХ), Рида-Соломона (РС), Рида-Малера, Адамара, Юстенсена, Гоппы, циклические коды, сверточные коды с разными алгоритмами декодирования (последовательное декодирование, алгоритм Витерби), арифметические коды.
Однако на практике применяется относительно небольшая группа алгебраических помехоустойчивых кодов: БЧХ, Рида-Соломона и сверхточные коды. Наиболее широко применяются циклические коды с обнаружением ошибок в стандартных протоколах HDLC, Х.25/2 (LAP-B, LAP-M). Коды Рида-Соломона с исправлением ошибок находят применение в каналах радиосвязи. В каналах спутниковой связи, характеризующихся независимым характером ошибок, широко применяются сверхточные коды .
Следует отметить тот факт, что хотя существующие на данный момент системы передачи данных отвечают всем основным стандартам и требованиям, они все же не являются совершенными. Причин тому влияние помех в канале связи. Одним из средств решения подобных несоответствий в системах передачи цифровой информации, является применение помехоустойчивых кодов, лежащих в основе устройств кодирования/декодирования.
Помехоустойчивое кодирование передаваемой информации позволяет в приемной части системы обнаруживать и исправлять ошибки. Коды, применяемые при помехоустойчивом кодировании, называются корректирующими кодами. Как правило, корректирующий код может исправлять меньше ошибок, чем обнаруживать. Число ошибок, которые корректирующий код может исправить в определенном интервале последовательности двоичных символов, например, в одной кодовой комбинации, называется исправляющей способностью кода.
В разных средах характер помех разный. Ошибки могут быть одиночные, а могут возникать группами, сразу по несколько. В результате помех могут исчезать биты или наоборот — появляться лишние.
Под помехой понимается любое воздействие, накладывающееся на полезный сигнал и затрудняющее его прием.
В
В
Ранее отмечалось, что при передаче сообщений по каналам связи могут возникать помехи, способные привести к искажению принимаемых знаков. Так, например, если вы попытаетесь передать речевое сообщению в ветреную погоду человеку, находящемуся от вас на значительном расстоянии, то оно может быть сильно искажено такой помехой как ветер. Вообще, передача сообщений при наличии помех является серьезной теоретической и практической задачей. Ее значимость возрастает в связи с повсеместным внедрением компьютерных телекоммуникаций, в которых помехи неизбежны.
При работе с кодированной информацией, искажаемой помехами, можно выделить следующие основные проблемы: установления самого факта того, что произошло искажение информации; выяснения того, в каком конкретно месте передаваемого текста это произошло; исправления ошибки – хотя бы с некоторой степенью достоверности.
Помехи РІ передачи информации - свойство отнюдь РЅРµ только технических систем. Рто - вполне обычное дело РІ быту, например - разговор РїРѕ телефону, РІ трубке которого "трещит", вождение автомобиля РІ тумане Рё С‚.Рґ.
referat911.ru
В
В
В
В
Кодирование информации РІ РР’Рњ
В
В
В
Проверил:
Выполнил:
В
В
В
В
В
В
В
В
В
В
В
В
В
В
В
В
В
В
В
В
В
В
Оренбург 2009
В
Содержание
В
Ведение………………………………………………………………………………………………………..3
Программа на кодирование информации ………………………………………………………...19
Заключение …………………………………………………………………………………………………24
Литература ………………………………………………………………………………………………….25
В
В
В
В
В
В
В
В
В
В
В
В
В
В
В
В
В
В
В
В
В
В
Введение
В
  Теория кодирования близка к древнейшему искусству тайнописи – криптографии. Над разработкой различных шифров трудились многие известные ученые: философ Ф. Бэкон, математики Д.Кардано, Д. Валлис. Одновременно с развитием методов шифровки развивались приемы расшифровки, или криптоанализа.
 C появлением компьютеров возникла необходимость кодирования всех видов информации, с которыми имеет дело и отдельный человек, и человечество в целом. Но решать задачу кодирования информации человечество начало задолго до появления компьютеров.
 Грандиозные достижения человечества - письменность Рё арифметика - есть РЅРµ что РёРЅРѕРµ, как система кодирования речи Рё числовой информации. Рнформация РЅРёРєРѕРіРґР° РЅРµ появляется РІ чистом РІРёРґРµ, РѕРЅР° всегда как-то представлена, как-то закодирована.
  Рассмотрим примеры кодирования, с которыми мы сталкиваемся в нашей жизни. На Руси, где леса гасили звук, для передачи срочных сообщений использовался дым костров. Многие африканские племена до сих пор используют специальные барабаны - тамтамы, обмениваясь сообщениями со скоростью звука. До сих пор на флоте используется семафорная азбука, когда каждой букве соответствует определенное положение рук сигнальщика, подчеркиваемое флажками.  Но для того, чтобы сообщение было не только принято, но и понято, приходилось предварительно договариваться, что означают, например, два дыма, или последовательность из трех быстрых ударов, или разведенные в стороны руки.
В Ртак, РєСЂРѕРјРµ самого сообщения Рё СЃРїРѕСЃРѕР±Р° его передачи, появился еще РѕРґРёРЅ компонент - преобразование информации или, РїРѕ-научному выражаясь, кодирование. Без него никакой передачи информации РЅРµ состоится.
Вообще-то, обычная разговорная и письменная речь – это тоже своего рода кодирование. Ризучение иностранного языка мы фактически изучаем другие звуковые и буквенные коды знакомых с детства предметов и явлений.
Но вернемся к передаче срочных сообщений. По мере развития цивилизации, появлялись и новые возможности их пересылки.
Майкл Фарадей в 1831 году сделал открытие, буквально перевернувшее мир: он изобрел способ получения электрического тока. Рчуть ли не сразу же электрический ток был использован для передачи сообщений [10].
РќР° РѕСЃРЅРѕРІРµ теоретических разработок английского ученого Шиллинга, американский изобретатель РЎСЌРјСЋСЌР» РњРѕСЂР·Рµ создал Рё широко внедрил РІ практику телеграфные аппараты Рё линии СЃРІСЏР·Рё. РњРѕСЂР·Рµ пришлось создавать язык, отчасти похожий РЅР° язык африканского барабанного телеграфа. Рэлектрический ток, Рё барабан имеют весьма небогатый собственный язык. РџРѕ барабану можно либо стучать, либо нет. Рлектрический ток или идет, или его нет. Поэтому Рё РєРѕРґРёСЂРѕРІРєР°, предложенная РњРѕСЂР·Рµ использовала всего три своеобразные Р±СѓРєРІС‹: длинный сигнал (тире), короткий сигнал (точка), нет сигнала (пауза) - для разделения Р±СѓРєРІ. Так, знаменитый сигнал SOS - (Save Our Souls - спасите наши души) кодируется так:
<точка>, <точка>, <точка> - S <пауза> <тире>, <тире>, <тире> - O <пауза> <точка>, <точка>, <точка> - S
 Код Морзе полтора века служил человечеству. Его сигналы пробивались сквозь такие атмосферные помехи, которые глушили любую членораздельную речь. Рлишь в последнее время, когда появились спутники связи, он практически не применяется. К сожалению, все ранние попытки сделать машину, понимающую код Морзе, оказались безуспешными. Предложенные варианты оказывались излишне громоздкими, ненадежными и дорогими. Конечно, техника начала века была еще не столь совершенна, как сейчас, но свою роль сыграло и то, что сам по себе код Морзе был весьма сложен для распознавания его автоматами.
В Р’ середине нашего века РїРѕРґ руководством Алана Тьюринга под Лондоном появились компьютеры, обрабатывающие буквы Рё цифры, С‚.Рµ. символьную информацию. Рменно там РІ 1943 РіРѕРґСѓ был создан специализированный компьютер, расшифровывающий немецкие военные РєРѕРґС‹ (машина называлась “Колосс”). Тысячи перехваченных Р·Р° день неприятельских сообщений вводились РІ память “Колосса”, после чего РІ поисках соответствия машина перебирала сотни тысяч вариантов, расшифровывая самые сложные РєРѕРґС‹.
 Актуальность: В связи с широким распространением персональных компьютеров не только как средств обработки информации, но также как оперативных средств коммуникации (электронная, телефаксная почта), возникают проблемы, связанные с обеспечением защиты информации от преднамеренных или случайных искажений. Поэтому необходимость кодирования информации имеет большое значение в решении этой проблемы и остаётся актуальной и на сегодняшний день.
 Объект: Рнформационные процессы
 Предмет: Кодирование информации
 Цель: Разработать программно – методический комплекс “Кодирование информации”
 Задачи:
В
В
Теоретическая часть
В
В
 Рассмотрим ряд определений, использующихся в теории кодирования:
 Код – правило, описывающее соответствие знаков (или их сочетаний) одного алфавита знакам (или их сочетаниям) другого алфавита.
 Кодирование – перевод информации, представленной посредством первичного алфавита, в последовательность кодов.
 Декодирование - операция, обратная кодированию, т.е. восстановление информации в первичном алфавите по полученной последовательности кодов.
 Операции кодирования и декодирования называются обратимыми, если их последовательное применение обеспечивает возврат к исходной информации без каких-либо ее потерь.
 Примером обратимого кодирования является представление знаков в телеграфном коде при передаче сообщений и восстановление их при приеме.
 Примером необратимого кодирования является перевод текста с одного естественного языка на другой (обратный перевод побуквенно обычно не соответствует исходному тексту).
 Основными задачами кодирования являются:
1. Обеспечение экономичности передачи информации посредством устранения избыточности
2. Обеспечение надежности (помехоустойчивости) передачи информации
3. Согласование скорости передачи информации с пропускной способностью канала
 Соответствие между элементами дискретных сообщений и видом кодирования обеспечивается выбором:
1. Длительности сигналов
2. Длины кодового словаВ
3. Алфавита знаков и способа кодирования (побуквенного, блочного). Различают побуквенное и блочное кодирование.  При побуквенном кодировании каждому знаку внешнего алфавита ставиться в соответствие кодовое слово из знаков внутреннего алфавита. При блочном кодировании слову из знаков внешнего алфавита ставиться в соответствие кодовое слово из знаков внутреннего алфавита.
Чтобы код был обратимым, необходимо:
1) чтобы разным символам входного алфавита А были сопоставлены разные кодовые комбинации;
2) чтобы никакая кодовая комбинация не составляла начальной части какой-нибудь другой кодовой комбинации.
Кодирование информации (иногда говорят — шифровка) – это процесс формирования определенного представления информации. В более узком смысле под термином «кодирование» часто понимают переход от одной формы представления информации к другой, более удобной для хранения, передачи или обработки.
 Компьютер может обрабатывать только информацию, представленную в числовой форме. Вся информация (например, звуки, изображения, показания приборов и т. д.) для обработки на компьютере должна быть преобразована в числовую форму. Например, чтобы перевести в числовую форму музыкальный звук, можно через небольшие промежутки времени измерять интенсивность звука на определенных частотах, представляя результаты каждого измерения в числовой форме.
Аналогичным образом на компьютере можно обрабатывать текстовую информацию. При вводе в компьютер каждая буква кодируется определенным числом, а при выводе на внешние устройства (экран или печать) для восприятия человеком по этим числам строятся изображения букв. Соответствие между набором букв и числами называется кодировкой символов.
Как правило, РІСЃРµ числа РІ компьютере представляются СЃ помощью нулей Рё единиц (Р° РЅРµ десяти цифр, как это привычно для людей). Рными словами, компьютеры обычно работают РІ двоичной системе счисления, поскольку РїСЂРё этом устройства для РёС… обработки получаются значительно более простыми. Р’РІРѕРґ чисел РІ компьютер Рё вывод РёС… для чтения человеком может осуществляться РІ привычной десятичной форме, Р° РІСЃРµ необходимые преобразования выполняют программы, работающие РЅР° компьютере[9].
В
В
РћРґРЅР° Рё та же информация может быть представлена (закодирована) РІ нескольких формах. Двоичное кодирование – РѕРґРёРЅ РёР· распространенных СЃРїРѕСЃРѕР±РѕРІ представления информации. Р’ вычислительных машинах, РІ роботах Рё станках СЃ числовым программным управлением, как правило, РІСЃСЏ информация, СЃ которой имеет дело устройство, кодируется РІ РІРёРґРµ слов двоичного алфавита. Двоичный алфавит состоит РёР· РґРІСѓС… цифр 0 Рё 1. Цифровые РР’Рњ (персональные компьютеры относятся Рє классу цифровых) используют двоичное кодирование любой информации. Р’ РѕСЃРЅРѕРІРЅРѕРј это объясняется тем, что построить техническое устройство, безошибочно различающее 2 разных состояния сигнала, технически оказалось проще, чем то, которое Р±С‹ безошибочно различало 5 или 10 различных состояний.
К недостаткам двоичного кодирования относят очень длинные записи двоичных кодов, что затрудняет работу с ними.
Среди всего разнообразия информации, обрабатываемой РЅР° компьютере, значительную часть составляют числовая, текстовая, графическая Рё аудиоинформация. Познакомимся СЃ некоторыми способами кодирования этих типов информации РІ РР’Рњ. [ 3]
В
В
 Основная операция, производимая над отдельными символами текста - сравнение символов.
Множество символов, используемых при записи текста, называется алфавитом. Количество символов в алфавите называется его мощностью.
 При сравнении символов наиболее важными аспектами являются уникальность кода для каждого символа и длина этого кода, а сам выбор принципа кодирования практически не имеет значения.
В настоящее время, большая часть пользователей, при помощи компьютера обрабатывает текстовую информацию, которая состоит из символов: букв, цифр, знаков препинания и др. Подсчитаем, сколько всего символов и какое количество бит нам нужно: 10 цифр, 12 знаков препинания, 15 знаков арифметических действий, буквы русского и латинского алфавита, ВСЕГО: 155 символов, что соответствует 8 бит информации.
 Суть кодирования заключается в том, что каждому символу ставят в соответствие двоичный код от 00000000 до 11111111 или соответствующий ему десятичный код от 0 до 255.
 Для кодирования текстов используются различные таблицы перекодировки.
 Таблица перекодировки - таблица, содержащая упорядоченный некоторым образом перечень кодируемых символов, в соответствии с которой происходит преобразование символа в его двоичный код и обратно.
 Наиболее популярные таблицы перекодировки: ДКОР-8, ASCII, CP1251, Unicode, причем тексты, закодированные РїСЂРё помощи РѕРґРЅРѕР№ таблицы РЅРµ Р±СѓРґСѓС‚ правильно отображаться РІ РґСЂСѓРіРѕР№, поэтому важно, чтобы РїСЂРё кодировании Рё декодировании РѕРґРЅРѕРіРѕ Рё того же текста использовалась РѕРґРЅР° Рё та же таблица. ( Базовая таблица РєРѕРґРёСЂРѕРІРєРё ASCII приведена РІ таблице 1.1.). РќРµ так давно был предложен новый стандарт символьного кодирования UNICODE, РіРґРµ каждый СЃРёРјРІРѕР» кодируется уже РґРІСѓРјСЏ байтами. РћРЅ позволяет СЃРІРѕР±РѕРґРЅРѕ обмениваться сообщениями РїРѕ Рнтернету РЅР° любом языке, РЅРµ выясняя предварительно, понимает ли РґСЂСѓРіРѕР№ компьютер ваш СЂРѕРґРЅРѕР№ алфавит.
referat911.ru
Содержание
Введение
1. Представлениеинформации РІ РР’Рњ
1.1 Непрерывная и дискретная информация
1.2 Кодирование информации
1.3. Представление информации в двоичном коде
Заключение
Список использованной литературы
Введение
Теоретической основойинформатики является РіСЂСѓРїРїР° фундаментальных наук таких как: теория информации,теория алгоритмов, математическая логика, теория формальных языков Рё грамматик,комбинаторный анализ Рё С‚.Рґ. РљСЂРѕРјРµ РЅРёС… информатика включает такие разделы, какархитектура РР’Рњ, операционные системы, теория баз данных, технологияпрограммирования Рё РјРЅРѕРіРёРµ РґСЂСѓРіРёРµ. Важным РІ определении информатики как наукиявляется то, что СЃ РѕРґРЅРѕР№ стороны, РѕРЅР° занимается изучением устройств ипринципов действия средств вычислительной техники, Р° СЃ РґСЂСѓРіРѕР№ – систематизациейприемов Рё методов работы СЃ программами, управляющими этой техникой.
Рнформационная технология– это совокупность конкретных технических Рё программных средств, СЃ помощьюкоторых выполняются разнообразные операции РїРѕ обработке информации РІРѕ всехсферах нашей жизни Рё деятельности. РРЅРѕРіРґР° информационную технологию называют компьютернойтехнологией или прикладной информатикой.
/>Рнформацияаналоговая Рё цифровая. Термин «информация»восходит Рє латинскомуinformatio,– разъяснение, изложение, осведомленность.
Рнформацию можноклассифицировать разными способами, Рё разные науки это делают РїРѕ-разному.Например, РІ философии различают информацию объективную Рё субъективную.Объективная информация отражает явления РїСЂРёСЂРѕРґС‹ Рё человеческого общества.Субъективная информация создается людьми Рё отражает РёС… взгляд РЅР° объективныеявления.
Р’ информатике отдельнорассматривается аналоговая информация Рё цифровая. Рто важно, поскольку человекблагодаря СЃРІРѕРёРј органам чувств, привык иметь дело СЃ аналоговой информацией, авычислительная техника, наоборот, РІ РѕСЃРЅРѕРІРЅРѕРј, работает СЃ цифровой информацией.
1. Представление информации РІ РР’Рњ
В
1.1Непрерывная и дискретная информация
Человек воспринимаетинформацию с помощью органов чувств. Свет, звук, тепло – это энергетическиесигналы, а вкус и запах – это результат воздействия химических соединений, воснове которого тоже энергетическая природа. Человек испытывает энергетическиевоздействия непрерывно и может никогда не встретиться с одной и той же ихкомбинацией дважды. Нет двух одинаковых зеленых листьев на одном дереве и двух абсолютноодинаковых звуков – это информация аналоговая. Если же разным цветам датьномера, а разным звукам – ноты, то аналоговую информацию можно превратить вцифровую.
/>/>/>/>Чтобы сообщение было передано отисточника к получателю, необходима некоторая материальная субстанция – носительинформации. Сообщение, передаваемое с помощью носителя, назовем сигналом. Вобщем случае сигнал – это изменяющийся во времени физический процесс. Такойпроцесс может содержать различные характеристики (например, при передачеэлектрических сигналов могут изменяться напряжение и сила тока). Та изхарактеристик, которая используется для представления сообщений, называетсяпараметром сигнала.
Р’ случае РєРѕРіРґР° параметрсигнала принимает последовательное РІРѕ времени конечное число значений (РїСЂРё этомвсе РѕРЅРё РјРѕРіСѓС‚ быть пронумерованы), сигнал называется дискретным, Р° сообщение,передаваемое СЃ помощью таких сигналов -дискретным сообщением. Рнформация,передаваемая источником, РІ этом случае также называется дискретной. Если жеисточник вырабатывает непрерывное сообщение (соответственно параметр сигнала –непрерывная функция РѕС‚ времени), соответствующая информация называетсянепрерывной. Пример дискретного сообщения – процесс чтения РєРЅРёРіРё, информация вкоторой представлена текстом, С‚.Рµ. дискретной последовательностью отдельныхзначков (Р±СѓРєРІ). Примером непрерывного сообщения служит человеческая речь,передаваемая модулированной Р·РІСѓРєРѕРІРѕР№ волной; параметром сигнала РІ этом случаеявляется давление, создаваемое этой волной РІ точке нахождения приемника –человеческого СѓС…Р°.
Непрерывное сообщениеможет быть представлено непрерывной функцией, заданной на некотором отрезке [а,Ь] (см. рис. 2). Непрерывное сообщение можно преобразовать в дискретное (такаяпроцедура называется дискретизацией). Для этого из бесконечного множествазначений этой функции (параметра сигнала) выбирается их определенное число,которое приближенно может характеризовать остальные значения. Один из способовтакого выбора состоит в следующем. Область определения функции разбиваетсяточками x1, x2,… хn, наотрезки равной длины и на каждом из этих отрезков значение функции принимаетсяпостоянным и равным, например, среднему значению на этом отрезке; полученная наэтом этапе функция называется в математике ступенчатой. Следующий шаг –проецирование значений “ступенек” на ось значений функции (ось ординат).Полученная таким образом последовательность значений функции у1,у2,… уn. является дискретным представлениемнепрерывной функции, точность которого можно неограниченно улучшать путемуменьшения длин отрезков разбиения области значений аргумента.
/>
Рис. 1. Процедурадискретизации непрерывного сообщения
Ось значений функцииможно разбить на отрезки с заданным шагом и отобразить каждый из выделенныхотрезков из области определения функции в соответствующий отрезок из множествазначений (рис. 2). В итоге получим конечное множество чисел, определяемых,например, по середине или одной из границ таких отрезков.
Таким образом, любоесообщение может быть представлено как дискретное, иначе говоряпоследовательностью знаков некоторого алфавита.
Возможность дискретизациинепрерывного сигнала СЃ любой желаемой точностью (для возрастания точностидостаточно уменьшить шаг) принципиально важна СЃ точки зрения информатики.Компьютер – цифровая машина, С‚.Рµ. внутреннее представление информации РІ немдискретно. Дискретизация РІС…РѕРґРЅРѕР№ информации (если РѕРЅР° непрерывна) позволяетсделать ее РїСЂРёРіРѕРґРЅРѕР№ для компьютерной обработки. Существуют Рё другиевычислительные машины – аналоговые РР’Рњ. РћРЅРё используются обычно для решениязадач специального характера Рё широкой публике практически РЅРµ известны. Рти РР’РњРІ принципе РЅРµ нуждаются РІ дискретизации РІС…РѕРґРЅРѕР№ информации, так как еевнутреннее представление Сѓ РЅРёС… непрерывно. Р’ этом случае РІСЃРµ наоборот – есливнешняя информация дискретна, то ее “перед употреблением” необходимопреобразовать РІ непрерывную.
/>/>/>/>Единицы количества информации:/> вероятностный и объемный подходы
Определить понятие“количество информации” довольно сложно. Р’ решении этой проблемы существуют дваосновных РїРѕРґС…РѕРґР°. Рсторически РѕРЅРё возникли почти одновременно. Р’ конце 40-С…РіРѕРґРѕРІ XX века РѕРґРёРЅ РёР· основоположников кибернетики американский математик КлодШеннон развил вероятностный РїРѕРґС…РѕРґ Рє измерению количества информации, Р° работыпо созданию РР’Рњ привели Рє “объемному” РїРѕРґС…РѕРґСѓ.
Вероятностный подход
Рассмотрим в качествепримера опыт, связанный с бросанием правильной игральной.кости, имеющей Nграней (наиболее распространенным является случай шестигранной кости: N = 6).Результаты данного опыта могут быть следующие: выпадение грани с одним изследующих знаков: 1,2,… N.
Введем в рассмотрениечисленную величину, измеряющую неопределенность -энтропию (обозначим ее Н).Величины N и Н связаны между собой некоторой функциональной зависимостью:
В
H = f (N), (1.1)
а сама функция fявляется возрастающей, неотрицательной и определенной (в рассматриваемом намипримере) для N = 1, 2,… 6.
Рассмотрим процедурубросания кости более подробно:
1) готовимся броситькость; исход опыта неизвестен, т.е. имеется некоторая неопределенность;обозначим ее h2;
2) кость брошена;информация об исходе данного опыта получена; обозначим количество этойинформации через I;
3) обозначимнеопределенность данного опыта после его осуществления через h3.За количество информации, которое получено в ходе осуществления опыта, примемразность неопределенностей “до” и “после” опыта:
В
I = h2 – h3 (1.2)
Очевидно, что РІ случае,РєРѕРіРґР° получен конкретный результат, имевшаяся неопределенность снята (Рќ2= 0), Рё, таким образом, количество полученной информации совпадает спервоначальной энтропией. Рначе РіРѕРІРѕСЂСЏ, неопределенность, заключенная РІ опыте,совпадает СЃ информацией РѕР± РёСЃС…РѕРґРµ этого опыта. Заметим, что значение Рќ2могло быть Рё РЅРµ равным нулю, например, РІ случае, РєРѕРіРґР° РІ С…РѕРґРµ опыта следующейвыпала грань СЃРѕ значением, большим “З”.
Следующим важным моментомявляется определение вида функции f в формуле (1.1). Если варьироватьчисло граней N и число бросаний кости (обозначим эту величину через М),общее число исходов (векторов длины М, состоящих из знаков 1,2,… N)будет равно N в степени М:
В
X=NM. (1.3)
Так, в случае двухбросаний кости с шестью гранями имеем: Х=62=36. Фактическикаждый исход Х есть некоторая пара (X1, X2),где X1 и X2 – соответственно исходы первогои второго бросаний (общее число таких пар – X).
Ситуацию СЃ бросанием Мраз кости можно рассматривать как некую сложную систему, состоящую изнезависимых РґСЂСѓРі РѕС‚ РґСЂСѓРіР° подсистем – “однократных бросаний кости”. Рнтропиятакой системы РІ Рњ раз больше, чем энтропия РѕРґРЅРѕР№ системы (так называемый“принцип аддитивности энтропии”):
В
f(6M) = M в€™f(6)
Данную формулу можнораспространить и на случай любого N:
В
F(NM) = M в€™ f(N)(1.4)
Прологарифмируем левую иправую части формулы (1.3):
lnX=M в€™lnN,Рњ=lnX/1nM.
Подставляем полученноедля M значение в формулу (1.4):
/>
Обозначив через Кположительную константу, получим: f(X) =К ∙ lnХ, или, с учетом(1.1), H=K ∙ lnN. Обычно принимают К = 1 / ln 2.Таким образом
В
H = log2 N.(1.5)
Рто – формула Хартли.
Важным РїСЂРё введениекакой-либо величины является РІРѕРїСЂРѕСЃ Рѕ том, что принимать Р·Р° единицу ееизмерения. Очевидно, Рќ будет равно единице РїСЂРё N=2. Рначе РіРѕРІРѕСЂСЏ,РІ качестве единицы принимается количество информации, связанное СЃ проведениемопыта, состоящего РІ получении РѕРґРЅРѕРіРѕ РёР· РґРІСѓС… равновероятных РёСЃС…РѕРґРѕРІ (примеромтакого опыта может служить бросание монеты РїСЂРё котором возможны РґРІР° РёСЃС…РѕРґР°:“орел”, “решка”). Такая единица количества информации называется “бит”.
Все N исходоврассмотренного выше опыта являются равновероятными и поэтому можно считать, чтона “долю” каждого исхода приходится одна N-я часть общейнеопределенности опыта: (log2N)1N. При этомвероятность i-го исхода Рiравняется, очевидно, 1/N.
Таким образом,
/>(1.6)
Та же формула (1.6)принимается за меру энтропии в случае, когда вероятности различных исходовопыта неравно вероятны (т.е. Рi могут быть различны). Формула(1.6) называется формулой Шеннона.
В качестве примераопределим количество информации, связанное с появлением каждого символа всообщениях, записанных на русском языке. Будем считать, что русский алфавитсостоит из 33 букв и знака “пробел” для разделения слов. По формуле (1.5)
В
Н = log2 34 ≈ 5 бит.
Однако, в словах русскогоязыка (равно как и в словах других языков) различные буквы встречаютсянеодинаково часто. Ниже приведена табл. 1 вероятностей частоты употребленияразличных знаков русского алфавита, полученная на основе анализа очень большихпо объему текстов.
В двоичной системесчисления знаки 0 и 1 будем называть битами (от английского выражения BinarydigiTs – двоичные цифры). Отметим, что создатели компьютеров отдаютпредпочтение именно двоичной системе счисления потому, что в техническомустройстве наиболее просто реализовать два противоположных физическихсостояния: некоторый физический элемент, имеющий два различных состояния:намагниченность в двух противоположных направлениях; прибор, пропускающий илинет электрический ток; конденсатор, заряженный или незаряженный и т.п. Вкомпьютере бит является наименьшей возможной единицей информации. Объеминформации, записанной двоичными знаками в памяти компьютера или на внешнемносителе информации подсчитывается просто по количеству требуемых для такойзаписи двоичных символов. При этом, в частности, невозможно нецелое число битов(в отличие от вероятностного подхода).
Для удобстваиспользования введены и более крупные, чем бит, единицы количества информации.Так, двоичное слово из восьми знаков содержит один, байт информации, 1024 байтаобразуют килобайт (кбайт), 1024 килобайта – мегабайт (Мбайт), а 1024 мегабайта– гигабайт (Гбайт).
Между вероятностным иобъемным количеством информации соотношение неоднозначное. Далеко не всякийтекст, записанный двоичными символами, допускает измерение объема информации вкибернетическом смысле, но заведомо допускает его в объемном. Далее, еслинекоторое сообщение допускает измеримость количества информации в обоихсмыслах, то они не обязательно совпадают, при этом кибернетическое количествоинформации не может быть больше объемного.
В дальнейшем практическивсегда количество информации понимается в объемном смысле.
/>/>/>/>4. Рнформация: более широкий взгляд
Подробнее>>
/>/>/>/>5. Свойства информации
Свойства информации:
• запоминаемость;
• передаваемость;
• преобразуемость;
• воспроизводимость;
• стираемость.
Свойство запоминаемости –одно РёР· самых важных. Запоминаемую информацию будем называть макроскопической(имея РІРІРёРґСѓ пространственные масштабы запоминающей ячейки Рё время запоминания).Рменно СЃ макроскопической информацией РјС‹ имеем дело РІ реальной практике.
Передаваемость информациис помощью каналов связи (в том числе с помехами) хорошо исследована в рамкахтеории информации К. Шеннона. В данном случае имеется ввиду несколько инойаспект – способность информации к копированию, т.е. к тому, что она может быть“запомнена” другой макроскопической системой и при этом останется тождественнойсамой себе. Очевидно, что количество информации не должно возрастать прикопировании.
Воспроизводимостьинформации тесно связана с ее передаваемостью и не является ее независимымбазовым свойством. Если передаваемость означает, что не следует считатьсущественными пространственные отношения между частями системы, между которымипередается информация, то воспроизводимость характеризует неиссякаемость инеистощимость информации, т.е. что при копировании информация остаетсятождественной самой себе.
Фундаментальное свойствоинформации – преобразуемость. Оно означает, что информация может менять способи форму своего существования. Копируемость есть разновидность преобразованияинформации, при котором ее количество не меняется. В общем случае количествоинформации в процессах преобразования меняется, но возрастать не может.Свойство стираемости информации также не является независимым. Оно связано стаким преобразованием информации (передачей), при котором ее количествоуменьшается и становится равным нулю.
РџРѕРґРІРѕРґСЏ итог сказанному,отметим, что предпринимаются (РЅРѕ отнюдь РЅРµ завершены) попытки ученых,представляющих самые разные области знания, построить единую теорию, котораяпризвана формализовать понятие информации Рё информационного процесса, описатьпревращения информации РІ процессах самой разной РїСЂРёСЂРѕРґС‹. Движение информацииесть сущность процессов управления, которые суть проявление имманентнойактивности материи, ее способности Рє самодвижению. РЎ момента возникновениякибернетики управление рассматривается применительно РєРѕ всем формам движенияматерии, Р° РЅРµ только Рє высшим (биологической Рё социальной). РњРЅРѕРіРёРµ проявлениядвижения РІ неживых – искусственных (технических) Рё естественных (природных) –системах также обладают общими признаками управления, хотя РёС… исследуют РІС…РёРјРёРё, физике, механике РІ энергетической, Р° РЅРµ РІ информационной системепредставлений. Рнформационные аспекты РІ таких системах составляют предмет новоймеждисциплинарной науки – синергетики.
Высшей формой информации,проявляющейся РІ управлении РІ социальных системах, являются знания. Ртонаддисциплинарное понятие, широко используемое РІ педагогике Рё исследованиях поискусственному интеллекту, также претендует РЅР° роль важнейшей философскойкатегории. Р’ философском плане познание следует рассматривать как РѕРґРёРЅ изфункциональных аспектов управления. Такой РїРѕРґС…РѕРґ открывает путь Рє системномупониманию генезиса процессов познания, его РѕСЃРЅРѕРІ Рё перспектив./>/>/>
1.2Кодирование информации
Представление информации происходитв различных формах в процессе восприятия окружающей среды живыми организмами ичеловеком, в процессах обмена информацией между человеком и человеком,человеком и компьютером, компьютером и компьютером и так далее. Преобразованиеинформации из одной формы представления (знаковой системы) в другую называетсякодированием.
Средством кодированияслужит таблица соответствия знаковых систем, которая устанавливает взаимнооднозначное соответствие между знаками или группами знаков двух различныхзнаковых систем.
В процессе обменаинформацией часто приходится производить операции кодирования и декодированияинформации. При вводе знака алфавита в компьютер путем нажатия соответствующейклавиши на клавиатуре происходит кодирование знака, то есть преобразованиекомпьютерный код. При выводе знака на экран монитора или принтер происходитобратный процесс — декодирование, когда из компьютерного кода знакпреобразуется в его графическое изображение.
РЎ появлением языка, азатем Рё знаковых систем расширились возможности общения между людьми. Ртопозволило хранить идеи, полученные знания Рё любые данные, передавать ихразличными способами РЅР° расстояние Рё РІ РґСЂСѓРіРёРµ времена — РЅРµ только своимсовременникам, РЅРѕ Рё будущим поколениям. До наших дней дошли творения предков,которые СЃ помощью различных символов увековечили себя Рё СЃРІРѕРё деяния впамятниках Рё надписях. Наскальные СЂРёСЃСѓРЅРєРё (петроглифы) РґРѕ СЃРёС… РїРѕСЂ служатзагадкой для ученых. Возможно, таким СЃРїРѕСЃРѕР±РѕРј древние люди хотели вступить вконтакт СЃ нами, будущими жителями планеты Рё сообщить Рѕ событиях РёС… жизни.
Каждый народ имеет свойязык, состоящий из набора символов (букв): русский, английский, японский имногие другие. Вы уже познакомились с языком математики, физики, химии.
Представление информациис помощью какого-либо языка часто называют кодированием.
Код — набор символов (условныхобозначений) дли представления информации. Кодирование— процесспредставления информации в виде кода.
Водитель передает сигналс помощью гудка или миганием фар. Кодом является наличие или отсутствие гудка,а в случае световой сигнализации — мигание фар или его отсутствие.
Вы встречаетесь скодированием информации при переходе дороги по сигналам светофора. Кодопределяют цвета светофора — красный, желтый, зеленый.
В основу естественногоязыка, на котором общаются люди, тоже положен код. Только в этом случае онназывается алфавитом. При разговоре этот код передается звуками, при письме —буквами. Одну и ту же информацию можно представить с помощью различных кодов.Например, запись разговора можно зафиксировать посредством русских букв илиспециальных стенографических значков.
РџРѕ мере развития техникипоявлялись разные СЃРїРѕСЃРѕР±С‹ кодирования информации. Р’Рѕ второй половине XIX векаамериканский изобретатель Сэмюэль РњРѕСЂР·Рµ изобрел удивительный РєРѕРґ, который служитчеловечеству РґРѕ СЃРёС… РїРѕСЂ. Рнформация кодируется тремя «буквами»: длинный сигнал(тире), короткий сигнал (точка) Рё отсутствие сигнала (пауза) для разделениябукв. Таким образом, кодирование сводится Рє использованию набора символов,расположенных РІ строго определенном РїРѕСЂСЏРґРєРµ.
1.3Представление информации в двоичном коде
Люди всегда искалиспособы быстрого обмена сообщениями. Для этого посылали гонцов, использовалипочтовых голубей. У народов существовали различные способы оповещения онадвигающейся опасности: барабанный бой, дым костров, флаги и т. д. Однакоиспользование такого представления информации требует предварительнойдоговоренности о понимании принимаемого сообщения.
Знаменитый немецкийученый Готфрид Вильгельм Лейбниц предложил еще в XVII веке уникальную и простуюсистему представления чисел. «Вычисление с помощью двоек… является для наукиосновным и порождает новые открытия… при сведении чисел к простейшим началам,каковы 0 и 1, везде появляется чудесный порядок».
Сегодня такой СЃРїРѕСЃРѕР± представленияинформации СЃ помощью языка, содержащего всего РґРІР° символа алфавита — 0 Рё 1,широко используется РІ технических устройствах, РІ том числе РёРІ компьютере. Ртидва символа 0 Рё 1 принято называть двоичными цифрами или битами (РѕС‚ англ. bit —BinaryDigit — двоичный знак).
Р’СЃСЏ информация, которуюобрабатывает компьютер должна быть представлена двоичным РєРѕРґРѕРј СЃ помощью двухцифр 0 Рё 1. Рти РґРІР° символа принято называть двоичными цифрами или битами. Спомощью РґРІСѓС… цифр 0 Рё 1 можно закодировать любое сообщение. Рто явилосьпричиной того, что РІ компьютере обязательно должно быть организованно дваважных процесса: кодирование Рё декодирование.
Кодирование преобразование входной информации вформу, воспринимаемую компьютером, т.е. двоичный код.
Декодирование – преобразование данных из двоичногокода в форму, понятную человеку.
С точки зрениятехнической реализации использование двоичной системы счисления для кодированияинформации оказалось намного более простым, чем применение других способов.Действительно, удобно кодировать информацию в виде последовательности нулей иединиц, если представить эти значения как два возможных устойчивых состоянияэлектронного элемента:
-отсутствиеэлектрического сигнала;
— наличие электрическогосигнала.
Рти состояния легкоразличать. Недостаток двоичного кодирования — длинные РєРѕРґС‹. РќРѕ РІ технике легчеиметь дело СЃ большим количеством простых элементов, чем СЃ небольшим числомсложных.
Вам приходится постоянносталкиваться с устройством, которое может находится только в двух устойчивыхсостояниях: включено/выключено. Конечно же, это хорошо знакомый всемвыключатель. А вот придумать выключатель, который мог бы устойчиво и быстро переключатьсяв любое из 10 состояний, оказалось невозможным. В результате после ряданеудачных попыток разработчики пришли к выводу о невозможности построениякомпьютера на основе десятичной системы счисления. Рв основу представлениячисел в компьютере была положена именно двоичная система счисления.
Способы кодирования идекодирования информации в компьютере, в первую очередь, зависит от вид;,информации, а именно, что должно кодироваться: числа, текст, графическиеизображения или звук.
Представление(кодирование)чисел
Для записи информации околичестве объектов используются числа. Числа записываются с помощью набораспециальных символов.
Система счисления — способ записи чисел с помощьюнабора специальных знаков, называемых цифрами.
Системы счисленияподразделяются на позиционные и непозиционные.
В позиционных системахсчисления величина, обозначаемая цифрой в записи числа, зависит от её положенияв числе (позиции).
Цветные изображенияформируются в соответствии с двоичным кодом цвета каждой точки, хранящимся ввидеопамяти. Цветные изображения могут иметь различную глубину цвета, котораязадается количеством битов, используемым для кодирования цвета точки. Наиболеераспространенными значениями глубины цвета являются 8,16, 24 или 32 бита.
Цветное изображение наэкране монитора формируется за счет смешивания трех базовых цветов: красного,зеленого и синего. Такая цветовая модель называется RGB-моделью по первымбуквам английских названий цветов (Red, Green, Blue).
Заключение
Рнформацию можноклассифицировать разными способами, Рё разные науки это делают РїРѕ-разному.Например, РІ философии различают информацию объективную Рё субъективную.Объективная информация отражает явления РїСЂРёСЂРѕРґС‹ Рё человеческого общества.Субъективная информация создается людьми Рё отражает РёС… взгляд РЅР° объективныеявления.
Р’ информатике отдельнорассматривается аналоговая информация Рё цифровая. Рто важно, поскольку человекблагодаря СЃРІРѕРёРј органам чувств, привык иметь дело СЃ аналоговой информацией, авычислительная техника, наоборот, РІ РѕСЃРЅРѕРІРЅРѕРј, работает СЃ цифровой информацией.
Человек воспринимаетинформацию с помощью органов чувств. Свет, звук, тепло – это энергетическиесигналы, а вкус и запах – это результат воздействия химических соединений, воснове которого тоже энергетическая природа. Человек испытывает энергетическиевоздействия непрерывно и может никогда не встретиться с одной и той же их комбинациейдважды. Нет двух одинаковых зеленых листьев на одном дереве и двух абсолютноодинаковых звуков – это информация аналоговая. Если же разным цветам датьномера, а разным звукам – ноты, то аналоговую информацию можно превратить вцифровую.
/>Кодированиеинформации. Кодирование информации – это процесс формирования определенногопредставления информации.
В более узком смысле подтермином «кодирование» часто понимают переход от одной формы представленияинформации к другой, более удобной для хранения, передачи или обработки.
Компьютер можетобрабатывать только информацию, представленную в числовой форме. Вся другаяинформация (звуки, изображения, показания приборов и т. д.) для обработки накомпьютере должна быть преобразована в числовую форму. Например, чтобыперевести в числовую форму музыкальный звук, можно через небольшие промежуткивремени измерять интенсивность звука на определенных частотах, представляярезультаты каждого измерения в числовой форме. С помощью компьютерных программможно преобразовывать полученную информацию, например «наложить» друг на другазвуки от разных источников.
Аналогично на компьютереможно обрабатывать текстовую информацию. При вводе в компьютер каждая буквакодируется определенным числом, а при выводе на внешние устройства (экран илипечать) для восприятия человеком по этим числам строятся изображения букв.Соответствие между набором букв и числами называется кодировкой символов.
Как правило, РІСЃРµ числа вкомпьютере представляются СЃ помощью нулей Рё единиц (Р° РЅРµ десяти цифр, как этопривычно для людей). Рными словами, компьютеры обычно работают РІ двоичнойсистемесчисления, поскольку РїСЂРё этом устройства для РёС… обработки получаютсязначительно более простыми.
Списокиспользованной литературы
1. Агальцов Р’.Рџ., Титов Р’.Рњ. Рнформатика дляэкономистов: Учебник. – Рњ.: РР” «ФОРУМ»: РНФРА-Рњ, 2006. – 448 СЃ.
2.В Рнформатика для экономистов: Учебник / РџРѕРґ РѕР±С‰. ред.Р’.Рњ. Матюшка. – Рњ.: РНФРА-Рњ, 2007. – 880СЃ.
3.В Рнформатика. Общий РєСѓСЂСЃ: Учебник / РџРѕРґ ред. Р’.Р.Колесникова. – Рњ.: Рздательско-торговая корпорация «Дашков Рё Рљв—¦В»;Ростов РЅ/Р”: Наука-Пресс, 2008. – 400 СЃ.
4.В Рнформатика: Практикум РїРѕ технологии работы накомпьютере / РџРѕРґ ред. Рќ.Р’. Макаровой. – Рњ.: Финансы Рё статистика, 2005. – 256СЃ.
5.В Рнформатика: Учебник / РџРѕРґ РѕР±С‰. ред. Рђ.Рќ. Данчула. –М.: РР·Рґ-РІРѕ РАГС, 2004. – 528 СЃ.
6. Соболь Р‘.Р’. Рнформатика: Учебник / Соболь Р‘.Р’., ГалинА.Р‘., Панов Р®.Р’., Рашидова Р•.Р’., Садовой Рќ.Рќ. – Рњ.: Ростов РЅ/Р”: Феникс, 2005. –448 СЃ.
www.ronl.ru
Введение 3
Основные понятия 4
Представление данных РІВ РР’Рњ 5
Кодирование символьной информации 8
Кодирование числовой информации 9
Кодирование текстовой информации 9
Кодирование графической информации 10
Кодирование звуковой информации 11
Заключение 12
Список использованной литературы 13
Содержание
Кодирование графической информацииВажный этапкодирования графических изображений — эторазбиение их на дискретные элементы (дискретизация).
Основной способ представления графики для ее хранения и обработки при помощи компьютера — растровые и векторные изображенияВекторные изображенияпредставляют собой графические объекты, состоящие из элементарных геометрических фигур (обычно отрезков и дуг).
Положения этих элементарных отрезков определяются координатами точек и величинами радиусов. Для каждой линии указывают двоичные коды типов линий (сплошные, пунктирные, штрихпунктирные), толщин и цветов. Растровые изображения представляют собой совокупности точек (пикселей), полученные в результате дискретизации изображений в соответствии с матричным принципом. Матричный принцип кодирования графических изображений — разбиение на заданное количество строк и столбцов. Каждый элемент полученной сетки кодируется по выбранному правилу. Pixel (pictureelement — элемент рисунка) — минимальная единица изображения.
Его цвет и яркость можно задать независимо от остальных частей изображения. По матричному принципу строятся изображения, которые выводятся на принтер, отображаются на дисплеях, получаются при помощи сканера. Качество изображения зависит от плотности расположения пикселей, то есть чем выше разрешающая способность устройства, и чем точнее закодированы цвета каждого из них. Для черно-белых изображений код цвета каждого пикселя задаются одним битом. Для цветного рисунказадается двоичный код цвета каждой точки. Так как цвет кодируется в двоичном коде, то при использовании, например, 16-цветного рисунок, для того, чтобы кодировать каждый пиксель, потребуется 4 бита, а если есть возможность использовать
1. бит (2 байта) для кодирования цвета одного пикселя, то тогдаможно передать 65 536 различных цветов. При использовании трех байтов (24 битов) для кодирования цвета одной точки можно отразить почти
1. миллионов разных оттенков цветов. Кодирование Р·РІСѓРєРѕРІРѕР№ информацииРР· РєСѓСЂСЃР° физики известно, что звук — это колебания РІРѕР·РґСѓС…Р°. По своей РїСЂРёСЂРѕРґРµ звук — это непрерывный сигнал. РџСЂРё преобразовании Р·РІСѓРєР° в электрический сигнал (например, РїСЂРё помощи микрофона), можно увидеть плавно изменяющееся с течением времени напряжение. Для компьютерной обработки аналоговый сигнал нужно каким-то образом преобразовать в последовательность двоичных чисел, а для этого его необходимо дискретизировать и оцифровать. Можно поступить следующим образом: измерять амплитуду сигнала через равные промежутки времени и записывать полученные числовые значения в память компьютера. ЗаключениеВ представленном реферате были рассмотрены методы кодирования различных РІРёРґРѕРІ информации и алгоритмы получения РєРѕРґРѕРІ для представления данных РІВ РР’Рњ. РџРѕРґРІРѕРґСЏ итоги данной работы, можно констатировать актуальность и важность такой темы, как кодирование информации. РЎРїРёСЃРѕРє использованной литературыВернер Рњ. РћСЃРЅРѕРІС‹ кодирования: Пер.В СЃ нем. — М.: ТЕХНОСФЕРА, 2004. — 288СЃ. Гашков РЎ.В Р‘. Системы счисления и их применение. — М.: МЦНМО, 2004. Ковалгин Р®.Рђ., Вологдин Р.Р. Цифровое кодирование звуковых сигналов. — СПб: РљРћР РћРќРђ-РїСЂРёРЅС‚, 2004. — 240СЃ. Панин Р’.Р’. РћСЃРЅРѕРІС‹ теории информации: учебное РїРѕСЃРѕР±РёРµ для РІСѓР·РѕРІ. — М.: Р‘РРќРћРњ. Лаборатория знаний, 2007. — 436СЃ. Цымбал Р’. Рџ. Теория информации и кодирование. — Киев: Выща Школа, 1977. — 288 СЃ.
1. Вернер М. Основы кодирования: Пер. с нем. — М.: ТЕХНОСФЕРА, 2004. — 288с.
2. Гашков С. Б. Системы счисления и их применение. — М.: МЦНМО, 2004.
3. Ковалгин Р®.Рђ., Вологдин Р.Р. Цифровое кодирование звуковых сигналов. — СПб: РљРћР РћРќРђ-РїСЂРёРЅС‚, 2004. — 240СЃ.
4. Панин Р’.Р’. РћСЃРЅРѕРІС‹ теории информации: учебное РїРѕСЃРѕР±РёРµ для РІСѓР·РѕРІ. — М.: Р‘РРќРћРњ. Лаборатория знаний, 2007. — 436СЃ.
5. Цымбал В. П. Теория информации и кодирование. — Киев: Выща Школа, 1977. — 288 с.
список литературы
referatbooks.ru
Содержание
Введение
1. Представление информации РІ РР’Рњ
1.1 Непрерывная и дискретная информация
1.2 Кодирование информации
1.3. Представление информации в двоичном коде
Заключение
Список использованной литературы
Введение
Теоретической РѕСЃРЅРѕРІРѕР№ информатики является РіСЂСѓРїРїР° фундаментальных наук таких как: теория информации, теория алгоритмов, математическая логика, теория формальных языков Рё грамматик, комбинаторный анализ Рё С‚.Рґ. РљСЂРѕРјРµ РЅРёС… информатика включает такие разделы, как архитектура РР’Рњ, операционные системы, теория баз данных, технология программирования Рё РјРЅРѕРіРёРµ РґСЂСѓРіРёРµ. Важным РІ определении информатики как науки является то, что СЃ РѕРґРЅРѕР№ стороны, РѕРЅР° занимается изучением устройств Рё принципов действия средств вычислительной техники, Р° СЃ РґСЂСѓРіРѕР№ – систематизацией приемов Рё методов работы СЃ программами, управляющими этой техникой.
Рнформационная технология – это совокупность конкретных технических Рё программных средств, СЃ помощью которых выполняются разнообразные операции РїРѕ обработке информации РІРѕ всех сферах нашей жизни Рё деятельности. РРЅРѕРіРґР° информационную технологию называют компьютерной технологией или прикладной информатикой.
Рнформация аналоговая Рё цифровая. Термин «информация»восходит Рє латинскому informatio,– разъяснение, изложение, осведомленность.
Рнформацию можно классифицировать разными способами, Рё разные науки это делают РїРѕ-разному. Например, РІ философии различают информацию объективную Рё субъективную. Объективная информация отражает явления РїСЂРёСЂРѕРґС‹ Рё человеческого общества. Субъективная информация создается людьми Рё отражает РёС… взгляд РЅР° объективные явления.
Р’ информатике отдельно рассматривается аналоговая информация Рё цифровая. Рто важно, поскольку человек благодаря СЃРІРѕРёРј органам чувств, привык иметь дело СЃ аналоговой информацией, Р° вычислительная техника, наоборот, РІ РѕСЃРЅРѕРІРЅРѕРј, работает СЃ цифровой информацией.
1. Представление информации РІ РР’Рњ
1.1 Непрерывная и дискретная информация
Человек воспринимает информацию с помощью органов чувств. Свет, звук, тепло – это энергетические сигналы, а вкус и запах – это результат воздействия химических соединений, в основе которого тоже энергетическая природа. Человек испытывает энергетические воздействия непрерывно и может никогда не встретиться с одной и той же их комбинацией дважды. Нет двух одинаковых зеленых листьев на одном дереве и двух абсолютно одинаковых звуков – это информация аналоговая. Если же разным цветам дать номера, а разным звукам – ноты, то аналоговую информацию можно превратить в цифровую.
Чтобы сообщение было передано от источника к получателю, необходима некоторая материальная субстанция – носитель информации. Сообщение, передаваемое с помощью носителя, назовем сигналом. В общем случае сигнал – это изменяющийся во времени физический процесс. Такой процесс может содержать различные характеристики (например, при передаче электрических сигналов могут изменяться напряжение и сила тока). Та из характеристик, которая используется для представления сообщений, называется параметром сигнала.
Р’ случае РєРѕРіРґР° параметр сигнала принимает последовательное РІРѕ времени конечное число значений (РїСЂРё этом РІСЃРµ РѕРЅРё РјРѕРіСѓС‚ быть пронумерованы), сигнал называется дискретным, Р° сообщение, передаваемое СЃ помощью таких сигналов -дискретным сообщением. Рнформация, передаваемая источником, РІ этом случае также называется дискретной. Если же источник вырабатывает непрерывное сообщение (соответственно параметр сигнала – непрерывная функция РѕС‚ времени), соответствующая информация называется непрерывной. Пример дискретного сообщения – процесс чтения РєРЅРёРіРё, информация РІ которой представлена текстом, С‚.Рµ. дискретной последовательностью отдельных значков (Р±СѓРєРІ). Примером непрерывного сообщения служит человеческая речь, передаваемая модулированной Р·РІСѓРєРѕРІРѕР№ волной; параметром сигнала РІ этом случае является давление, создаваемое этой волной РІ точке нахождения приемника – человеческого СѓС…Р°.
Непрерывное сообщение может быть представлено непрерывной функцией, заданной на некотором отрезке [а, Ь] (см. рис. 2). Непрерывное сообщение можно преобразовать в дискретное (такая процедура называется дискретизацией). Для этого из бесконечного множества значений этой функции (параметра сигнала) выбирается их определенное число, которое приближенно может характеризовать остальные значения. Один из способов такого выбора состоит в следующем. Область определения функции разбивается точками x 1, x 2,… хn , на отрезки равной длины и на каждом из этих отрезков значение функции принимается постоянным и равным, например, среднему значению на этом отрезке; полученная на этом этапе функция называется в математике ступенчатой. Следующий шаг – проецирование значений “ступенек” на ось значений функции (ось ординат). Полученная таким образом последовательность значений функции у 1, у 2,… уn . является дискретным представлением непрерывной функции, точность которого можно неограниченно улучшать путем уменьшения длин отрезков разбиения области значений аргумента.
Рис. 1. Процедура дискретизации непрерывного сообщения
Ось значений функции можно разбить на отрезки с заданным шагом и отобразить каждый из выделенных отрезков из области определения функции в соответствующий отрезок из множества значений (рис. 2). В итоге получим конечное множество чисел, определяемых, например, по середине или одной из границ таких отрезков.
Таким образом, любое сообщение может быть представлено как дискретное, иначе говоря последовательностью знаков некоторого алфавита.
Возможность дискретизации непрерывного сигнала СЃ любой желаемой точностью (для возрастания точности достаточно уменьшить шаг) принципиально важна СЃ точки зрения информатики. Компьютер – цифровая машина, С‚.Рµ. внутреннее представление информации РІ нем дискретно. Дискретизация РІС…РѕРґРЅРѕР№ информации (если РѕРЅР° непрерывна) позволяет сделать ее РїСЂРёРіРѕРґРЅРѕР№ для компьютерной обработки. Существуют Рё РґСЂСѓРіРёРµ вычислительные машины – аналоговые РР’Рњ. РћРЅРё используются обычно для решения задач специального характера Рё широкой публике практически РЅРµ известны. Рти РР’Рњ РІ принципе РЅРµ нуждаются РІ дискретизации РІС…РѕРґРЅРѕР№ информации, так как ее внутреннее представление Сѓ РЅРёС… непрерывно. Р’ этом случае РІСЃРµ наоборот – если внешняя информация дискретна, то ее “перед употреблением” необходимо преобразовать РІ непрерывную.
Единицы количества информации:вероятностный и объемный подходы
Определить понятие “количество информации” довольно сложно. Р’ решении этой проблемы существуют РґРІР° основных РїРѕРґС…РѕРґР°. Рсторически РѕРЅРё возникли почти одновременно. Р’ конце 40-С… РіРѕРґРѕРІ XX века РѕРґРёРЅ РёР· основоположников кибернетики американский математик Клод Шеннон развил вероятностный РїРѕРґС…РѕРґ Рє измерению количества информации, Р° работы РїРѕ созданию РР’Рњ привели Рє “объемному” РїРѕРґС…РѕРґСѓ.
Вероятностный подход
Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной.кости, имеющей N граней (наиболее распространенным является случай шестигранной кости: N = 6). Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1,2,… N.
Введем в рассмотрение численную величину, измеряющую неопределенность -энтропию (обозначим ее Н ). Величины N и Н связаны между собой некоторой функциональной зависимостью:
H = f (N), (1.1)
а сама функция f является возрастающей, неотрицательной и определенной (в рассматриваемом нами примере) для N = 1, 2,… 6.
Рассмотрим процедуру бросания кости более подробно:
1) готовимся бросить кость; исход опыта неизвестен, т.е. имеется некоторая неопределенность; обозначим ее h2 ;
2) кость брошена; информация об исходе данного опыта получена; обозначим количество этой информации через I ;
3) обозначим неопределенность данного опыта после его осуществления через h3. За количество информации, которое получено в ходе осуществления опыта, примем разность неопределенностей “до” и “после” опыта:
I = h2 – h3 (1.2)
Очевидно, что РІ случае, РєРѕРіРґР° получен конкретный результат, имевшаяся неопределенность снята (Рќ2 = 0), Рё, таким образом, количество полученной информации совпадает СЃ первоначальной энтропией. Рначе РіРѕРІРѕСЂСЏ, неопределенность, заключенная РІ опыте, совпадает СЃ информацией РѕР± РёСЃС…РѕРґРµ этого опыта. Заметим, что значение Рќ2 могло быть Рё РЅРµ равным нулю, например, РІ случае, РєРѕРіРґР° РІ С…РѕРґРµ опыта следующей выпала грань СЃРѕ значением, большим “З”.
Следующим важным моментом является определение вида функции f в формуле (1.1). Если варьировать число граней N и число бросаний кости (обозначим эту величину через М), общее число исходов (векторов длины М, состоящих из знаков 1,2,… N) будет равно N в степени М:
X=NM. (1.3)
Так, в случае двух бросаний кости с шестью гранями имеем: Х =62 =36. Фактически каждый исход Х есть некоторая пара (X1, X2 ), где X1 и X2 – соответственно исходы первого и второго бросаний (общее число таких пар – X).
Ситуацию СЃ бросанием Рњ раз кости можно рассматривать как некую сложную систему, состоящую РёР· независимых РґСЂСѓРі РѕС‚ РґСЂСѓРіР° подсистем – “однократных бросаний кости”. Рнтропия такой системы РІ Рњ раз больше, чем энтропия РѕРґРЅРѕР№ системы (так называемый “принцип аддитивности энтропии”):
f(6M ) = M в€™ f(6)
Данную формулу можно распространить и на случай любого N:
F(NM) = M в€™ f(N) (1.4)
Прологарифмируем левую и правую части формулы (1.3):
lnX=M в€™ lnN ,Рњ =lnX/ 1nM.
Подставляем полученное для M значение в формулу (1.4):
Обозначив через К положительную константу, получим: f(X) =К ∙ lnХ, или, с учетом (1.1), H=K ∙ lnN. Обычно принимают К = 1 / ln 2. Таким образом
H = log2 N. (1.5)
Рто – формула Хартли.
Важным РїСЂРё введение какой-либо величины является РІРѕРїСЂРѕСЃ Рѕ том, что принимать Р·Р° единицу ее измерения. Очевидно, Рќ будет равно единице РїСЂРё N=2. Рначе РіРѕРІРѕСЂСЏ, РІ качестве единицы принимается количество информации, связанное СЃ проведением опыта, состоящего РІ получении РѕРґРЅРѕРіРѕ РёР· РґРІСѓС… равновероятных РёСЃС…РѕРґРѕРІ (примером такого опыта может служить бросание монеты РїСЂРё котором возможны РґРІР° РёСЃС…РѕРґР°: “орел”, “решка”). Такая единица количества информации называется “бит”.
Все N исходов рассмотренного выше опыта являются равновероятными и поэтому можно считать, что на “долю” каждого исхода приходится одна N-я часть общей неопределенности опыта: (log2N) 1N. При этом вероятность i -го исхода Рi равняется, очевидно, 1/N.
Таким образом,
(1.6)
Та же формула (1.6) принимается за меру энтропии в случае, когда вероятности различных исходов опыта неравно вероятны (т.е. Рi могут быть различны). Формула (1.6) называется формулой Шеннона.
В качестве примера определим количество информации, связанное с появлением каждого символа в сообщениях, записанных на русском языке. Будем считать, что русский алфавит состоит из 33 букв и знака “пробел” для разделения слов. По формуле (1.5)
Н = log2 34 ≈ 5 бит.
Однако, в словах русского языка (равно как и в словах других языков) различные буквы встречаются неодинаково часто. Ниже приведена табл. 1 вероятностей частоты употребления различных знаков русского алфавита, полученная на основе анализа очень больших по объему текстов.
В двоичной системе счисления знаки 0 и 1 будем называть битами (от английского выражения Binary digiTs – двоичные цифры). Отметим, что создатели компьютеров отдают предпочтение именно двоичной системе счисления потому, что в техническом устройстве наиболее просто реализовать два противоположных физических состояния: некоторый физический элемент, имеющий два различных состояния: намагниченность в двух противоположных направлениях; прибор, пропускающий или нет электрический ток; конденсатор, заряженный или незаряженный и т.п. В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом, в частности, невозможно нецелое число битов (в отличие от вероятностного подхода).
Для удобства использования введены и более крупные, чем бит, единицы количества информации. Так, двоичное слово из восьми знаков содержит один, байт информации, 1024 байта образуют килобайт (кбайт), 1024 килобайта – мегабайт (Мбайт), а 1024 мегабайта – гигабайт (Гбайт).
Между вероятностным и объемным количеством информации соотношение неоднозначное. Далеко не всякий текст, записанный двоичными символами, допускает измерение объема информации в кибернетическом смысле, но заведомо допускает его в объемном. Далее, если некоторое сообщение допускает измеримость количества информации в обоих смыслах, то они не обязательно совпадают, при этом кибернетическое количество информации не может быть больше объемного.
В дальнейшем практически всегда количество информации понимается в объемном смысле.
4. Рнформация: более широкий взгляд
Подробнее>>
5. Свойства информации
Свойства информации:
• запоминаемость;
• передаваемость;
• преобразуемость;
• воспроизводимость;
• стираемость.
Свойство запоминаемости – РѕРґРЅРѕ РёР· самых важных. Запоминаемую информацию будем называть макроскопической (имея РІРІРёРґСѓ пространственные масштабы запоминающей ячейки Рё время запоминания). Рменно СЃ макроскопической информацией РјС‹ имеем дело РІ реальной практике.
Передаваемость информации с помощью каналов связи (в том числе с помехами) хорошо исследована в рамках теории информации К. Шеннона. В данном случае имеется ввиду несколько иной аспект – способность информации к копированию, т.е. к тому, что она может быть “запомнена” другой макроскопической системой и при этом останется тождественной самой себе. Очевидно, что количество информации не должно возрастать при копировании.
Воспроизводимость информации тесно связана с ее передаваемостью и не является ее независимым базовым свойством. Если передаваемость означает, что не следует считать существенными пространственные отношения между частями системы, между которыми передается информация, то воспроизводимость характеризует неиссякаемость и неистощимость информации, т.е. что при копировании информация остается тождественной самой себе.
Фундаментальное свойство информации – преобразуемость. Оно означает, что информация может менять способ и форму своего существования. Копируемость есть разновидность преобразования информации, при котором ее количество не меняется. В общем случае количество информации в процессах преобразования меняется, но возрастать не может. Свойство стираемости информации также не является независимым. Оно связано с таким преобразованием информации (передачей), при котором ее количество уменьшается и становится равным нулю.
РџРѕРґРІРѕРґСЏ итог сказанному, отметим, что предпринимаются (РЅРѕ отнюдь РЅРµ завершены) попытки ученых, представляющих самые разные области знания, построить единую теорию, которая призвана формализовать понятие информации Рё информационного процесса, описать превращения информации РІ процессах самой разной РїСЂРёСЂРѕРґС‹. Движение информации есть сущность процессов управления, которые суть проявление имманентной активности материи, ее способности Рє самодвижению. РЎ момента возникновения кибернетики управление рассматривается применительно РєРѕ всем формам движения материи, Р° РЅРµ только Рє высшим (биологической Рё социальной). РњРЅРѕРіРёРµ проявления движения РІ неживых – искусственных (технических) Рё естественных (природных) – системах также обладают общими признаками управления, хотя РёС… исследуют РІ С…РёРјРёРё, физике, механике РІ энергетической, Р° РЅРµ РІ информационной системе представлений. Рнформационные аспекты РІ таких системах составляют предмет РЅРѕРІРѕР№ междисциплинарной науки – синергетики.
Высшей формой информации, проявляющейся РІ управлении РІ социальных системах, являются знания. Рто наддисциплинарное понятие, широко используемое РІ педагогике Рё исследованиях РїРѕ искусственному интеллекту, также претендует РЅР° роль важнейшей философской категории. Р’ философском плане познание следует рассматривать как РѕРґРёРЅ РёР· функциональных аспектов управления. Такой РїРѕРґС…РѕРґ открывает путь Рє системному пониманию генезиса процессов познания, его РѕСЃРЅРѕРІ Рё перспектив.
1.2 Кодирование информации
Представление информации происходит в различных формах в процессе восприятия окружающей среды живыми организмами и человеком, в процессах обмена информацией между человеком и человеком, человеком и компьютером, компьютером и компьютером и так далее. Преобразование информации из одной формы представления (знаковой системы) в другую называется кодированием.
Средством кодирования служит таблица соответствия знаковых систем, которая устанавливает взаимно однозначное соответствие между знаками или группами знаков двух различных знаковых систем.
В процессе обмена информацией часто приходится производить операции кодирования и декодирования информации. При вводе знака алфавита в компьютер путем нажатия соответствующей клавиши на клавиатуре происходит кодирование знака, то есть преобразование компьютерный код. При выводе знака на экран монитора или принтер происходит обратный процесс — декодирование, когда из компьютерного кода знак преобразуется в его графическое изображение.
РЎ появлением языка, Р° затем Рё знаковых систем расширились возможности общения между людьми. Рто позволило хранить идеи, полученные знания Рё любые данные, передавать РёС… различными способами РЅР° расстояние Рё РІ РґСЂСѓРіРёРµ времена — РЅРµ только СЃРІРѕРёРј современникам, РЅРѕ Рё будущим поколениям. До наших дней дошли творения предков, которые СЃ помощью различных символов увековечили себя Рё СЃРІРѕРё деяния РІ памятниках Рё надписях. Наскальные СЂРёСЃСѓРЅРєРё (петроглифы) РґРѕ СЃРёС… РїРѕСЂ служат загадкой для ученых. Возможно, таким СЃРїРѕСЃРѕР±РѕРј древние люди хотели вступить РІ контакт СЃ нами, будущими жителями планеты Рё сообщить Рѕ событиях РёС… жизни.
Каждый народ имеет свой язык, состоящий из набора символов (букв): русский, английский, японский и многие другие. Вы уже познакомились с языком математики, физики, химии.
Представление информации с помощью какого-либо языка часто называют кодированием.
Код — набор символов (условных обозначений) дли представления информации. Кодирование — процесс представления информации в виде кода.
Водитель передает сигнал с помощью гудка или миганием фар. Кодом является наличие или отсутствие гудка, а в случае световой сигнализации — мигание фар или его отсутствие.
Вы встречаетесь с кодированием информации при переходе дороги по сигналам светофора. Код определяют цвета светофора — красный, желтый, зеленый.
В основу естественного языка, на котором общаются люди, тоже положен код. Только в этом случае он называется алфавитом. При разговоре этот код передается звуками, при письме — буквами. Одну и ту же информацию можно представить с помощью различных кодов. Например, запись разговора можно зафиксировать посредством русских букв или специальных стенографических значков.
РџРѕ мере развития техники появлялись разные СЃРїРѕСЃРѕР±С‹ кодирования информации. Р’Рѕ второй половине XIX века американский изобретатель Сэмюэль РњРѕСЂР·Рµ изобрел удивительный РєРѕРґ, который служит человечеству РґРѕ СЃРёС… РїРѕСЂ. Рнформация кодируется тремя «буквами»: длинный сигнал (тире), короткий сигнал (точка) Рё отсутствие сигнала (пауза) для разделения Р±СѓРєРІ. Таким образом, кодирование сводится Рє использованию набора символов, расположенных РІ строго определенном РїРѕСЂСЏРґРєРµ.
1.3 Представление информации в двоичном коде
Люди всегда искали способы быстрого обмена сообщениями. Для этого посылали гонцов, использовали почтовых голубей. У народов существовали различные способы оповещения о надвигающейся опасности: барабанный бой, дым костров, флаги и т. д. Однако использование такого представления информации требует предварительной договоренности о понимании принимаемого сообщения.
Знаменитый немецкий ученый Готфрид Вильгельм Лейбниц предложил еще в XVII веке уникальную и простую систему представления чисел. «Вычисление с помощью двоек… является для науки основным и порождает новые открытия… при сведении чисел к простейшим началам, каковы 0 и 1, везде появляется чудесный порядок».
Сегодня такой СЃРїРѕСЃРѕР± представления информации СЃ помощью языка, содержащего всего РґРІР° символа алфавита — 0 Рё 1, широко используется РІ технических устройствах, РІ том числе РёРІ компьютере. Рти РґРІР° символа 0 Рё 1 принято называть двоичными цифрами или битами (РѕС‚ англ. bit — BinaryDigit — двоичный знак).
Р’СЃСЏ информация, которую обрабатывает компьютер должна быть представлена двоичным РєРѕРґРѕРј СЃ помощью РґРІСѓС… цифр 0 Рё 1. Рти РґРІР° символа принято называть двоичными цифрами или битами. РЎ помощью РґРІСѓС… цифр 0 Рё 1 можно закодировать любое сообщение. Рто явилось причиной того, что РІ компьютере обязательно должно быть организованно РґРІР° важных процесса: кодирование Рё декодирование.
Кодирование преобразование входной информации в форму, воспринимаемую компьютером, т.е. двоичный код.
Декодирование – преобразование данных из двоичного кода в форму, понятную человеку.
С точки зрения технической реализации использование двоичной системы счисления для кодирования информации оказалось намного более простым, чем применение других способов. Действительно, удобно кодировать информацию в виде последовательности нулей и единиц, если представить эти значения как два возможных устойчивых состояния электронного элемента:
-отсутствие электрического сигнала;
— наличие электрического сигнала.
Рти состояния легко различать. Недостаток двоичного кодирования — длинные РєРѕРґС‹. РќРѕ РІ технике легче иметь дело СЃ большим количеством простых элементов, чем СЃ небольшим числом сложных.
Вам приходится постоянно сталкиваться с устройством, которое может находится только в двух устойчивых состояниях: включено/выключено. Конечно же, это хорошо знакомый всем выключатель. А вот придумать выключатель, который мог бы устойчиво и быстро переключаться в любое из 10 состояний, оказалось невозможным. В результате после ряда неудачных попыток разработчики пришли к выводу о невозможности построения компьютера на основе десятичной системы счисления. Рв основу представления чисел в компьютере была положена именно двоичная система счисления.
Способы кодирования и декодирования информации в компьютере, в первую очередь, зависит от вид;, информации, а именно, что должно кодироваться: числа, текст, графические изображения или звук.
Представление(кодирование) чисел
Для записи информации о количестве объектов используются числа. Числа записываются с помощью набора специальных символов.
Система счисления — способ записи чисел с помощью набора специальных знаков, называемых цифрами.
Системы счисления подразделяются на позиционные и непозиционные.
В позиционных системах счисления величина, обозначаемая цифрой в записи числа, зависит от её положения в числе (позиции).
Цветные изображения формируются в соответствии с двоичным кодом цвета каждой точки, хранящимся в видеопамяти. Цветные изображения могут иметь различную глубину цвета, которая задается количеством битов, используемым для кодирования цвета точки. Наиболее распространенными значениями глубины цвета являются 8,16, 24 или 32 бита.
Цветное изображение на экране монитора формируется за счет смешивания трех базовых цветов: красного, зеленого и синего. Такая цветовая модель называется RGB-моделью по первым буквам английских названий цветов (Red, Green, Blue).
Заключение
Рнформацию можно классифицировать разными способами, Рё разные науки это делают РїРѕ-разному. Например, РІ философии различают информацию объективную Рё субъективную. Объективная информация отражает явления РїСЂРёСЂРѕРґС‹ Рё человеческого общества. Субъективная информация создается людьми Рё отражает РёС… взгляд РЅР° объективные явления.
Р’ информатике отдельно рассматривается аналоговая информация Рё цифровая. Рто важно, поскольку человек благодаря СЃРІРѕРёРј органам чувств, привык иметь дело СЃ аналоговой информацией, Р° вычислительная техника, наоборот, РІ РѕСЃРЅРѕРІРЅРѕРј, работает СЃ цифровой информацией.
Человек воспринимает информацию с помощью органов чувств. Свет, звук, тепло – это энергетические сигналы, а вкус и запах – это результат воздействия химических соединений, в основе которого тоже энергетическая природа. Человек испытывает энергетические воздействия непрерывно и может никогда не встретиться с одной и той же их комбинацией дважды. Нет двух одинаковых зеленых листьев на одном дереве и двух абсолютно одинаковых звуков – это информация аналоговая. Если же разным цветам дать номера, а разным звукам – ноты, то аналоговую информацию можно превратить в цифровую.
Кодирование информации. Кодирование информации – это процесс формирования определенного представления информации.
В более узком смысле под термином «кодирование» часто понимают переход от одной формы представления информации к другой, более удобной для хранения, передачи или обработки.
Компьютер может обрабатывать только информацию, представленную в числовой форме. Вся другая информация (звуки, изображения, показания приборов и т. д.) для обработки на компьютере должна быть преобразована в числовую форму. Например, чтобы перевести в числовую форму музыкальный звук, можно через небольшие промежутки времени измерять интенсивность звука на определенных частотах, представляя результаты каждого измерения в числовой форме. С помощью компьютерных программ можно преобразовывать полученную информацию, например «наложить» друг на друга звуки от разных источников.
Аналогично на компьютере можно обрабатывать текстовую информацию. При вводе в компьютер каждая буква кодируется определенным числом, а при выводе на внешние устройства (экран или печать) для восприятия человеком по этим числам строятся изображения букв. Соответствие между набором букв и числами называется кодировкой символов.
Как правило, РІСЃРµ числа РІ компьютере представляются СЃ помощью нулей Рё единиц (Р° РЅРµ десяти цифр, как это привычно для людей). Рными словами, компьютеры обычно работают РІ двоичнойсистеме счисления, поскольку РїСЂРё этом устройства для РёС… обработки получаются значительно более простыми.
Список использованной литературы
1. Агальцов Р’.Рџ., Титов Р’.Рњ. Рнформатика для экономистов: Учебник. – Рњ.: РР” «ФОРУМ»: РНФРА-Рњ, 2006. – 448 СЃ.
2. Рнформатика для экономистов: Учебник / РџРѕРґ РѕР±С‰. ред. Р’.Рњ. Матюшка. – Рњ.: РНФРА-Рњ, 2007. – 880СЃ.
3. Рнформатика. Общий РєСѓСЂСЃ: Учебник / РџРѕРґ ред. Р’.Р. Колесникова. – Рњ.: Рздательско-торговая корпорация «Дашков Рё Рљв—¦ В»; Ростов РЅ/Р”: Наука-Пресс, 2008. – 400 СЃ.
4. Рнформатика: Практикум РїРѕ технологии работы РЅР° компьютере / РџРѕРґ ред. Рќ.Р’. Макаровой. – Рњ.: Финансы Рё статистика, 2005. – 256 СЃ.
5. Рнформатика: Учебник / РџРѕРґ РѕР±С‰. ред. Рђ.Рќ. Данчула. – Рњ.: РР·Рґ-РІРѕ РАГС, 2004. – 528 СЃ.
6. Соболь Р‘.Р’. Рнформатика: Учебник / Соболь Р‘.Р’., Галин Рђ.Р‘., Панов Р®.Р’., Рашидова Р•.Р’., Садовой Рќ.Рќ. – Рњ.: Ростов РЅ/Р”: Феникс, 2005. – 448 СЃ.
www.ronl.ru