СОДЕРЖАНИЕ
НЕ ВЕЩЕСТВО И НЕ ЭНЕРГИЯ... 3
СХЕМА ПЕРЕДАЧИ ИНФОРМАЦИИ 7
ЦЕННОСТЬ ИНФОРМАЦИИ 8
ЗАКЛЮЧЕНИЕ 9
Список использованной литературы 11
Информация - сведения об окружающем нас мире, о протекающих в нем процессах, которые воспринимают живые организмы, управляющие машины и другие информационные системы. |
НЕ ВЕЩЕСТВО И НЕ ЭНЕРГИЯ...
Слово «информация» латинское. За долгую жизнь его значение претерпевало эволюции, то расширяя, то предельно сужая свои границы. Вначале под словом «информация» подразумевали: «представление», «понятие», затем-«сведения», «передача сообщений».
В последние годы ученые решили, что обычное (всеми принятое) значение слова «информация» слишком эластично, расплывчато, и дали ему такое значение: «мера определенности в сообщении».
Теорию информации вызвали к жизни потребности практики. Ее возникновение связывают с работой Клода Шеннона «Математическая теория связи», изданной в 1946г. Основы теории информации опираются на результаты, полученные многими учеными. Ко второй половине XX века земной шар гудел от передающейся информации, бегущей по телефонным и телеграфным кабелям и радиоканалам. Позже появились электронные вычислительные машины - переработчики информации. А для того времени основной задачей теории информации являлось, прежде всего, повышение эффективности функционирования систем связи. Сложность при проектировании и эксплуатации средств, систем и каналов связи в том, что конструктору и инженеру недостаточно решить задачу с физических и энергетических позиций. С этих точек зрения система может быть самой совершенной и экономичной. Но важно еще при создании передающих систем обратить внимание на то, какое количество информации пройдет через эту передающую систему. Ведь информацию можно измерить количественно, подсчитать. И поступают при подобных вычислениях самым обычным путем: абстрагируются от смысла сообщения, как отрешаются от конкретности в привычных всем нам арифметических действиях (как от сложения двух яблок и трех яблок переходят к сложению чисел вообще: 2+3).
Ученые заявили, что они «полностью игнорировали человеческую оценку информации». Последовательному ряду из 100 букв, например, они приписывают определенное значение информации, не обращая внимания, имеет ли эта информация смысл и имеет ли, в свою очередь, смысл практическое применение. Количественный подход - наиболее разработанная ветвь теории информации. В соответствии с этим определением совокупность 100 букв-фраза из 100 букв из газеты, пьесы Шекспира или теоремы Эйнштейна - имеет в точности одинаковое количество информации.
Такое определение количества информации является в высшей степени полезным и практичным. Оно в точности соответствует задаче инженера связи, который должен передать всю информацию, содержащуюся в поданной телеграмме, вне зависимости от ценности этой информации для адресата. Канал связи бездушен. Передающей системе важно одно: передать нужное количество информации за определенное время. Как же вычислить количество информации в конкретном сообщении?
Оценка количества информации основывается на законах теории вероятностей, точнее, определяется через вероятности событий. Это и понятно. Сообщение имеет ценность, несет информацию только тогда, когда мы узнаем из него об исходе события, имеющего случайный характер, когда оно в какой-то мере неожиданно. Ведь сообщение об уже известном никакой информации не содержит. Т.е. если вам, допустим, кто-то позвонит по телефону и скажет: «Днем бывает светло, а ночью темно», то такое сообщение вас удивит лишь нелепостью высказывания очевидного и всем известного, а не новостью, которую оно содержит.
Иное дело, например, результат забега на скачках. Кто придет первым? Исход здесь трудно предсказать.
Чем больше интересующее нас событие имеет случайных исходов, тем ценнее сообщение о его результате, тем больше информации.
Сообщение о событии, у которого только два одинаково возможных исхода, содержит одну единицу информации, называемую битом. Выбор единицы информации не случаен. Он связан с наиболее распространенным двоичным способом ее кодирования при передаче и обработке.
Попытаемся хотя бы в самом упрощенном виде представить себе тот общий принцип количественной оценки информации, который является краеугольным камнем всей теории информации.
Мы уже знаем, что количество информации зависит от вероятностей тех или иных исходов события. Если событие, как говорят ученые, имеет два равновероятных исхода, это означает, что вероятность каждого исхода равна 1/2. Такова вероятность выпадения «орла» или «решки» при бросании монеты. Если событие имеет три равновероятных исхода, то вероятность каждого равна 1/3. Заметьте, сумма вероятностей всех исходов всегда равна единице: ведь какой-нибудь из всех возможных исходов обязательно наступит.
Событие, как вы сами понимаете, может иметь и неравновероятные исходы. Так, при футбольном матче между сильной и слабой командами вероятность победы сильной команды велика - например, 4/5. Вероятность ничьей намного меньше, например 3/20. Вероятность же поражения совсем мала.
Выходит, что количество информации - это мера уменьшения неопределенности некоторой ситуации. Различные количества информации передаются по каналам связи, и количество проходящей через канал информации не может быть больше его пропускной способности. А ее определяют по тому, какое количество информации проходит здесь за единицу времени.
Один из героев романа Жюля Верна «Таинственный остров», журналист Гедеон Спиллет, передавал по телефону главу из Библии, чтобы его конкуренты не могли воспользоваться телефонной связью. В этом случае канал был загружен полностью, а количество информации было равно нулю, ибо абоненту передавались известные для него сведения. Значит, канал работал вхолостую, пропустив строго определенное количество импульсов, ничем их не нагрузив.
А между тем, чем больше информации несет каждый из определенного числа импульсов, тем полнее используется пропускная способность канала. Поэтому нужно разумно кодировать информацию, найти экономный, скупой язык для передачи сообщений.
Информацию «просеивают» самым тщательным образом. В телеграфе часто встречающиеся буквы, сочетания букв, даже целые фразы изображают более коротким набором нулей и единиц, а те, что встречаются реже,- более длинным. В случае, когда уменьшают длину кодового слова для часто встречающихся символов и увеличивают для редко встречающихся, говорят об эффективном кодировании информации.
Но на практике довольно часто случается, что код, возникший в результате самого тщательного «просеивания», код удобный и экономный, может исказить сообщение из-за помех, которые всегда, к сожалению, бывают в каналах связи: искажения звука в телефоне, атмосферные помехи в радио, искажение или затемнение изображения в телевидении, ошибки при передаче в телеграфе. Эти помехи, или, как их называют специалисты, шумы, обрушиваются на информацию. А от этого бывают самые невероятные и, естественно, неприятные неожиданности.
Поэтому для повышения надежности в передаче и обработке информации приходится вводить лишние символы - своеобразную защиту от искажений. Они - эти лишние символы - не несут действительного содержания в сообщении, они избыточны. С точки зрения теории информации все то, что делает язык красочным, гибким, богатым оттенками, многоплановым, многозначным, - избыточность. Как избыточно с таких позиций письмо Татьяны к Онегину! Сколько в нем информационных излишеств для краткого и всем понятного сообщения « Я вас люблю»! И как информационно точны рисованные обозначения, понятные всем и каждому, кто входит сегодня в метро, где вместо слов и фраз объявлений висят лаконичные символьные знаки, указывающие: «Вход», «Выход».
В этой связи полезно вспомнить анекдот, рассказанный в свое время знаменитым американским ученым Бенджаменом Франклином, о шляпочнике, пригласившем своих друзей для обсуждения проекта вывески.
Предполагалось нарисовать на вывеске шляпу и написать: «Джон Томпсон, шляпочник, делает и продает шляпы за наличные деньги».
Один из друзей заметил, что слова «за наличные деньги» являются излишними - такое напоминание будет оскорбительным для покупателя. Другой нашел также лишним слово «продает», так как само собой понятно, что шляпочник продает шляпы, а не раздает их даром. Третьему показалось, что слова «шляпочник» и «делает шляпы» представляют собой ненужную тавтологию, и последние слова были выкинуты. Четвертый предложил выкинуть и слово «шляпочник» - нарисованная шляпа ясно говорит, кто такой Джон Томпсон. Наконец, пятый уверял, что для покупателя совершенно безразлично, будет ли шляпочник называться Джоном Томпсоном или иначе, и предложил обойтись без этого указания.
Таким образом, в конце концов на вывеске не осталось ничего, кроме шляпы.
Конечно, если бы люди пользовались только такого рода кодами, без избыточности в сообщениях, то все «информационные формы» - книги, доклады, статьи - были бы предельно краткими. Но проиграли бы в доходчивости и красоте.
СХЕМА ПЕРЕДАЧИ ИНФОРМАЦИИ
Всякое событие, всякое явление служит источником информации.
Всякое событие, всякое явление может быть выражено по-разному, разным способом, разным алфавитом. Чтобы информацию более точно и экономно передать по каналам связи, ее надо соответственно закодировать.
Информация не может существовать без материального носителя, без передачи энергии. Закодированное сообщение приобретает вид сигналов-носителей информации. Они-то и идут по каналу. Выйдя на приемник, сигналы должны обрести вновь общепонятный вид.
С этой целью сигналы пробегают декодирующее устройство, приобретая форму, удобную для абонента. Система связи сработала, цель достигнута. Когда говорят о каналах связи, о системах связи, чаще всего для примера берут телеграф. Но каналы связи - понятие очень широкое, включающее множество всяких систем, самых разных.
Чтобы ясен был многоликий характер понятия «канал связи», достаточно привести несколько примеров.
При телефонной передаче источник сообщения - говорящий. Кодирующее устройство, изменяющее звуки слов в электрические импульсы, - это микрофон. Канал, по которому передается информация - телефонный провод. Та часть трубки, которую мы подносим к уху, выполняет роль декодирующего устройства. Здесь электрические сигналы снова преобразуются в звуки. И наконец, информация поступает в «принимающее устройство»-ухо человека на другом конце провода. А вот каналсвязи совершенно другой природы - живой нерв. Здесь все сообщения передаются нервным импульсом. Но в технических каналах связи направление передачи информации может меняться, а по нервной системе передача идет в одном направлении.
Еще один пример - вычислительная машина. И здесь те же характерные черты. Отдельные системы вычислительной машины передают одна другой информацию с помощью сигналов. Ведь вычислительная машина-автоматическое устройство для обработки информации, как станок - устройство для обработки металла. Машина не создает из «ничего» информацию, она преобразует только то, что в нее введено.
канал
Общая схема передачи информации.
ЦЕННОСТЬ ИНФОРМАЦИИ
Мы уже знаем, что количественный метод - одно из направлений в теории информации - наиболее распространенный и наиболее разработанный. Существуют и другие методы. Они, в противоположность количественному, стараются ухватить смысл информации, ее ценность, ее качество.
Количество информации в двух сообщениях может быть совершенно одинаковым, а смысл совершенно разным. Два слова, например «Мир» и «Рим», содержат одинаковое количество информации, состоят из одних и тех же букв, но смысл слов различен.
В повседневной жизни мы, как правило, оцениваем полученные сведения со смысловой стороны: новые сведения воспринимаем не как определенное количество информации, а как новое содержание. Можно ли вычислить смысл информации, подсчитать его в сообщении? Да, это пробует делать семантическая теория информации. Вот еще один пример и еще одно направление (прагматическое - деловое) в этой науке.
Пассажиры едут в автобусе. Водитель объявляет остановку. Кое-кто выходит, остальные не обращают внимания на слова водителя - переданную им информацию. Почему? Потому что информация здесь имеет разную ценность для получателей, в роли которых в этом примере выступают пассажиры. Вышел тот, для кого информация была ценна. Значит, ценность можно определить как свойство информации, влияющей на поведение ее получателя.
ЗАКЛЮЧЕНИЕ
В теории информации в наше время разрабатывают много систем, методов, подходов, идей. Однако ученые считают, что к современным направлениям в теории информации добавятся новые, появятся новые идеи. В качестве доказательства правильности своих предположений они приводят «живой», развивающийся характер науки, указывают на то, что теория информации удивительно быстро и прочно внедряется в самые различные области человеческого знания. Теория информации проникла в физику, химию, биологию, медицину, философию, лингвистику, педагогику, экономику, логику, технические науки, эстетику. По признанию самих специалистов, учение об информации, возникшее в силу потребностей теории связи и кибернетики, перешагнуло их рамки. И теперь, пожалуй, мы вправе говорить об информации как научном понятии, дающем в руки исследователей теоретико - информационный метод, с помощью которого можно проникнуть во многие науки о живой и неживой природе, об обществе, что позволит не только взглянуть на все проблемы с новой стороны, но и увидеть еще неувиденное. Вот почему термин «информация» получил в наше время широкое распространение, став частью таких понятий, как информационная система, информационная культура, даже информационная этика.
Многие научные дисциплины используют теорию информации, чтобы подчеркнуть новое направление в старых науках. Так возникли, например, информационная география, информационная экономика, информационное право.
Но чрезвычайно большое значение приобрел термин «информация» в связи с развитием новейшей компьютерной техники, автоматизацией умственного труда, развитием новых средств связи и обработки информации и особенно с возникновением информатики.
Одной из важнейших задач теории информации является изучение природы и свойств информации, создание методов ее обработки, в частности преобразования самой различной современной информации в программы для ЭВМ, с помощью которых происходит автоматизация умственной работы-своеобразное усиление интеллекта, а значит, развитие интеллектуальных ресурсов общества.
Список использованной литературы
Пекелис В. Кибернетика от А до Я. М.,1990.
Дмитриев В. Прикладная теория информации. М., 1989.
referat.store
НЕ ВЕЩЕСТВО И НЕ ЭНЕРГИЯ... 3
СХЕМА ПЕРЕДАЧИ ИНФОРМАЦИИ 7
ЦЕННОСТЬ ИНФОРМАЦИИ 8
ЗАКЛЮЧЕНИЕ 9
Список использованной литературы 11
Информация - сведения об окружающем нас мире, о протекающих в нем процессах, которые воспринимают живые организмы, управляющие машины и другие информационные системы. |
Слово «информация» латинское. За долгую жизнь его значение претерпевало эволюции, то расширяя, то предельно сужая свои границы. Вначале под словом «информация» подразумевали: «представление», «понятие», затем-«сведения», «передача сообщений».
В последние годы ученые решили, что обычное (всеми принятое) значение слова «информация» слишком эластично, расплывчато, и дали ему такое значение: «мера определенности в сообщении».
Теорию информации вызвали к жизни потребности практики. Ее возникновение связывают с работой Клода Шеннона «Математическая теория связи», изданной в 1946г. Основы теории информации опираются на результаты, полученные многими учеными. Ко второй половине XX века земной шар гудел от передающейся информации, бегущей по телефонным и телеграфным кабелям и радиоканалам. Позже появились электронные вычислительные машины - переработчики информации. А для того времени основной задачей теории информации являлось, прежде всего, повышение эффективности функционирования систем связи. Сложность при проектировании и эксплуатации средств, систем и каналов связи в том, что конструктору и инженеру недостаточно решить задачу с физических и энергетических позиций. С этих точек зрения система может быть самой совершенной и экономичной. Но важно еще при создании передающих систем обратить внимание на то, какое количество информации пройдет через эту передающую систему. Ведь информацию можно измерить количественно, подсчитать. И поступают при подобных вычислениях самым обычным путем: абстрагируются от смысла сообщения, как отрешаются от конкретности в привычных всем нам арифметических действиях (как от сложения двух яблок и трех яблок переходят к сложению чисел вообще: 2+3).
Ученые заявили, что они «полностью игнорировали человеческую оценку информации». Последовательному ряду из 100 букв, например, они приписывают определенное значение информации, не обращая внимания, имеет ли эта информация смысл и имеет ли, в свою очередь, смысл практическое применение. Количественный подход - наиболее разработанная ветвь теории информации. В соответствии с этим определением совокупность 100 букв-фраза из 100 букв из газеты, пьесы Шекспира или теоремы Эйнштейна - имеет в точности одинаковое количество информации.
Такое определение количества информации является в высшей степени полезным и практичным. Оно в точности соответствует задаче инженера связи, который должен передать всю информацию, содержащуюся в поданной телеграмме, вне зависимости от ценности этой информации для адресата. Канал связи бездушен. Передающей системе важно одно: передать нужное количество информации за определенное время. Как же вычислить количество информации в конкретном сообщении?
Оценка количества информации основывается на законах теории вероятностей, точнее, определяется через вероятности событий. Это и понятно. Сообщение имеет ценность, несет информацию только тогда, когда мы узнаем из него об исходе события, имеющего случайный характер, когда оно в какой-то мере неожиданно. Ведь сообщение об уже известном никакой информации не содержит. Т.е. если вам, допустим, кто-то позвонит по телефону и скажет: «Днем бывает светло, а ночью темно», то такое сообщение вас удивит лишь нелепостью высказывания очевидного и всем известного, а не новостью, которую оно содержит.
Иное дело, например, результат забега на скачках. Кто придет первым? Исход здесь трудно предсказать.
Чем больше интересующее нас событие имеет случайных исходов, тем ценнее сообщение о его результате, тем больше информации.
Сообщение о событии, у которого только два одинаково возможных исхода, содержит одну единицу информации, называемую битом. Выбор единицы информации не случаен. Он связан с наиболее распространенным двоичным способом ее кодирования при передаче и обработке.
Попытаемся хотя бы в самом упрощенном виде представить себе тот общий принцип количественной оценки информации, который является краеугольным камнем всей теории информации.
Мы уже знаем, что количество информации зависит от вероятностей тех или иных исходов события. Если событие, как говорят ученые, имеет два равновероятных исхода, это означает, что вероятность каждого исхода равна 1/2. Такова вероятность выпадения «орла» или «решки» при бросании монеты. Если событие имеет три равновероятных исхода, то вероятность каждого равна 1/3. Заметьте, сумма вероятностей всех исходов всегда равна единице: ведь какой-нибудь из всех возможных исходов обязательно наступит.
Событие, как вы сами понимаете, может иметь и неравновероятные исходы. Так, при футбольном матче между сильной и слабой командами вероятность победы сильной команды велика - например, 4/5. Вероятность ничьей намного меньше, например 3/20. Вероятность же поражения совсем мала.
Выходит, что количество информации - это мера уменьшения неопределенности некоторой ситуации. Различные количества информации передаются по каналам связи, и количество проходящей через канал информации не может быть больше его пропускной способности. А ее определяют по тому, какое количество информации проходит здесь за единицу времени.
Один из героев романа Жюля Верна «Таинственный остров», журналист Гедеон Спиллет, передавал по телефону главу из Библии, чтобы его конкуренты не могли воспользоваться телефонной связью. В этом случае канал был загружен полностью, а количество информации было равно нулю, ибо абоненту передавались известные для него сведения. Значит, канал работал вхолостую, пропустив строго определенное количество импульсов, ничем их не нагрузив.
А между тем, чем больше информации несет каждый из определенного числа импульсов, тем полнее используется пропускная способность канала. Поэтому нужно разумно кодировать информацию, найти экономный, скупой язык для передачи сообщений.
Информацию «просеивают» самым тщательным образом. В телеграфе часто встречающиеся буквы, сочетания букв, даже целые фразы изображают более коротким набором нулей и единиц, а те, что встречаются реже,- более длинным. В случае, когда уменьшают длину кодового слова для часто встречающихся символов и увеличивают для редко встречающихся, говорят об эффективном кодировании информации.
Но на практике довольно часто случается, что код, возникший в результате самого тщательного «просеивания», код удобный и экономный, может исказить сообщение из-за помех, которые всегда, к сожалению, бывают в каналах связи: искажения звука в телефоне, атмосферные помехи в радио, искажение или затемнение изображения в телевидении, ошибки при передаче в телеграфе. Эти помехи, или, как их называют специалисты, шумы, обрушиваются на информацию. А от этого бывают самые невероятные и, естественно, неприятные неожиданности.
Поэтому для повышения надежности в передаче и обработке информации приходится вводить лишние символы - своеобразную защиту от искажений. Они - эти лишние символы - не несут действительного содержания в сообщении, они избыточны. С точки зрения теории информации все то, что делает язык красочным, гибким, богатым оттенками, многоплановым, многозначным, - избыточность. Как избыточно с таких позиций письмо Татьяны к Онегину! Сколько в нем информационных излишеств для краткого и всем понятного сообщения « Я вас люблю»! И как информационно точны рисованные обозначения, понятные всем и каждому, кто входит сегодня в метро, где вместо слов и фраз объявлений висят лаконичные символьные знаки, указывающие: «Вход», «Выход».
В этой связи полезно вспомнить анекдот, рассказанный в свое время знаменитым американским ученым Бенджаменом Франклином, о шляпочнике, пригласившем своих друзей для обсуждения проекта вывески.
Предполагалось нарисовать на вывеске шляпу и написать: «Джон Томпсон, шляпочник, делает и продает шляпы за наличные деньги».
Один из друзей заметил, что слова «за наличные деньги» являются излишними - такое напоминание будет оскорбительным для покупателя. Другой нашел также лишним слово «продает», так как само собой понятно, что шляпочник продает шляпы, а не раздает их даром. Третьему показалось, что слова «шляпочник» и «делает шляпы» представляют собой ненужную тавтологию, и последние слова были выкинуты. Четвертый предложил выкинуть и слово «шляпочник» - нарисованная шляпа ясно говорит, кто такой Джон Томпсон. Наконец, пятый уверял, что для покупателя совершенно безразлично, будет ли шляпочник называться Джоном Томпсоном или иначе, и предложил обойтись без этого указания.
Таким образом, в конце концов на вывеске не осталось ничего, кроме шляпы.
Конечно, если бы люди пользовались только такого рода кодами, без избыточности в сообщениях, то все «информационные формы» - книги, доклады, статьи - были бы предельно краткими. Но проиграли бы в доходчивости и красоте.
Всякое событие, всякое явление служит источником информации.
Всякое событие, всякое явление может быть выражено по-разному, разным способом, разным алфавитом. Чтобы информацию более точно и экономно передать по каналам связи, ее надо соответственно закодировать.
Информация не может существовать без материального носителя, без передачи энергии. Закодированное сообщение приобретает вид сигналов-носителей информации. Они-то и идут по каналу. Выйдя на приемник, сигналы должны обрести вновь общепонятный вид.
С этой целью сигналы пробегают декодирующее устройство, приобретая форму, удобную для абонента. Система связи сработала, цель достигнута. Когда говорят о каналах связи, о системах связи, чаще всего для примера берут телеграф. Но каналы связи - понятие очень широкое, включающее множество всяких систем, самых разных.
Чтобы ясен был многоликий характер понятия «канал связи», достаточно привести несколько примеров.
При телефонной передаче источник сообщения - говорящий. Кодирующее устройство, изменяющее звуки слов в электрические импульсы, - это микрофон. Канал, по которому передается информация - телефонный провод. Та часть трубки, которую мы подносим к уху, выполняет роль декодирующего устройства. Здесь электрические сигналы снова преобразуются в звуки. И наконец, информация поступает в «принимающее устройство»-ухо человека на другом конце провода. А вот каналсвязи совершенно другой природы - живой нерв. Здесь все сообщения передаются нервным импульсом. Но в технических каналах связи направление передачи информации может меняться, а по нервной системе передача идет в одном направлении.
Еще один пример - вычислительная машина. И здесь те же характерные черты. Отдельные системы вычислительной машины передают одна другой информацию с помощью сигналов. Ведь вычислительная машина-автоматическое устройство для обработки информации, как станок - устройство для обработки металла. Машина не создает из «ничего» информацию, она преобразует только то, что в нее введено.
канал
Источник сообщений
Передающее устройство
Приемное устройство
получатель
Источник помех
Общая схема передачи информации.
Мы уже знаем, что количественный метод - одно из направлений в теории информации - наиболее распространенный и наиболее разработанный. Существуют и другие методы. Они, в противоположность количественному, стараются ухватить смысл информации, ее ценность, ее качество.
Количество информации в двух сообщениях может быть совершенно одинаковым, а смысл совершенно разным. Два слова, например «Мир» и «Рим», содержат одинаковое количество информации, состоят из одних и тех же букв, но смысл слов различен.
В повседневной жизни мы, как правило, оцениваем полученные сведения со смысловой стороны: новые сведения воспринимаем не как определенное количество информации, а как новое содержание. Можно ли вычислить смысл информации, подсчитать его в сообщении? Да, это пробует делать семантическая теория информации. Вот еще один пример и еще одно направление (прагматическое - деловое) в этой науке.
Пассажиры едут в автобусе. Водитель объявляет остановку. Кое-кто выходит, остальные не обращают внимания на слова водителя - переданную им информацию. Почему? Потому что информация здесь имеет разную ценность для получателей, в роли которых в этом примере выступают пассажиры. Вышел тот, для кого информация была ценна. Значит, ценность можно определить как свойство информации, влияющей на поведение ее получателя.
В теории информации в наше время разрабатывают много систем, методов, подходов, идей. Однако ученые считают, что к современным направлениям в теории информации добавятся новые, появятся новые идеи. В качестве доказательства правильности своих предположений они приводят «живой», развивающийся характер науки, указывают на то, что теория информации удивительно быстро и прочно внедряется в самые различные области человеческого знания. Теория информации проникла в физику, химию, биологию, медицину, философию, лингвистику, педагогику, экономику, логику, технические науки, эстетику. По признанию самих специалистов, учение об информации, возникшее в силу потребностей теории связи и кибернетики, перешагнуло их рамки. И теперь, пожалуй, мы вправе говорить об информации как научном понятии, дающем в руки исследователей теоретико - информационный метод, с помощью которого можно проникнуть во многие науки о живой и неживой природе, об обществе, что позволит не только взглянуть на все проблемы с новой стороны, но и увидеть еще неувиденное. Вот почему термин «информация» получил в наше время широкое распространение, став частью таких понятий, как информационная система, информационная культура, даже информационная этика.
Многие научные дисциплины используют теорию информации, чтобы подчеркнуть новое направление в старых науках. Так возникли, например, информационная география, информационная экономика, информационное право.
Но чрезвычайно большое значение приобрел термин «информация» в связи с развитием новейшей компьютерной техники, автоматизацией умственного труда, развитием новых средств связи и обработки информации и особенно с возникновением информатики.
Одной из важнейших задач теории информации является изучение природы и свойств информации, создание методов ее обработки, в частности преобразования самой различной современной информации в программы для ЭВМ, с помощью которых происходит автоматизация умственной работы-своеобразное усиление интеллекта, а значит, развитие интеллектуальных ресурсов общества.
Пекелис В. Кибернетика от А до Я. М.,1990.
Дмитриев В. Прикладная теория информации. М., 1989.
nreferat.ru
НЕ ВЕЩЕСТВО И НЕ ЭНЕРГИЯ........................................................................................................................................ 3
СХЕМА ПЕРЕДАЧИ ИНФОРМАЦИИ............................................................................................................................... 7
ЦЕННОСТЬ ИНФОРМАЦИИ.............................................................................................................................................. 8
ЗАКЛЮЧЕНИЕ....................................................................................................................................................................... 9
Список использованной литературы....................................................................................................... 11
Информация - сведения об окружающем нас мире, о протекающих в нем процессах, которые воспринимают живые организмы, управляющие машины и другие информационные системы. |
Слово «информация» латинское. За долгую жизнь его значение претерпевало эволюции, то расширяя, то предельно сужая свои границы. Вначале под словом «информация» подразумевали: «представление», «понятие», затем-«сведения», «передача сообщений».
В последние годы ученые решили, что обычное (всеми принятое) значение слова «информация» слишком эластично, расплывчато, и дали ему такое значение: «мера определенности в сообщении».
Теорию информации вызвали к жизни потребности практики. Ее возникновение связывают с работой Клода Шеннона «Математическая теория связи», изданной в 1946г. Основы теории информации опираются на результаты, полученные многими учеными. Ко второй половине XX века земной шар гудел от передающейся информации, бегущей по телефонным и телеграфным кабелям и радиоканалам. Позже появились электронные вычислительные машины - переработчики информации. А для того времени основной задачей теории информации являлось, прежде всего, повышение эффективности функционирования систем связи. Сложность при проектировании и эксплуатации средств, систем и каналов связи в том, что конструктору и инженеру недостаточно решить задачу с физических и энергетических позиций. С этих точек зрения система может быть самой совершенной и экономичной. Но важно еще при создании передающих систем обратить внимание на то, какое количество информации пройдет через эту передающую систему. Ведь информацию можно измерить количественно, подсчитать. И поступают при подобных вычислениях самым обычным путем: абстрагируются от смысла сообщения, как отрешаются от конкретности в привычных всем нам арифметических действиях (как от сложения двух яблок и трех яблок переходят к сложению чисел вообще: 2+3).
Ученые заявили, что они «полностью игнорировали человеческую оценку информации». Последовательному ряду из 100 букв, например, они приписывают определенное значение информации, не обращая внимания, имеет ли эта информация смысл и имеет ли, в свою очередь, смысл практическое применение. Количественный подход - наиболее разработанная ветвь теории информации. В соответствии с этим определением совокупность 100 букв - фраза из 100 букв из газеты, пьесы Шекспира или теоремы Эйнштейна - имеет в точности одинаковое количество информации.
Такое определение количества информации является в высшей степени полезным и практичным. Оно в точности соответствует задаче инженера связи, который должен передать всю информацию, содержащуюся в поданной телеграмме, вне зависимости от ценности этой информации для адресата. Канал связи бездушен. Передающей системе важно одно: передать нужное количество информации за определенное время. Как же вычислить количество информации в конкретном сообщении?
Оценка количества информации основывается на законах теории вероятностей, точнее, определяется через вероятности событий. Это и понятно. Сообщение имеет ценность, несет информацию только тогда, когда мы узнаем из него об исходе события, имеющего случайный характер, когда оно в какой-то мере неожиданно. Ведь сообщение об уже известном никакой информации не содержит. Т.е. если вам, допустим, кто-то позвонит по телефону и скажет: «Днем бывает светло, а ночью темно», то такое сообщение вас удивит лишь нелепостью высказывания очевидного и всем известного, а не новостью, которую оно содержит.
Иное дело, например, результат забега на скачках. Кто придет первым? Исход здесь трудно предсказать.
Чем больше интересующее нас событие имеет случайных исходов, тем ценнее сообщение о его результате, тем больше информации.
Сообщение о событии, у которого только два одинаково возможных исхода, содержит одну единицу информации, называемую битом. Выбор единицы информации не случаен. Он связан с наиболее распространенным двоичным способом ее кодирования при передаче и обработке.
Попытаемся хотя бы в самом упрощенном виде представить себе тот общий принцип количественной оценки информации, который является краеугольным камнем всей теории информации.
Мы уже знаем, что количество информации зависит от вероятностей тех или иных исходов события. Если событие, как говорят ученые, имеет два равновероятных исхода, это означает, что вероятность каждого исхода равна 1/2. Такова вероятность выпадения «орла» или «решки» при бросании монеты. Если событие имеет три равновероятных исхода, то вероятность каждого равна 1/3. Заметьте, сумма вероятностей всех исходов всегда равна единице: ведь какой-нибудь из всех возможных исходов обязательно наступит.
Событие, как вы сами понимаете, может иметь и неравновероятные исходы. Так, при футбольном матче между сильной и слабой командами вероятность победы сильной команды велика - например, 4/5. Вероятность ничьей намного меньше, например 3/20. Вероятность же поражения совсем мала.
Выходит, что количество информации - это мера уменьшения неопределенности некоторой ситуации. Различные количества информации передаются по каналам связи, и количество проходящей через канал информации не может быть больше его пропускной способности. А ее определяют по тому, какое количество информации проходит здесь за единицу времени.
Один из героев романа Жюля Верна «Таинственный остров», журналист Гедеон Спиллет, передавал по телефону главу из Библии, чтобы его конкуренты не могли воспользоваться телефонной связью. В этом случае канал был загружен полностью, а количество информации было равно нулю, ибо абоненту передавались известные для него сведения. Значит, канал работал вхолостую, пропустив строго определенное количество импульсов, ничем их не нагрузив.
А между тем, чем больше информации несет каждый из определенного числа импульсов, тем полнее используется пропускная способность канала. Поэтому нужно разумно кодировать информацию, найти экономный, скупой язык для передачи сообщений.
Информацию «просеивают» самым тщательным образом. В телеграфе часто встречающиеся буквы, сочетания букв, даже целые фразы изображают более коротким набором нулей и единиц, а те, что встречаются реже,- более длинным. В случае, когда уменьшают длину кодового слова для часто встречающихся символов и увеличивают для редко встречающихся, говорят об эффективном кодировании информации.
Но на практике довольно часто случается, что код, возникший в результате самого тщательного «просеивания», код удобный и экономный, может исказить сообщение из-за помех, которые всегда, к сожалению, бывают в каналах связи: искажения звука в телефоне, атмосферные помехи в радио, искажение или затемнение изображения в телевидении, ошибки при передаче в телеграфе. Эти помехи, или, как их называют специалисты, шумы, обрушиваются на информацию. А от этого бывают самые невероятные и, естественно, неприятные неожиданности.
Поэтому для повышения надежности в передаче и обработке информации приходится вводить лишние символы - своеобразную защиту от искажений. Они - эти лишние символы - не несут действительного содержания в сообщении, они избыточны. С точки зрения теории информации все то, что делает язык красочным, гибким, богатым оттенками, многоплановым, многозначным, - избыточность. Как избыточно с таких позиций письмо Татьяны к Онегину! Сколько в нем информационных излишеств для краткого и всем понятного сообщения « Я вас люблю»! И как информационно точны рисованные обозначения, понятные всем и каждому, кто входит сегодня в метро, где вместо слов и фраз объявлений висят лаконичные символьные знаки, указывающие: «Вход», «Выход».
В этой связи полезно вспомнить анекдот, рассказанный в свое время знаменитым американским ученым Бенджаменом Франклином, о шляпочнике, пригласившем своих друзей для обсуждения проекта вывески.
Предполагалось нарисовать на вывеске шляпу и написать: «Джон Томпсон, шляпочник, делает и продает шляпы за наличные деньги».
Один из друзей заметил, что слова «за наличные деньги» являются излишними - такое напоминание будет оскорбительным для покупателя. Другой нашел также лишним слово «продает», так как само собой понятно, что шляпочник продает шляпы, а не раздает их даром. Третьему показалось, что слова «шляпочник» и «делает шляпы» представляют собой ненужную тавтологию, и последние слова были выкинуты. Четвертый предложил выкинуть и слово «шляпочник» - нарисованная шляпа ясно говорит, кто такой Джон Томпсон. Наконец, пятый уверял, что для покупателя совершенно безразлично, будет ли шляпочник называться Джоном Томпсоном или иначе, и предложил обойтись без этого указания.
Таким образом, в конце концов на вывеске не осталось ничего, кроме шляпы.
Конечно, если бы люди пользовались только такого рода кодами, без избыточности в сообщениях, то все «информационные формы» - книги, доклады, статьи - были бы предельно краткими. Но проиграли бы в доходчивости и красоте.
Всякое событие, всякое явление служит источником информации.
Всякое событие, всякое явление может быть выражено по-разному, разным способом, разным алфавитом. Чтобы информацию более точно и экономно передать по каналам связи, ее надо соответственно закодировать.
Информация не может существовать без материального носителя, без передачи энергии. Закодированное сообщение приобретает вид сигналов-носителей информации. Они-то и идут по каналу. Выйдя на приемник, сигналы должны обрести вновь общепонятный вид.
С этой целью сигналы пробегают декодирующее устройство, приобретая форму, удобную для абонента. Система связи сработала, цель достигнута. Когда говорят о каналах связи, о системах связи, чаще всего для примера берут телеграф. Но каналы связи - понятие очень широкое, включающее множество всяких систем, самых разных.
Чтобы ясен был многоликий характер понятия «канал связи», достаточно привести несколько примеров.
При телефонной передаче источник сообщения - говорящий. Кодирующее устройство, изменяющее звуки слов в электрические импульсы, - это микрофон. Канал, по которому передается информация - телефонный провод. Та часть трубки, которую мы подносим к уху, выполняет роль декодирующего устройства. Здесь электрические сигналы снова преобразуются в звуки. И наконец, информация поступает в «принимающее устройство»-ухо человека на другом конце провода. А вот каналсвязи совершенно другой природы - живой нерв. Здесь все сообщения передаются нервным импульсом. Но в технических каналах связи направление передачи информации может меняться, а по нервной системе передача идет в одном направлении.
Еще один пример - вычислительная машина. И здесь те же характерные черты. Отдельные системы вычислительной машины передают одна другой информацию с помощью сигналов. Ведь вычислительная машина-автоматическое устройство для обработки информации, как станок - устройство для обработки металла. Машина не создает из «ничего» информацию, она преобразует только то, что в нее введено. канал
Общая схема передачи информации.
Мы уже знаем, что количественный метод - одно из направлений в теории информации - наиболее распространенный и наиболее разработанный. Существуют и другие методы. Они, в противоположность количественному, стараются ухватить смысл информации, ее ценность, ее качество.
Количество информации в двух сообщениях может быть совершенно одинаковым, а смысл совершенно разным. Два слова, например «Мир» и «Рим», содержат одинаковое количество информации, состоят из одних и тех же букв, но смысл слов различен.
В повседневной жизни мы, как правило, оцениваем полученные сведения со смысловой стороны: новые сведения воспринимаем не как определенное количество информации, а как новое содержание. Можно ли вычислить смысл информации, подсчитать его в сообщении? Да, это пробует делать семантическая теория информации. Вот еще один пример и еще одно направление (прагматическое - деловое) в этой науке.
Пассажиры едут в автобусе. Водитель объявляет остановку. Кое-кто выходит, остальные не обращают внимания на слова водителя - переданную им информацию. Почему? Потому что информация здесь имеет разную ценность для получателей, в роли которых в этом примере выступают пассажиры. Вышел тот, для кого информация была ценна. Значит, ценность можно определить как свойство информации, влияющей на поведение ее получателя.
В теории информации в наше время разрабатывают много систем, методов, подходов, идей. Однако ученые считают, что к современным направлениям в теории информации добавятся новые, появятся новые идеи. В качестве доказательства правильности своих предположений они приводят «живой», развивающийся характер науки, указывают на то, что теория информации удивительно быстро и прочно внедряется в самые различные области человеческого знания. Теория информации проникла в физику, химию, биологию, медицину, философию, лингвистику, педагогику, экономику, логику, технические науки, эстетику. По признанию самих специалистов, учение об информации, возникшее в силу потребностей теории связи и кибернетики, перешагнуло их рамки. И теперь, пожалуй, мы вправе говорить об информации как научном понятии, дающем в руки исследователей теоретико - информационный метод, с помощью которого можно проникнуть во многие науки о живой и неживой природе, об обществе, что позволит не только взглянуть на все проблемы с новой стороны, но и увидеть еще неувиденное. Вот почему термин «информация» получил в наше время широкое распространение, став частью таких понятий, как информационная система, информационная культура, даже информационная этика.
Многие научные дисциплины используют теорию информации, чтобы подчеркнуть новое направление в старых науках. Так возникли, например, информационная география, информационная экономика, информационное право.
Но чрезвычайно большое значение приобрел термин «информация» в связи с развитием новейшей компьютерной техники, автоматизацией умственного труда, развитием новых средств связи и обработки информации и особенно с возникновением информатики.
Одной из важнейших задач теории информации является изучение природы и свойств информации, создание методов ее обработки, в частности преобразования самой различной современной информации в программы для ЭВМ, с помощью которых происходит автоматизация умственной работы-своеобразное усиление интеллекта, а значит, развитие интеллектуальных ресурсов общества.
1. Пекелис В. Кибернетика от А до Я. М.,1990.
2. Дмитриев В. Прикладная теория информации. М., 1989.
www.coolreferat.com
<span Arial",«sans-serif»; mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line">
<span Arial",«sans-serif»; mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line;font-weight:normal"> TOCo «1-3»
НЕ ВЕЩЕСТВО И НЕ ЭНЕРГИЯ...… PAGEREF _Toc419985060h 3СХЕМА ПЕРЕДАЧИ ИНФОРМАЦИИ… PAGEREF _Toc419985061h 7
ЦЕННОСТЬ ИНФОРМАЦИИ… PAGEREF _Toc419985062h 8
ЗАКЛЮЧЕНИЕ… PAGEREF _Toc419985063h 9
Список использованной литературы… PAGEREF _Toc419985064h 11
<span Arial",«sans-serif»; mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line">
<span Arial",«sans-serif»; mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line">
<span Arial",«sans-serif»;mso-bidi-font-family: «Times New Roman»;layout-grid-mode:line">Информация
— сведения об окружающем нас мире, о протекающих в нем процессах, которые воспринимают живые организмы, управляющие машины и другие информационные системы.<span Arial",«sans-serif»; mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line">
НЕ ВЕЩЕСТВО ИНЕ ЭНЕРГИЯ...<span Courier New";mso-bidi-font-family:«Times New Roman»; mso-ansi-language:EN-US;layout-grid-mode:line">
Слово «информация» латинское.За долгую жизнь его значение претерпевало эволюции, то расширяя, то предельно сужая свои границы. Вначале подсловом «информация» подразумевали: «представление», «понятие», затем-«сведения»,«передача сообщений».
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">В последние годы ученые решили, что обычное (всемипринятое) значение слова «информация» слишком эластично, расплывчато, и далиему такое значение: «мера определенностив сообщении».
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">Теорию информации вызвали к жизни потребности практики. Еевозникновение связывают с работой Клода Шеннона «Математическая теория связи»,изданной в 1946г. Основы теории информации опираются на результаты, полученные многимиучеными. Ко второй половине XX веказемной шар гудел от передающейся информации, бегущей по телефонным и телеграфнымкабелям и радиоканалам. Позже появились электронные вычислительные машины — переработчикиинформации. А для того времени основной задачей теории информации являлось, преждевсего, повышение эффективности функционирования систем связи.
Сложность при проектировании и эксплуатациисредств, систем и каналов связи в том, что конструктору и инженеру недостаточно решить задачу с физическихи энергетических позиций. С этих точекзрения система может быть самой совершенной и экономичной. Но важно еще при создании передающих систем обратитьвнимание на то, какое количество информациипройдет через эту передающую систему. Ведь информацию можно измерить количественно,подсчитать. И поступают при подобных вычисленияхсамым обычным путем: абстрагируются от смысла сообщения, как отрешаются отконкретности в привычных всем нам арифметических действиях (как от сложениядвух яблок и трех яблок переходят к сложению чисел вообще: 2+3).<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">Ученые заявили, что они «полностью игнорироваличеловеческую оценку информации». Последовательному ряду из 100 букв, например,они приписывают определенное значение информации, не обращая внимания, имеет лиэта информация смысл и имеет ли, в свою очередь, смысл практическое применение. Количественный подход — наиболееразработанная ветвь теории информации. В соответствии с этим определениемсовокупность 100 букв
- фраза из 100 букв из газеты, пьесы Шекспира или теоремыЭйнштейна — имеет в точности одинаковое количество информации.<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">Такое определение количества информации является ввысшей степени полезным и практичным. Оно в точности соответствует задаче инженерасвязи, который должен передать всю информацию, содержащуюся в поданнойтелеграмме, вне зависимости от ценности этой информации для адресата. Каналсвязи бездушен. Передающей системе важно одно: передать нужное количество информацииза определенное время. Как же вычислить количество информации в конкретномсообщении?
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">Оценка количества информации основывается на законахтеории вероятностей, точнее, определяется через вероятности событий. Это ипонятно. Сообщение имеет ценность, несет информацию только тогда, когда мы узнаем из него обисходе события, имеющего случайный характер,когда оно в какой-то мере неожиданно. Ведь сообщение об уже известном никакойинформации не содержит. Т.е.
есливам, допустим, кто-то позвонит по телефону и скажет: «Днем бывает светло, аночью темно», то такое сообщение вас удивит лишь нелепостью высказывания очевидного и всем известного, ане новостью, которую оно содержит.<span Courier New";mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line">Иноедело, например, результат забега на скачках. Кто придет первым? Исход здесьтрудно предсказать.
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">Чем больше интересующее нас событие имеет случайныхисходов, тем ценнее сообщение о его результате, тем больше информации.
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">Сообщение о событии, у которого только два одинакововозможных исхода, содержит одну единицу информации, называемую битом. Выбор единицы информации неслучаен. Он связан с наиболее распространенным двоичным способом ее кодированияпри передаче и обработке.
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">Попытаемся хотя бы в самом упрощенном виде представитьсебе тот общий принцип количественной оценки информации, который являетсякраеугольным камнем всей теории информации.
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">Мы уже знаем, что количество информации зависит отвероятностей тех или иных исходов события. Если событие, как говорят ученые,имеет два равновероятных исхода, это означает, что вероятность каждого исходаравна 1/2. Такова вероятность выпадения «орла» или «решки» при бросании монеты. Если событие имеет три равновероятныхисхода, то вероятность каждого равна 1/3. Заметьте, сумма вероятностей всехисходов всегда равна единице: ведь какой-нибудь из всех возможных исходовобязательно наступит.
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">Событие, как вы сами понимаете, может иметь и неравновероятныеисходы. Так, при футбольном матче между сильной и слабой командами вероятностьпобеды сильной команды велика — например, 4/5. Вероятность ничьей намногоменьше, например 3/20. Вероятность же поражения совсем мала.
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">Выходит, что количествоинформации — это мера уменьшения неопределенности некоторой ситуации. Различные количестваинформации передаются по каналам связи, и количествопроходящей через канал информации не может быть больше его пропускнойспособности. А ее определяют по тому, какое количество информации проходит здесь за единицу времени.
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">Один из героев романа Жюля Верна «Таинственный остров»,журналист Гедеон Спиллет, передавал по телефону главу из Библии, чтобы его конкуренты не могли воспользоваться телефонной связью. В этом случае канал былзагружен полностью, а количество информации было равно нулю, ибо абоненту передавались известные для него сведения.Значит, канал работал вхолостую, пропустив строго определенное количествоимпульсов, ничем их не нагрузив.
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">А между тем, чем больше информации несет каждый из определенного числа импульсов, темполнее используется пропускная способность канала. Поэтому нужно разумно кодировать информацию, найти экономный, скупой язык для передачи сообщений.
<span Courier New";mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line">Информацию«просеивают» самым тщательным образом. Втелеграфе часто встречающиеся буквы, сочетания букв, даже целые фразы изображаютболее коротким набором нулей и единиц, а те, что встречаются реже,- более длинным. Вслучае, когда уменьшают длину кодового слова для часто встречающихся символов иувеличивают для редко встречающихся, говорят об эффективном кодировании информации.
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">Но на практике довольно часто случается, что код,возникший в результате самоготщательного «просеивания», код удобный иэкономный, может исказить сообщение из-за помех, которые всегда, к сожалению, бывают в каналахсвязи: искажения звука в телефоне, атмосферные помехи в радио, искажение илизатемнение изображения в телевидении,ошибки при передаче в телеграфе. Эти помехи, или, как их называют специалисты,шумы, обрушиваются на информацию. А от этого бывают самые невероятные и,естественно, неприятные неожиданности.
<span Courier New";mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line">Поэтомудля повышения надежности в передаче иобработке информации приходится вводитьлишние символы — своеобразную защиту от искажений. Они — эти лишние символы- не несут действительного содержания в сообщении, они избыточны. С точки зрения теории информации все то, что делает язык красочным, гибким, богатым оттенками,многоплановым, многозначным, — избыточность. Как избыточно с таких позиций письмо Татьяны к Онегину! Сколько внем информационных излишеств для краткого и всем понятного сообщения « Я васлюблю»! И как информационно точны рисованные обозначения, понятные всем икаждому, кто входит сегодня в метро, гдевместо слов и фраз объявлений висят лаконичные символьные знаки, указывающие:«Вход», «Выход».
<span Courier New";mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line">Вэтой связи полезно вспомнить анекдот, рассказанный в свое время знаменитымамериканским ученым Бенджаменом Франклином, о шляпочнике, пригласившем своих друзей для обсужденияпроекта вывески.
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">Предполагалось нарисовать на вывеске шляпу и написать:«Джон Томпсон, шляпочник, делает и продает шляпы за наличные деньги».
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">Один из друзей заметил, что слова «за наличные деньги»являются излишними — такое напоминаниебудет оскорбительным для покупателя. Другой нашел также лишним слово «продает», так как само собой понятно,что шляпочник продает шляпы, а не раздает их даром. Третьему показалось, чтослова «шляпочник» и «делает шляпы» представляют собой ненужную тавтологию, и последние слова были выкинуты. Четвертыйпредложил выкинуть и слово «шляпочник» — нарисованная шляпа ясно говорит, кто такой Джон Томпсон.Наконец, пятый уверял, что для покупателя совершенно безразлично, будет ли шляпочник называться ДжономТомпсоном или иначе, и предложил обойтись без этого указания.
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">Таким образом, в конце концов на вывеске не осталосьничего, кроме шляпы.
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">Конечно, если бы люди пользовались только такого родакодами, без избыточности в сообщениях, то все «информационные формы» — книги,доклады, статьи — были бы предельно краткими. Но проиграли бы в доходчивости икрасоте.
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">
СХЕМА ПЕРЕДАЧИИНФОРМАЦИИ<span Courier New"; mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line">
<span Courier New";mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line">Всякоесобытие, всякое явление служитисточником информации.
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">Всякое событие, всякое явление может быть выраженопо-разному, разным способом, разным алфавитом.Чтобы информацию более точно и экономнопередать по каналам связи, ее надо соответственно закодировать.
Информация не может существовать без материальногоносителя, без передачи энергии. Закодированное сообщение приобретает вид сигналов-носителейинформации. Они-то и идут по каналу. Выйдя на приемник, сигналы должны обрестивновь общепонятный вид.
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">С этой целью сигналы пробегают декодирующее устройство,приобретая форму, удобную для абонента.Система связи сработала, цель достигнута. Когда говорят о каналах связи, осистемах связи, чаще всего для примера берут телеграф. Но каналы связи — понятие очень широкое, включающее множество всяких систем, самых разных.
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">Чтобы ясен был многоликий характер понятия «каналсвязи», достаточно привести несколькопримеров.
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">При телефонной передаче источник сообщения — говорящий.Кодирующее устройство, изменяющее звукислов в электрические импульсы, — это микрофон. Канал, по которому передаетсяинформация — телефонный провод. Та частьтрубки, которую мы подносим к уху, выполняет роль декодирующего устройства.Здесь электрические сигналы снова преобразуются в звуки. И наконец, информацияпоступает в «принимающее устройство»-ухочеловека на другом конце провода. А вот каналсвязи совершенно другой природы — живой нерв. Здесь все сообщения передаются нервным импульсом. Но в техническихканалах связи направление передачи информацииможет меняться, а по нервной системе передачаидет в одном направлении.
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">Еще один пример — вычислительная машина. И здесь те жехарактерные черты. Отдельные системывычислительной машины передают одна другой информацию с помощью сигналов. Ведьвычислительная машина-автоматическое устройство для обработки информации, как станок — устройство для обработки металла. Машина не создает из«ничего» информацию, она преобразует только то, что в нее введено.
<span Courier New";mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line">
<span Courier New";mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line"> канал
Источник сообщений
Передающее устройство
Источник помех
Приемное устройство
получатель
<span Courier New";mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line">
<span Courier New";mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line">
<span Courier New";mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line">
<span Courier New";mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line">
<span Courier New";mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line">
<span Courier New";mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line">
<span Courier New";mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line">
<span Courier New";mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line">Общаясхема передачи информации.
<span Courier New";mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line">
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">
ЦЕННОСТЬИНФОРМАЦИИ<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">Мы уже знаем, что количественный метод — одно изнаправлений в теории информации — наиболее распространенный и наиболее разработанный. Существуют и другие методы. Они, впротивоположность количественному, стараются ухватить смысл информации, ее ценность, ее качество.
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">Количество информации в двух сообщениях может бытьсовершенно одинаковым, а смысл совершенно разным. Два слова, например «Мир» и«Рим», содержат одинаковое количество информации, состоят из одних и тех жебукв, но смысл слов различен.
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">В повседневной жизни мы, как правило, оцениваемполученные сведения со смысловой стороны: новые сведения воспринимаем не как определенноеколичество информации, а как новое содержание. Можно ли вычислить смыслинформации, подсчитать его в сообщении?Да, это пробует делать семантическая теорияинформации. Вот еще один пример и еще одно направление (прагматическое — деловое) в этой науке.
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">Пассажиры едут в автобусе. Водитель объявляет остановку. Кое-кто выходит, остальные не обращают внимания на словаводителя — переданную им информацию. Почему? Потому что информация здесь имеет разную ценность для получателей, в роли которых в этом примере выступаютпассажиры. Вышел тот, для кого информация была ценна. Значит, ценность можно определить как свойствоинформации, влияющей на поведение ее получателя.
<span Courier New";mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line">
ЗАКЛЮЧЕНИЕ<span Courier New";mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line">
В теории информации в наше время разрабатываютмного систем, методов, подходов, идей. Однако ученые считают, что к современнымнаправлениям в теории информации добавятся новые, появятся новые идеи. В качестведоказательства правильности своих предположений они приводят «живой»,развивающийся характер науки, указывают на то, что теория информации удивительнобыстро и прочно внедряется в самые различные области человеческого знания.Теория информации проникла в физику, химию, биологию, медицину, философию,лингвистику, педагогику, экономику,логику, технические науки, эстетику. По признанию самих специалистов, учение обинформации, возникшее в силу потребностейтеории связи и кибернетики, перешагнуло их рамки. И теперь, пожалуй, мы вправеговорить об информации как научном понятии, дающем в руки исследователей теоретико — информационный метод,с помощью которого можно проникнуть во многие науки о живой и неживой природе,об обществе, что позволит не только взглянуть на все проблемы с новой стороны,но и увидеть еще неувиденное. Вот почему термин «информация» получил в нашевремя широкое распространение, став частью таких понятий, как информационнаясистема, информационная культура, дажеинформационная этика.
<span Courier New";mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line">Многиенаучные дисциплины используют теорию информации, чтобы подчеркнуть новоенаправление в старых науках. Так возникли, например, информационная география,информационная экономика, информационное право.
<span Courier New";mso-bidi-font-family:«Times New Roman»;layout-grid-mode:line">Ночрезвычайно большое значение приобрел термин «информация» в связи с развитиемновейшей компьютерной техники, автоматизацией умственного труда, развитиемновых средств связи и обработки информации и особенно с возникновением информатики.
<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">Одной из важнейших задач теории информации являетсяизучение природы и свойств информации, создание методов ее обработки, в частности преобразования самой различной современнойинформации в программы для ЭВМ, спомощью которых происходит автоматизация умственной работы-своеобразное усиление интеллекта, азначит, развитие интеллектуальных ресурсов общества.
Списокиспользованной литературы<span Courier New";mso-bidi-font-family:«Times New Roman»; layout-grid-mode:line">
<span Courier New"; mso-fareast-font-family:«Courier New»;layout-grid-mode:line">1.<span Times New Roman"">
Пекелис В. Кибернетика от А до Я. М.,1990.<span Courier New"; mso-fareast-font-family:«Courier New»">2.<span Times New Roman"">
Дмитриев В.Прикладная теория информации. М., 1989.www.ronl.ru
СОДЕРЖАНИЕ
TOC o "1-3"
НЕ ВЕЩЕСТВО И НЕ ЭНЕРГИЯ...
.....................................................................................................................................
PAGEREF _Toc419985060 h
СХЕМА ПЕРЕДАЧИ ИНФОРМАЦИИ
...............................................................................................................................
PAGEREF _Toc419985061 h
ЦЕННОСТЬ ИНФОРМАЦИИ
..............................................................................................................................................
PAGEREF _Toc419985062 h
ЗАКЛЮЧЕНИЕ
.......................................................................................................................................................................
PAGEREF _Toc419985063 h
Список использованной литературы
.......................................................................................................
PAGEREF _Toc419985064 h
Информация
- сведения об окружающем нас мире, о протекающих в нем процессах, которые воспринимают живые организмы, управляющие машины и другие информационные системы.
НЕ ВЕЩЕСТВО И НЕ ЭНЕРГИЯ...
Слово «информация» латинское. За долгую жизнь его значение претерпевало
эволюции, то расширяя, то предельно сужая свои границы. Вначале под словом «информация» подразумевали: «представление», «понятие», затем-«сведения», «передача
сообщений».
В последние годы ученые решили, что обычное (всеми принятое) значение слова «информация» слишком эластично, расплывчато, и дали ему такое значение: «мера
определенности в сообщении».
Теорию информации вызвали к жизни потребности практики. Ее возникновение связывают с работой Клода Шеннона «Математическая теория связи», изданной в 1946г.
Основы теории информации опираются на результаты, полученные многими учеными. Ко второй
половине XX века земной шар гудел от передающейся информации, бегущей по телефонным и телеграфным кабелям и радиоканалам. Позже появились электронные вычислительные
машины - переработчики информации. А для того времени основной задачей теории информации являлось, прежде всего, повышение эффективности функционирования систем связи.
Сложность
при проектировании
и эксплуатации средств, систем и каналов связи в том, что конструктору
и инженеру недостаточно решить задачу с физических и энергетических
позиций. С этих точек зрения система может быть самой совершенной
и экономичной. Но важно еще при создании передающих систем обратить внимание на то, какое количество информации пройдет через эту передающую систему. Ведь информацию
можно измерить количественно, подсчитать.
И поступают при подобных вычислениях самым обычным путем: абстрагируются от смысла сообщения, как отрешаются от конкретности в привычных всем нам арифметических
действиях (как от сложения двух яблок и трех яблок переходят к сложению чисел вообще: 2+3).
Ученые заявили, что они «полностью игнорировали человеческую оценку информации». Последовательному ряду из 100 букв, например, они приписывают определенное
значение информации, не обращая внимания, имеет ли эта информация смысл и имеет ли, в свою очередь, смысл практическое
применение. Количественный подход - наиболее разработанная ветвь теории информации. В соответствии с этим определением совокупность
100 букв
фраза из 100 букв из газеты, пьесы Шекспира или теоремы Эйнштейна - имеет в точности одинаковое количество информации.
Такое определение количества информации является в высшей степени полезным и практичным. Оно в точности соответствует задаче инженера связи, который должен
передать всю информацию, содержащуюся в поданной телеграмме, вне зависимости от ценности этой информации для адресата. Канал связи бездушен. Передающей системе важно одно: передать
нужное количество информации за определенное время. Как же вычислить количество информации в конкретном сообщении?
Оценка количества информации основывается на законах теории вероятностей, точнее, определяется через вероятности событий. Это и понятно....
Забрать файлrefland.ru