Реферат: Виды информации. Виды информации реферат


ВИДЫ ИНФОРМАЦИИ

Количество просмотров публикации ВИДЫ ИНФОРМАЦИИ - 653

ПОНЯТИЕ ИНФОРМАЦИИ

Тема 1. Понятие информации и информационных технологий

Информационные технологии

Лекции по дисциплинœе

Термин информация происходит от латинского слова informatio, что означает ʼʼсведения, разъяснения, изложениеʼʼ.

Информация - это настолько общее и глубокое понятие, что его нельзя объяснить одной фразой. В это слово вкладывается различный смысл в технике, науке и в житейских ситуациях.

В обиходе информацией называют любые данные или сведения, которые кого-либо интересуют, к примеру сообщение о каких-либо событиях, о чьей-либо деятельности и т. п. ʼʼИнформироватьʼʼ в данном смысле означает ʼʼсообщить нечто, неизвестное раньшеʼʼ. Информация — сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы.

Одно и то же информационное сообщение (статья в газете, объявление, письмо, телœеграмма, справка, рассказ, чертеж, радиопередача и т. п.) может содержать разное количество информации для разных людей исходя из их накопленных знаний, от уровня понимания этого сообщения и интереса к нему. Так, сообщение, составленное на японском языке, не несет никакой новой информации человеку, не знающему этого языка, но должна быть высокоинформативным для человека, владеющего японским. Никакой новой информации не содержит и сообщение, изложенное на знакомом языке, в случае если его содержание непонятно или уже известно.

Информация есть характеристика не сообщения, а соотношения между сообщением и его потребителœем. Без наличия потребителя, хотя бы потенциального, говорить об информации бессмысленно.

В случаях, когда говорят об автоматизированной работе с информацией посредством каких-либо технических устройств, обычно в первую очередь интересуются не содержанием сообщения, а тем, сколько символов это сообщение содержит.

Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т. п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения.

Основные виды информации по ее форме представления, способам ее кодирования и хранения, что имеет наибольшее значение для информатики, это:

1. Графическая или изобразительная — первый вид, для которого был реализован способ хранения информации об окружающем мире в виде наскальных рисунков, а позднее в виде картин, фотографий, схем, чертежей на бумаге, холсте, мраморе и др. Размещено на реф.рфматериалах, изображающих картины реального мира;

2. Звуковая — мир вокруг нас полон звуков и задача их хранения и тиражирования была решена с изобретение звукозаписывающих устройств в 1877 ᴦ. ее разновидностью является музыкальная информация — для этого вида был изобретен способ кодирования с использованием специальных символов, что делает возможным хранение ее аналогично графической информации;

3. Текстовая — способ кодирования речи человека специальными символами — буквами, причем разные народы имеют разные языки и используют различные наборы букв для отображения речи; особенно большое значение данный способ приобрел после изобретения бумаги и книгопечатания;

4. Числовая — количественная мера объектов и их свойств в окружающем мире; особенно большое значение приобрела с развитием торговли, экономики и денежного обмена; аналогично текстовой информации для ее отображения используется метод кодирования специальными символами — цифрами, причем сис-темы кодирования (счисления) бывают разными;

5. Видеоинформация — способ сохранения ʼʼживыхʼʼ картин окружающего мира, появившийся с изобретением кино.

Существуют также виды информации, для которых до сих пор не изобретено способов их кодирования и хранения — это тактильная информация, передаваемая ощущениями, органолептическая, передаваемая запахами и вкусами и др.

Для передачи информации на большие расстояния первоначально использовались кодированные световые сигналы, с изобретением электричества — передача закодированного определœенным образом сигнала по проводам, позднее — с использованием радиоволн.

Создателœем общей теории информации и основоположником цифровой связи считается Клод Шеннон (Claude Shannon). Всемирную известность ему принœес фундаментальный труд 1948 года — ʼʼМатематическая теория связиʼʼ (A Mathematical Theory of Communication), в котором впервые обосновывается возможность применения двоичного кода для передачи информации.

С появлением компьютеров (или, как их вначале называли в нашей стране, ЭВМ — электронные вычислительные машины) вначале появилось средство для обработки числовой информации. При этом в дальнейшем, особенно после широкого распространения персональных компьютеров (ПК), компьютеры стали использоваться для хранения, обработки, передачи и поиска текстовой, числовой, изобразительной, звуковой и видеоинформации. С момента появления первых персональных компьютеров — ПК (80-е годы 20 века) — до 80 % их рабочего времени посвящено работе с текстовой информацией.

Хранение информации при использовании компьютеров осуществляется на магнитных дисках или лентах, на лазерных дисках (CD и DVD), специальных устройствах энергонезависимой памяти (флэш-память и пр.). Эти методы постоянно совершенствуются, изобретаются новые устройства и носители информации. Обработку информации (воспроизведение, преобразование, передача, запись на внешние но-сители) выполняет процессор компьютера. С помощью компьютера возможно создание и хранение новой информации любых видов, для чего служат специальные программы, используемые на компьютерах, и устройства ввода информации.

Особым видом информации в настоящее время можно считать информацию, представленную в глобальной сети Интернет. Здесь используются особые приемы хранения, обработки, поиска и передачи распределœенной информации больших объёмов и особые способы работы с различными видами информации. Постоянно совершенствуется программное обеспечение, обеспечивающее коллективную работу с информацией всœех видов

Предметы, процессы, явления материального или нематериального свойства, рассматриваемые с точки зрения их информационных свойств, называются информационными объектами.

Что можно делать с информацией:

Все эти процессы, связанные с определœенными операциями над информацией, называются информационными процессами.

referatwork.ru

Реферат - Информация, ее виды и свойства

 

Все данные материального мира несут в себе информацию о происходящих событиях, являясь по сути регистрацией сигналов, возникающих в результате этих событий. Но данные не тождественны информации. Во многих случаях для того, чтобы получить информацию об объекте, данные надо преобразовать. Это обработка данных. Для обработки данных обязательно применяется какой-нибудь метод.

Представление об информации различается в разных науках. В информатике это первичное понятие. Такие понятия вводятся аксиоматически, т. е. не определяются, а лишь поясняются. В простейшем бытовом понимании с термином “информация” обычно ассоциируются некоторые сведения, данные, знания и т. п.

Информация – это продукт взаимодействия данных и адекватных им методов обработки. Для передачи информации необходима какая-нибудь среда, которая называется каналом связи. Информация имеет некоторый набор свойств. Кроме того, она подразумевает некую возможность ее измерения в количественном или качественном плане.

Информация обладает рядом свойств, отличающих ее от других объектов природы.

Дуализм информации характеризует ее двойственность. С одной стороны информация объективна в силу объективности данных, с другой – субъективна, в силу субъективности применяемых методов. Понятие объективности и субъективности информации является относительным. Например, два человека читают одну и ту же книгу и получают подчас весьма разную информацию, хотя прочитанный текст, т. е. данные были одинаковы.

Полнота информации. Это свойство характеризует качество информации, т. е. степень достаточности данных для принятия решения. Неполный набор данных оставляет большую долю неопределенности, в то же время избыточный набор создает повышенный информационный шум и вызывает необходимость применения дополнительных методов, например, фильтрации, сортировки и т. п.

Достоверность информации – это степень соответствия информации реальному объекту с необходимой точностью, т. е. проблема разделения полезного сигнала и шумов. При увеличении уровня шумов достоверность информации снижается.

Адекватность информации есть степень соответствия реальному объективному состоянию дела. Неадекватная информация может образовываться при создании новой информации на основе неполных или недостоверных данных. Получение адекватной информации также затрудняется при недоступности адекватных методов.

Доступность информации – это возможность получения информации при необходимости. Доступность складывается из двух составляющих: из доступности данных и доступности методов.

Актуальность информации – это степень соответствия информации текущему моменту времени. Информация может устаревать. Поскольку информационные процессы растянуты во времени, то достоверная и адекватная, но устаревшая информация может приводить к ошибочным решениям.

Информация в виде сообщения передается с помощью носителя информации в виде сигналов. Сигнал – это изменяющийся во времени физический процесс. Он может быть дискретным или непрерывным (см. рис. 1.2 а, б). Пример дискретного сообщения – процесс чтения книги, информация в которой представлена дискретной последовательностью букв. Пример непрерывного сообщения – человеческая речь, передаваемая модулированной звуковой волной. Непрерывное сообщение можно преобразовать в дискретное (такая процедура называется дискретизацией). Возможность дискредитации непрерывного сигнала с любой желаемой точностью принципиально важна с точки зрения информатики. Компьютер – цифровая машина, т. е. внутреннее представление информации в нем дискретно. Теоретическая база возможности дискретизации непрерывного сигнала заложена следующей теоремой.

 

Теорема 1.1 (теорема Котельникова*). Если непрерывный сигнал имеет спектр, ограниченный сверху частотой, то этот сигнал полностью определяется последовательностью своих значений в моменты времени, отстоящие друг от друга на интервал .

Из этой теоремы следует, что, во-первых, непрерывная информация может быть дискретизирована, во-вторых, что после дискретизации непрерывный сигнал может быть восстановлен точно.

Информация передается в виде сообщений, т. е. данных. Данные – это зарегистрированные сигналы – объективная часть информации. Метод регистрации данных может быть любым: механическим, физическим, химическим и т. д. В соответствии с методом регистрации данные могут храниться и транспортироваться на носителях разных видов. Распространенными носителями являются бумага, магнитные ленты и диски, оптические диски (CD-ROM), фотографии. Любой носитель характеризуется разрешающей способностью (количество данных, записанных в принятой для носителя единице измерения) и динамическим диапазоном (логарифмическим отношением интенсивности амплитуд максимального и минимального регистрируемого сигнала).

Различают следующие основные операции с данными:

§ сбор данных – это накопление информации;

§ формализация данных – приведение данных, поступающих из разных источников, к одинаковой форме;

§ фильтрация данных – уменьшение уровня шума, повышение уровня достоверности и адекватности;

§ сортировка данных – упорядочение по заданному признаку с целью удобства;

§ архивация данных – организация хранения в удобной и легкодоступной форме;

§ защита данных – комплекс мер, направленных на предотвращение утраты, воспроизведения и модификации данных;

§ транспортировка данных – прием и передача данных между участниками информационного процесса;

§ преобразование данных – перевод их из одной формы в другую в связи с изменением, например, вида носителя.

 

www.ronl.ru

Реферат - Виды информации - Биология

 

Описанный подход к измерению информации, позволяя сравнительно хорошо решать некоторые проблемы технических систем связи, не решает многих проблем, связанных с описанием информационных процессов в более сложных системах. Покажем это на примере.

Человек (потребитель информации), находящийся далеко от дома, имеет канал связи с ограниченными возможностями (1 сообщение в день). Потребитель получает информацию о том, что для него на входе канала есть два сообщения: одно больше, другое меньше, и надо выбрать, какое он желает получить первым. Можно ожидать, что человек захочет получить сначала бόльшее сообщение. Сообщение оказывается таким: «Кошка родила». Количество полученной информации, исходя из 5 бит на букву, составит 55 бит. На следующий день поступает более короткая информация (35 бит): «Умер дед». Можно представить, насколько негативно отнесётся наш пользователь к такой системе оценки информации. А если вторым сообщением окажется: «Идёт цунами» (50 бит), то наш герой к моменту получения информации, может уже вообще распрощаться с жизнью.

Пример показывает, что информация, измеренная рассмотренным вероятностным (статистическим) методом, явно нуждается в дополнительных характеристиках. Такими характеристиками можно считать смысл информации, её ценность, полезность, важностью и т.д. В связи с этим имеются попытки разработать новые методы количественной оценки информации, учитывающие указанные свойства. А информация, которую мы измеряли в наших примерах с помощью вероятностного метода, получила название статистической информации.

Статистическая информация, по сути дела, является величиной, оценивающей только количество передаваемых сигналов. На вопросы, что означают эти сигналы, какой смысл они несут для принимающей системы, статистическая информация ответа не даёт.

Информацию, которая представляла бы собой оценку смысла поступающих сигналов предложено называтьсемантической информацией. Эта информация должна указывать, каким природным объектам или явлениям соответствует та или иная комбинация поступающих сигналов. Как, например, можно узнать, что одному комплексу сигналов, поступающих в мозг животного, соответствует образ хищника, а другому комплексу сигналов соответствует образ пищи.

Вопрос о методе оценки информации с точки зрения её смысла оказался весьма сложным и не разрешённым до настоящего времени. Многими авторами предложены различные формулы для вычисления семантической информации. Нот все эти формулы либо не выдерживают критики, либо являются трудными для понимания принципов их построения и практического использования.

Однако и семантическая информация совместно со статистической ещё не обеспечивают полноты описания информационного взаимодействия, поскольку соотнесение сигналов с каким-либо объектом ещё не даёт возможность оценить ценность или полезность данного объекта для воспринимающей системы. Нужен информационный показатель, который позволял бы оценивать получаемую информацию с точки зрения её практической значимости, полезности или вредности. Такой показатель предложено называть прагматической информацией.Для измерения этой информации также предлагаются различные формулы, авторы которых отмечают, что в ряде конкретных случаев прагматическую информациютрудно отличить от семантическойинформации.

Одной из наиболее удачных и понятных является формула, предложенная А.А. Харкевичем в 1960 г. [39, с.123]:

IП = log (р1/ р0), (9.7) где IП– ценность информации (или прагматическая информация),р0– вероятность достижения цели до получения информации,

р1 – вероятность достижения цели после получения информации.

В этой формуле хорошо видно, что ценность имеется, если (р1>р0). Если же вероятность р1 после получения информации остаётся без изменений (р1=р0), то ценность полученной информации равна нулю ( log 1 = 0). А если вероятность достижения цели после получения информации ещё и уменьшилась (р1<р0), то мы имеем отрицательную прагматическую информацию (логарифм числа, меньшего единицы, всегда отрицателен). Можно сказать, что мы в этом случае получили то, что называется дезинформацией, которую, оказывается, тоже можно измерить.

Хорошо было бы, если кто-нибудь ещё и объяснил, как определить р1 ир0? В указанном источнике [39] такого объяснения не даётся.

Как видим, в теории информации существуют проблемы, которые ещё не решены, а некоторые, возможно, ещё и не сформулированы. Читатель может заняться решением этих проблем, да и всех остальных, упомянутых в этой книге.

 

 

www.ronl.ru


Смотрите также