|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|
Реферат: Информация и информатика. Реферат информацияРеферат: Понятие информацияМИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ ФЕДЕРАЦИИ ФЕДЕРАЛЬНОЕ АГЕНСТВО ПО ОБРАЗОВАНИЮ РОСТОВСКИЙ ГОСУДАРСТВЕННЫЙ ЭКОНОМИСЧЕСКИЙ УНИВЕРСИТЕТ Кафедра Информатики РЕФЕРАТ на тему: «Понятие информация» Выполнил студент: Алексашин Сергей Факультета Экономика и управление на предприятии Группы 111 – зк Номер зачётной книжки 00110 Научный руководитель: Ростов – на – Дону – 2011г. План: Стр. Введение3 1.Понятие «информация»4-5 2. Архивация информации. Программы-архиваторы. 6-7 3.Текстовый процессор8 Заключение9 Литература10 Введение Революция в автоматизации делопроизводства в офисе в 80-е годы прошлого века стала реально возможна в связи с созданием и широким распространением персональных компьютеров. Персональные компьютеры в первую очередь вытеснили из обращения печатающие машинки, составляющие основу технических средств подготовки печатных документов. Преимущества компьютера, оснащенного специальным текстовым процессором (редактором), перед печатающей машинкой были явными и заключались в том, что обеспечивали значительное повышение удобства, производительности выполнения работ и, самое главное, повышение качества получаемых при этом документов. Разделение во времени этапов подготовки документа, таких, как ввод, редактирование, оформление, подготовка к печати и собственно сама печать сделали процесс создания документа более простым и технологичным. Понятие «информация» Слово «информация» происходит от латинского слова informatio, что в переводе означает сведение, разъяснение, ознакомление. Информация может существовать в виде: · текстов, рисунков, чертежей, фотографий; · световых или звуковых сигналов; · радиоволн; · электрических и нервных импульсов; · магнитных записей; · жестов и мимики; · запахов и вкусовых ощущений; · хромосом, посредством которых передаются по наследству признаки и свойства организмов и т.д. Современные компьютеры могут работать с пятью видами информации: o числовой; o текстовой; o графической; o звуковой; o видеоинформацией. Понятие «информация» является базовым в курсе информатики, невозможно дать его определение через другие, более «простые» понятия. Данное понятие используется в различных науках (информатике, кибернетике, биологии, физике и др.), при этом в каждой науке понятие «информация» связано с различными системами понятий. Информация в физике. В физике мерой беспорядка, хаоса для термодинамической системы является энтропия системы, тогда как информация (антиэнтропия) является мерой упорядоченности и сложности системы. По мере увеличения сложности системы величина энтропии уменьшается, и величина информации увеличивается. Процесс увеличения информации характерен для открытых, обменивающихся веществом и энергией с окружающей средой, саморазвивающихся систем живой природы (белковых молекул, организмов, популяций животных и так далее). Таким образом, в физике информация рассматривается как антиэнтропия или энтропия с обратным знаком. Информация в биологии. В биологии понятие «информация» связывается с целесообразным поведением живых организмов. Такое поведение строится на основе получения и использования организмом информации об окружающей среде. Понятие «информация» в биологии используется также в связи с исследованиями механизмов наследственности. Генетическая информация передается по наследству и хранится во всех клетках живых организмов. Гены представляют собой сложные молекулярные структуры, содержащие информацию о строении живых организмов. Последнее обстоятельство позволило проводить научные эксперименты по клонированию, то есть созданию точных копий организмов из одной клетки. Информация в кибернетике. В кибернетике (наука об управлении) понятие «информация» связано с процессами управления в сложных системах (в живых организмах или технических устройствах). Жизнедеятельность любого организма или нормальное функционирование технического устройства зависит от процессов управления, благодаря которым поддерживаются в необходимых пределах значения их параметров. Процессы управления включают в себя получение, хранение, преобразования и передачу информации.[1] Архивация информации Возможность уплотнения данных основана на том, что информация часто обладает избыточностью, которая зависит от вида информации. Случайная потеря 10% фотографии, скорее всего, не повлияет на ее информативность. Если на странице книги отсутствует 10% строк, то понять ее содержание уже трудно. Если взять программный код, в котором утрачено 10% информации, то восстановить его, скорее всего, уже не удастся. У этих видов данных разная избыточность. Несмотря на то, что объемы внешней памяти ЭВМ постоянно растут, потребность в архивации не уменьшается. Это объясняется тем, что архивация необходима не только для экономии места в памяти, но и для надежного хранения копий ценной информации, а также для быстрой передачи информации по сети на другие ЭВМ. Кроме того, возможность отказа магнитных носителей информации, разрушающее действие вирусов заставляет пользователей делать резервное копирование ценной информации на другие (запасные) носители информации. Процесс записи файла в архивный файл называется архивированием (упаковкой, сжатием), а извлечение файла из архива – разархивированием (распаковкой). Упакованный (сжатый) файл называется архивом. Архив содержит оглавление, позволяющее узнать, какие файлы содержатся в архиве. Программы-архиваторы. Различными разработчиками были созданы специальные программы для архивации файлов. Часть из них распространяется бесплатно, часть — на коммерческой основе (за плату), но большинство программ такого рода распространяются как “Shareware”. т.е. они могут быть получены бесплатно, но если Вы хотите их использовать постоянно, то должны выслать авторам или распространителям указанное (обычно небольшое, до 50 дол.) вознаграждение. Как правило, программы для архивации файлов позволяют помещать копии файлов на диске в сжатом виде в архивный файл, извлекать файлы из архива, просматривать оглавление архива и т.д. Разные программы отличаются форматом архивных файлов, скоростью работы, степенью сжатия файлов при помещении в архив, удобством использования. Наиболее распространенные программы-архиваторы имеют приблизительно одинаковые возможности и ни одна из них не превосходит другие по всем параметрам: одни программы работают быстрее, другие обеспечивают лучшую степень сжатия файлов. Даже если сравнивать программы только по степени сжатия, то среди них нет лидера: разные файлы лучше сжимаются разными программами. Принцип работы архиваторов основан на поиске в файле "избыточной" информации и последующем ее кодировании с целью получения минимального объема. Самым известным методом архивации файлов является сжатие последовательностей одинаковых символов. Текстовый процессор Текстовый процессор — вид прикладной компьютерной программы, предназначенной для производства (включая набор, редактирование, форматирование, иногда печать) любого вида печатной информации. Иногда текстовый процессор называют текстовым редактором второго рода. Текстовыми процессорами в 1970-е — 1980-е годы называли предназначенные для набора и печати текстов машины индивидуального и офисного использования, состоящие из клавиатуры, встроенного компьютера для простейшего редактирования текста, а также электрического печатного устройства. Позднее наименование «текстовый процессор» стало использоваться для компьютерных программ, предназначенных для аналогичного использования. Текстовые процессоры, в отличие от текстовых редакторов, имеют больше возможностей для форматирования текста, внедрения в него графики, формул, таблиц и других объектов. Поэтому они могут быть использованы не только для набора текстов, но и для создания различного рода документов, в том числе официальных. Классическим примером текстового процессора является Microsoft Word. Заключение Передача информации – очень необходимая вещь для каждого человека и всего человечества в целом. Информатизация общества в настоящее время достигает новых вершин. Это связано с возникновением новых современных информационных технологий, позволяющих человеку увеличивать объемы обрабатываемой и передаваемой информации. Главным предметом обработки и передачи информации является персональный компьютер. Все чаще передача информации между различными организациями или юридическими лицами осуществляется через локальные или глобальные компьютерные сети, что заставляет общество все глубже изучать этапы и способы передачи информации. Таким образом, тема передачи информации остается актуальной и в современном мире. Список используемой литературы: 1. Н.Угринович «Информатика и информационные технологии», Москва, 2003 года издания. 2. С.Симонович, Г.Евсеев «Занимательный компьютер», Москва, 2002 года издания. 3. Леонтьев В.П., «Новейшая энциклопедия персонального компьютера», Москва, 2003 года издания. 4. Фигурнов В.А., «ПК для начинающих», Москва, 1995 года издания. Большеви́зм (от большевик) — революционное марксистское течение политической мысли и политическое движение, связанное с формированием партии социальной революции, как авангарда рабочего класса, последовательным интернационализмом и постановкой социального эксперимента: взятием власти до созревания всех необходимых предпосылок[1]. Зародилось в начале XX века и было связанно с РСДРП(б). Большевизм существует, как течение политической мысли и как политическая партия, с 1903 года. — Ленин В.И. Детская болезнь «левизны» в коммунизме // Ленин В.И. : Полн.собр.соч. — Т. 41. — С. 6.[2] текст Основным теоретиком большевизма был Ленин, кроме него к теоретикам большевизма относятся Николай Бухарин, Евгений Преображенский, Лев Троцкий и Роза Люксембург[1]. Некоторые исследователи[3] к большевистской теории относят и деятельность И. В. Сталина, возглавлявшего Всесоюзную коммунистическую партию (большевиков) и одновременно обладавшего всей полнотой государственной власти в СССР. Однако другие (как современники Сталина, так и более поздние) не смешивают собственно «большевизм» и «сталинизм», считая их разнонаправленными (революционным и термидорианским) явлениями[4]. Выражение «большевизм» как и впоследствии «коммунизм» устоялось в западной историографии как взгляд на совокупность особенностей советского режима в определенный политический период. В настоящее время самоназвание «большевики» активно используют различные группы сталинистов и троцкистов. [1]Н.Угринович «Информатика и информационные технологии», М.: 2003г.-с.58 superbotanik.net Реферат - Информация и информатикасодержание
ВВЕДЕНИЕ. Фундаментальной чертой цивилизации является рост производства, потребления и накопления информации во всех отраслях человеческой деятельности. Вся жизнь человека, так или иначе, связана получением, накоплением и обработкой информации. Что бы человек ни делал: читает ли он книгу, смотрит ли он телевизор, разговаривает, он постоянно и непрерывно получает и обрабатывает информацию. Для XXI века характерна небывалая скорость развития науки, техники и новых технологий. Так от изобретения книгопечатания (середина XV века) до изобретения радиоприемника (1895г.) прошло около 440 лет, а между изобретением радио и телевидения — около 30 лет. Разрыв во времени между изобретением транзистора и интегральной схемы составил всего 5 лет. В области накопления научной информации её объем начиная с XVII в. удваивался примерно каждые 10 — 15 лет. Поэтому одной из важнейших проблем человечества является лавинообразный поток информации в любой отрасли его жизнедеятельности. Подсчитано, например, что в настоящее время специалист должен тратить около 80% своего рабочего времени, чтобы уследить за всеми новыми печатными работами в его области деятельности. Увеличение информации и растущий спрос на неё обусловили появление отрасли, связанной с автоматизацией обработки информации – информатики. Но для перехода непосредственно к науке информатике, необходимо сказать о самой информации. Мы живём в материальном мире. Всё, что нас окружает, и с чем мы сталкиваемся, относится либо к физическим телам, либо физическим полям. Все виды энергообмена сопровождаются появлением сигналов, т.е., все сигналы имеют в своей основе материальную энергетическую природу. При взаимодействии сигналов с физическими телами, в них возникают определённые изменения свойств – это явление называется регистрацией сигналов. В результате образуются данные – зарегистрированные сигналы. Все мы непосредственно участвуем в информационном процессе. Любой информационный процесс будет происходить по следующей схеме: Источниками (объектами) информации являются физические тела, поля или виртуальные объекты. Источники информации проявляются в виде сигналов. Сообщением является форма представления информации в виде, понимаемом получателем. Получатель информации – человек, понимающий эту информацию или техническая система. Несмотря на то, что с понятием информации мы сталкиваемся ежедневно, строго и общепринятого её определения до сих пор не существует, поэтому вместо определения обычно используют понятие об информации. Понятие об информации, введённое в рамках одной научной дисциплины, может опровергаться конкретными примерами и фактами, полученными в рамках другой дисциплины. Для информатики как для технической науки понятие информации не может основываться на таких антропоцентрических понятиях, как знание, и не может опираться только на объективность фактов и свидетельств. Средства вычислительной техники обладают способностью обрабатывать информацию автоматически, без участия человека. Эти средства могут работать с искусственной, абстрактной и даже с ложной информацией, не имеющей объективного отражения ни в природе, ни в обществе. Итак, информация – продукт взаимодействия данных и адекватных им методов. Свойства информации Как и всякий объект, информация обладает свойствами. Характерной отличительной особенность информации от других объектов природы и общества, является дуализм: на свойства информации влияют как свойства данных, составляющих её содержательную часть, так и свойства методов, взаимодействующих с данным в ходе информационного процесса. По окончании процесса свойства информации переносятся на свойства новых данных, т.е. свойства методов могут переходить на свойства данных. С точки зрения информатики наиболее важными представляются следующие свойства: объективность, полнота, достоверность, адекватность, доступность и актуальность информации. Понятие объективности информации является относительным, это понятно, если учесть, что методы являются субъективными. Более объективной принято считать ту информацию, в которую методы вносят меньший субъективные элемент. Полнота информации во многом характеризует её качество и определяет достаточность данных для принятия решений или для создания новых данных на основе имеющихся. Чем полнее данные, тем шире диапазон методов, которые можно использовать, тем проще подобрать метод, вносящий минимум погрешностей в ход информационного процесса. Данные возникают в момент регистрации сигналов, но не все сигналы являются «полезными» — всегда присутствует какой-то уровень посторонних сигналов, в результате чего полезные данные сопровождаются определённым уровнем «информационного шума». Если полезный сигнал зарегистрирован более чётко, чем посторонние сигналы, достоверность информации может быть более высокой. При увеличении уровня шумов достоверность информации снижается. В этом случае при передаче того же количества информации требуется использовать либо больше данных, либо более сложные методы. Адекватность информации – степень соответствия реальному объективному состоянию дела. Неадекватная информация может образовываться при создании новой информации на основе неполных или недостоверных данных. Однако и полные, и достоверные данные могут приводить к созданию неадекватной информации в случае применения к ним неадекватных методов. Доступность информации – мера возможности получить ту или иную информацию. На степень доступности информации влияют одновременно как доступность данных, так и доступность адекватных методов для их интерпретации. Отсутствие доступа к данным или отсутствие адекватных методов обработки приводят к одинаковому результату: информация оказывается недоступной. Актуальность информации – степень соответствия информации текущему моменту времени. Нередко с актуальностью, как и с полнотой, связывают коммерческую ценность информации. Поскольку информационные процессы растянуты во времени, то достоверная и адекватная, но устаревшая информация может приводить к ошибочным решениям. Необходимость поиска (или разработки) адекватного метода для работы с данными может приводить к такой задержке получения информации, что она становится неактуальной и ненужной. На этом, в частности, основаны многие современные системы шифрования данных с открытым ключом. Лица, не владеющие ключом (методом) для чтения данных, могут заняться поиском ключа, поскольку алгоритм его работы доступен, но продолжительность этого поиска столь велика, что за время работы информация теряет актуальность и, естественно связанную с ней практическую ценность. Носители данных Данные – диалектическая составная часть информации. Они представляют собой зарегистрированные сигналы. При этом физический метод регистрации может быть любым: механическое перемещение физических тел, изменение их формы или параметров качества поверхности, изменение электрических, магнитных, оптических характеристик, химического состава или характера химических связей, изменение состояние электронной системы и многое другое. В соответствии с методом регистрации данные могут храниться транспортироваться на носителях различных видов. Самым распространённым носителем данных, хотя и не самым экономичным является бумага. На бумаге данные регистрируются путём изменения оптических характеристик её поверхности. Изменение оптических свойств используется также в устройствах осуществляющих запись лазерным лучом на пластмассовых носителях с отражающим покрытием (CD-ROM). В качестве носителей, использующих изменение магнитных свойств, можно назвать магнитные ленты и диски. Регистрация данных путём изменения химического состава поверхностных веществ носителя широко используется в фотографии. На биохимическом уровне происходит накопление и передача данных в живой природе. От свойств носителя нередко зависят такие свойства информации, как полнота, доступность и достоверность. Задача преобразования данных с целью смены носителя относится к одной из важнейших задач информатики. В структуре стоимости вычислительных систем устройства для ввода и вывода данных, работающие с носителями информации, составляют до половины стоимости аппаратных средств. Операции с данными В ходе информационного процесса данные преобразуются из одного вида в другой с помощью методов. Обработка данных включает в себя множество различных операций. По мере развития научно-технического прогресса и общего усложнения связей в человеческом обществе трудозатраты на обработку данных неуклонно возрастают. Прежде всего, это связано с постоянным усложнением условий управления производством и обществом. Второй фактор, также вызывающий общее увеличение объёмов обрабатываемых данных, тоже связан с НТП, а именно с быстрыми темпами появления и внедрения новых носителей данных, средств их хранения и доставки. Основные операции, которые можно производить с данными: — сбор данных – накопление информации с целью обеспечения достаточной полноты для принятия решений; — формализация данных – приведения данных, поступающих из разных источников, к одинаковой форме, чтобы сделать их сопоставимыми между собой, т.е. повысить их уровень доступности; — фильтрация данных – отсеивание лишних данных, в которых нет необходимости для принятия решений; при этом должен уменьшатся уровень «шума», а достоверность и адекватность данных должны возрастать; — сортировка данных – упорядочивание данных по заданному признаку с целью удобства использования; повышает доступность информации; — архивация данных — организация хранения данных в удобной и легкодоступной форме; служит для снижения экономических затрат по хранению данных и повышает общую надёжность информационного процесса в целом; — защита данных – комплекс мер, направленных на предотвращение утраты, воспроизведения и модификации данных; — приём передача данных между удалёнными участниками информационного процесса; при этом источник данных в информатике принято называть сервером, а потребителя – клиентом; — преобразование данных – перевод данных из одной формы в другую или из одной структуры в другую. Преобразование данных часто связано с изменением типа носителя. Итак, работа с информацией может иметь огромную трудоёмкость, а, следовательно, её надо автоматизировать. Кодирование данных двоичным кодом Для автоматизации работы с данными, относящимися к различным типам очень важно унифицировать их форму представления – для этого обычно используется приём кодирования, т.е. выражение данных одного типа через данные другого типа. Естественные человеческие языки – системы кодирования понятий для выражения мыслей посредством речи. К языкам близко примыкают азбуки – системы кодирования компонентов языка с помощью графических символов. Своя системы существует и в вычислительной технике – она называется двоичным кодированием и основана на представлении данных последовательностью всего двух знаков: 0 и 1. Эти знаки называют двоичными цифрами, по-английски – binary digit или сокращённо bit (бит). Одним битом могут быть выражены два понятия: 0 или 1 (да или нет, чёрное или белое, истина или ложь и т.п.). Если количество битов увеличить до двух, то уже можно выразить четыре различных понятия. Тремя битами можно закодировать восемь различных значений. Кодирование целых и действительных чисел Целые числа кодируются двоичным кодом достаточно просто — необходимо взять целое число и делить его пополам до тех пор, пока частное не будет равно единице. Совокупность остатков от каждого деления, записанная справа налево вместе с последним частным, и образует двоичный аналог десятичного числа. Для кодирования целых чисел от 0 до 255 достаточно иметь 8 разрядов двоичного кода (8 бит). 16 бит позволяют закодировать целые числа от 0 до 65535, а 24 – уже более 16,5 миллионов различных значений. Для кодирования действительных чисел используют 80-разрядное кодирование. При этом число предварительно преобразовывают в нормализованную форму: 3,1414926 = 0,31415926 × 101 300 000 = 0,3 × 106 Первая часть числа называется мантиссой, а вторая – характеристикой. Большую часть из 80 бит отводят для хранения мантиссы (вместе со знаком) и некоторое фиксированное количество разрядов отводят для хранения характеристики. Кодирование текстовых данных Если каждому символу алфавита сопоставить определённое целое число, то с помощью двоичного кода можно кодировать текстовую информацию. Восьми двоичных разрядов достаточно для кодирования 256 различных символов. Это хватит, чтобы выразить различными комбинациями восьми битов все символы английского и русского языков, как строчные, так и прописные, а также знаки препинания, символы основных арифметических действий и некоторые общепринятые специальные символы. Технически это выглядит очень просто, однако всегда существовали достаточно веские организационные сложности. В первые годы развития вычислительной техники они были связаны с отсутствием необходимых стандартов, а в настоящее время вызваны, наоборот, изобилием одновременно действующих и противоречивых стандартов. Для того чтобы весь мир одинаково кодировал текстовые данные, нужны единые таблицы кодирования, а это пока невозможно из-за противоречий между символами национальных алфавитов, а также противоречий корпоративного характера. Для английского языка, захватившего де-факто нишу международного средства общения, противоречия уже сняты. Институт стандартизации США ввёл в действие систему кодирования ASCII (American Standard Code for Information Interchange – стандартный код информационного обмена США). В системе ASCII закреплены две таблицы кодирования базовая и расширенная. Базовая таблица закрепляет значения кодов от 0 до 127, а расширенная относится к символам с номерами от 128 до 255. Первые 32 кода базовой таблицы, начиная с нулевого, отданы производителям аппаратных средств. В этой области размещаются управляющие коды, которым не соответствуют ни какие символы языков. Начиная с 32 по 127 код размещены коды символов английского алфавита, знаков препинания, арифметических действий и некоторых вспомогательных символов. Кодировка символов русского языка, известная как кодировка Windows-1251, была введена «извне» — компанией Microsoft, но, учитывая широкое распространение операционных систем и других продуктов этой компании в России, она глубоко закрепилась и нашла широкое распространение. Другая распространённая кодировка носит название КОИ-8 (код обмена информацией, восьмизначный) – её происхождение относится к временам действия Совета Экономической Взаимопомощи государств Восточной Европы. Сегодня кодировка КОИ – 8 имеет широкое распространение в компьютерных сетях на территории России и в российском секторе Интернета. Международный стандарт, в котором предусмотрена кодировка символов русского языка, носит названия ISO (International Standard Organization – Международный институт стандартизации). На практике данная кодировка используется редко. Универсальная система кодирования текстовых данных Если проанализировать организационные трудности, связанные с созданием единой системы кодирования текстовых данных, то можно прийти к выводу, что они вызваны ограниченным набором кодов (256). В то же время, очевидно, что если, кодировать символы не восьмиразрядными двоичными числами, а числами с большим разрядом то и диапазон возможных значений кодов станет на много больше. Такая система, основанная на 16-разрядном кодировании символов, получила название универсальной – UNICODE. Шестнадцать разрядов позволяют обеспечить уникальные коды для 65 536 различных символов – этого поля вполне достаточно для размещения в одной таблице символов большинства языков планеты. Несмотря на тривиальную очевидность такого подхода, простой механический переход на данную систему долгое время сдерживался из-за недостатков ресурсов средств вычислительной техники (в системе кодирования UNICODE все текстовые документы становятся автоматически вдвое длиннее). Во второй половине 90-х годов технические средства достигли необходимого уровня обеспечения ресурсами, и сегодня мы наблюдаем постепенный перевод документов и программных средств на универсальную систему кодирования. Ниже приведены таблицы кодировки ASCII. Кодирование графических данных Если рассмотреть с помощью увеличительного стекла чёрно-белое графическое изображение, напечатанное в газете или книге, то можно увидеть, что оно состоит из мельчайших точек, образующих характерный узор, называемый растром. Поскольку линейные координаты и индивидуальные свойства каждой точки (яркость) можно выразить с помощью целых чисел, то можно сказать, что растровое кодирование позволяет использовать двоичный код для представления графических данных. Общепринятым на сегодняшний день считается представление чёрно-белых иллюстраций в виде комбинации точек с 256 градациями серого цвета, и, таким образом, для кодирования яркости любой точки обычно достаточно восьмиразрядного двоичного числа. Для кодирования цветных графических изображений применяется принцип декомпозиции произвольного цвета на основные составляющие. В качестве таких составляющих используют три основные цвета: красный (Red), зелёный (Green) и синий (Blue). На практике считается, что любой цвет, видимый человеческим глазом, можно получить механического смешения этих трёх основных цветов. Такая система кодирования получила названия RGB по первым буквам основных цветов. Режим представления цветной графики с использованием 24 двоичных разрядов называется полноцветным (True Color). Каждому из основных цветов можно поставить в соответствие дополнительный цвет, т.е. цвет, дополняющий основной цвет до белого. Нетрудно заметить, что для любого из основных цветов дополнительным будет цвет, образованный суммой пары остальных основных цветов. Соответственно дополнительными цветами являются: голубой (Cyan), пурпурный (Magenta) и жёлтый (Yellow). Принцип декомпозиции произвольного цвета на составляющие компоненты можно применять не только для основных цветов, но и для дополнительных, т.е. любой цвет можно представить в виде суммы голубой, пурпурной и жёлтой составляющей. Такой метод кодирования цвета принят в полиграфии, но в полиграфии используется ещё и четвёртая краска – чёрная (Black). Поэтому данная система кодирования обозначается четырьмя буквами CMYK (чёрный цвет обозначается буквой К, потому, что буква В уже занята синим цветом), и для представления цветной графики в этой системе надо иметь 32 двоичных разряда. Такой режим также называется полноцветным. Если уменьшить количество двоичных разрядов, используемых для кодирования цвета каждой точки, то можно сократить объём данных, но при этом диапазон кодируемых цветов заметно сокращается. Кодирование цветной графики 16-разрядными двоичными числами называется режимом High Color. При кодировании информации о цвете с помощью восьми бит данных можно передать только 256 оттенков. Такой метод кодирования цвета называется индексным. Кодирование звуковой информации Приёмы и методы работы со звуковой информацией пришли в вычислительную технику наиболее поздно. К тому же, в отличие от числовых, текстовых и графических данных, у звукозаписей не было столь же длительной и проверенной истории кодирования. В итоге методы кодирования звуковой информации двоичным кодом далеки от стандартизации. Множество отдельных компаний разработали свои корпоративные стандарты, но среди них можно выделить два основных направления. 1) Метод FM (Frequency Modulation) основан та том, что теоретически любой сложный звук можно разложить на последовательность простейших гармонических сигналов разных частот, каждый из которых представляет собой правильную синусоиду, а, следовательно, может быть описан числовыми параметрами, т.е. кодом. В природе звуковые сигналы имеют непрерывный спектр, т.е. являются аналоговыми. Их разложение в гармонические ряды и представление в виде дискретных цифровых сигналов выполняют специальный устройства – аналогово-цифровые преобразователи (АЦП). Обратное преобразование для воспроизведения звука, закодированного числовым кодом, выполняют цифро-аналоговые преобразователи (ЦАП). При таких преобразованиях неизбежны потери информации, связанные с методом кодирования, поэтому качество звукозаписи обычно получается не вполне удовлетворительным и соответствует качеству звучания простейших электромузыкальных инструментов с окрасом характерным для электронной музыки. В то же время данный метод копирования обеспечивает весьма компактный код, поэтому он нашёл применение ещё в те годы, когда ресурсы средств вычислительной техники были явно недостаточны. 2) Метод таблично волнового (Wave-Table) синтеза лучше соответствует современному уровню развития техники. В заранее подготовленных таблицах хранятся образцы звуков для множества различных музыкальных инструментах. В технике такие образцы называют сэмплами. Числовые коды выражают тип инструмента, номер его модели, высоту тона, продолжительность и интенсивность звука, динамику его изменения, некоторые параметры среды, в которой происходит звучание, а также прочие параметры, характеризующие особенности звучания. Поскольку в качестве образцов исполняются реальные звуки, то его качество получается очень высоким и приближается к качеству звучания реальных музыкальных инструментов. Основные структуры данных Работа с большими наборами данных автоматизируется проще, когда данные упорядочены, т.е. образуют заданную структуру. Существуют три основных типа структур данных: линейная, иерархическая и табличная. Самая простейшая структура данных – линейная. Она представляет собой список. Для быстрого поиска информации существует иерархическая структура. Для больших массив поиск данных в иерархической структуре намного проще, чем в линейной, однако и здесь необходима навигация, связанная с необходимостью просмотра. Основным недостатком иерархических структур данных является увеличенный размер пути доступа. Очень часто бывает так, что длина маршрута оказывается больше, чем длина самих данных, к которым он ведёт. Поэтому в информатике применяют методы для регуляризации иерархических структур с тем, чтобы сделать путь доступа компактным. Один из методов получил название дихотомии. В иерархической структуре, построенной методом дихотомии, путь доступа к любому элементу можно представить как через рациональный лабиринт с поворотами налево (0) и направо (1) и, таким образом, выразить путь доступа в виде компактной двоичной записи. Единицы измерения данных Наименьшей единицей после бита является байт (1 байт = 8 бит = 1 символ). Поскольку одним байтом, как правило, кодируется один символ текстовой информации, то для текстовых документов размер в байтах соответствует лексическому объёму в символах. Более крупная единица измерения килобайт (1 Кб = 1024 байт). Более крупные единицы образуются добавлением префиксов мега-, гига-, тера-; в более крупных единицах пока нет практической надобности: 1 Мб = 1048580 байт; 1 Гб = 10737740000 байт. 1 Тб = 1024 Гб. Информатика и её задачи Информатика – область человеческой деятельности, связанная с процессами преобразования информации с помощью компьютеров и взаимодействия со средой их применения. Сама информатика появилась с появлением персональных компьютеров. В переводе с французского языка информатика – автоматическая обработка информации. В информатике всё жёстко ориентировано на эффективность. Вопрос, как сделать ту или иную операцию, для информатики является важным, но не основным. Основным же является вопрос, как сделать данную операцию эффективно. Предмет информатики составляет следующие понятия: — аппаратное обеспечение средств вычислительной техники; — программное обеспечение средств вычислительной техники; — средства взаимодействия аппаратного и программного обеспечения; — средства взаимодействия человека с аппаратными и программными средствами. Итак, в информатике особое внимание уделяется вопросам взаимодействия. Для этого было даже выдвинуто специальное понятие – интерфейс. Пользовательским интерфейсом называют методы и средства взаимодействия человека с аппаратными и программными средствами. Соответственно, существуют аппаратные, программные и аппаратно-программные интерфейсы. Основной задачей информатики является систематизация приёмов и методов работы с аппаратными и программными средствами вычислительной техники. Цель систематизации состоит в выделении, внедрении и развитии передовых, наиболее эффективных технологий, в автоматизации этапов работы с данными, а также в методическом обеспечении новых технологических исследований. В составе основной задачи информатики сегодня можно выделить следующие направления для практических приложений: — архитектура вычислительных систем; — интерфейсы вычислительных систем; — программирование; — преобразование данных; — защита информации; — автоматизация; — стандартизация. На всех этапах технического обеспечения информационных процессов для информатики ключевым понятием является эффективность. Для аппаратных средств под эффективностью понимают отношение производительности оборудования к его стоимости. Для программного обеспечения под эффективностью понимают производительность лиц, работающих с ними (пользователей). В программировании под эффективностью понимают объём программного кода, создаваемого программистами в единицу времени. Истоки и предпосылки информатики Кроме Франции термин информатика используется в ряде стран Восточной Европы. В то же время, в большинстве стран Западной Европы и США используется другой термин – наука о средствах вычислительной техники (Computer Science). В качестве источников информатики обычно называют две науки – документалистику и кибернетику. Документалистика сформировалась в конце XIX века в связи с бурным развитием производственных отношений. Её целью являлось повышение эффективность документооборота. Основы близкой к информатике технической науки кибернетики были заложены трудами по математической логике американского математика Норберта Винера, опубликованными в 1948 году, а само названия происходит от греческого слова kyberneticos – искусный в управлении. Впервые термин кибернетика ввёл французский физик Ампер в первой половине XIX века. Он занимался разработкой единой системы классификации всех наук и обозначил этим термином гипотетическую науку об управлении, которой в то время не существовало, но которая, по его мнению, должна была существовать. Сегодня предметом кибернетики являются принципы построения и функционирования систем автоматического управления, а основными задачами – методы моделирования процесса принятия решений техническими средствами. На практике кибернетика во многих случаях опирается на те же программные и аппаратные средства вычислительной техники, что и информатика, а информатика, в свою очередь, заимствует у кибернетики математическую и логическую базу для развития этих средств. СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ: 1. Леонтьев В.П. ПК: универсальный справочник пользователя Москва 2000. 2. Каталог «Весь компьютерный мир» декабрь 1995. 3. Симонович С.В. Информатика. Базовый курс 2000. 4. Макарова Информатика. Учебник для ВУЗов М.: Дрофа 2000. www.ronl.ru Реферат - Классификация и использование информацииСодержание Введение 1. Информация: понятия, виды, свойства 1.1 Понятие информации 1.2 Свойства информации 2. Информация в других областях наук 2.1 Фильтрация сенсорной информации 2.2 Биологическая целесообразность 2.3 Асимметричность информации 2.4 Информация и рынок Список литературы Введение Понятие информации является одним из фундаментальных в современной науке вообще и базовым для информатики. Информацию наряду с веществом и энергией рассматривают в качестве важнейшей сущности мира, в котором мы живем. Однако, если задаться целью формально определить понятие «информация», то сделать это будет чрезвычайно сложно. В простейшем бытовом понимании с термином «информация» обычно ассоциируются некоторые сведения, данные, знания и т.п. Информация передается в виде сообщений, определяющих форму и представление передаваемой информации. Примерами сообщений являются музыкальное произведение; телепередача; команды регулировщика на перекрестке; текст, распечатанный на принтере; данные, полученные в результате работы составленной вами программы и т.д. При этом предполагается, что имеются «источник информации» и «получатель информации». Сообщение от источника к получателю передается посредством какой-нибудь среды, являющейся в таком случае «каналом связи». Так, при передаче речевого сообщения в качестве такого канала связи можно рассматривать воздух, в котором распространяются звуковые волны, а в случае передачи письменного сообщения (например, текста, распечатанного на принтере) каналом сообщения можно считать лист бумаги, на котором напечатан текст. Человеку свойственно субъективное восприятие информации через некоторый набор ее свойств: важность, достоверность, своевременность, доступность, «больше-меньше» и т.д. Использование терминов «больше информации» или «меньше информации» подразумевает некую возможность ее измерения (или хотя бы количественного соотнесения). При субъективном восприятии измерение информации возможно лишь в виде установления некоторой субъективной порядковой шкалы для оценки «больше-меньше». При объективном измерении количества информации следует заведомо отрешиться от восприятия ее с точки зрения субъективных свойств, примеры которых перечислены выше. Более того, не исключено, что не всякая информация будет иметь объективно измеряемое количество. Чтобы сообщение было передано от источника к получателю необходима некоторая материальная субстанция — носитель информации. Сообщение, передаваемое с помощью носителя — сигнал. В общем случае сигнал — это изменяющийся во времени физический процесс. Та из характеристик процесса, которая используется для представления сообщений, называется параметром сигнала. В случае, когда параметр сигнала принимает последовательное во времени конечное число значений (при этом все они могут быть пронумерованы), сигнал называется дискретным, а сообщение, передаваемое с помощью таких сигналов — дискретным сообщением. Если же источник вырабатывает непрерывное сообщение (соответственно параметр сигнала — непрерывная функция от времени), то соответствующая информация называетсянепрерывной. Примеры дискретного сообщения — текст книги, непрерывного сообщения — человеческая речь, передаваемая модулированной звуковой волной; параметром сигнала в этом случае является давление, создаваемое этой волной в точке нахождения приемника — человеческого уха. Непрерывное сообщение может быть представлено непрерывной функцией, заданной на некотором интервале. Непрерывное сообщение можно преобразовать в дискретное (такая процедура называется дискретизацией). Из бесконечного множества значений параметра сигнала выбирается их определенное число, которое приближенно может характеризовать остальные значения. Для этого область определения функции разбивается на отрезки равной длины и на каждом из этих отрезков значение функции принимается постоянным и равным, например, среднему значению на этом отрезке. В итоге получим конечное множество чисел. Таким образом, любое непрерывное сообщение может быть представлено как дискретное, иначе говоря, последовательностью знаков некоторого алфавита. Возможность дискретизации непрерывного сигнала с любой желаемой точностью (для возрастания точности достаточно уменьшить шаг) принципиально важна с точки зрения информатики. Компьютер — цифровая машина, т.е. внутреннее представление информации в нем дискретно. Дискретизация входной информации (если она непрерывна) позволяет сделать ее пригодной для компьютерной обработки. 1. Информация: понятия, виды, свойства 1.1 Понятие информации В литературе можно найти достаточно много определений термина «информация», отражающих различные подходы к толкованию этого понятия. В Федеральном законе Российской Федерации «Об информации, информатизации и защите информации» дается следующее определение этого термина: «информация – сведения о лицах, предметах, фактах, событиях, явлениях и процессах независимо от формы их представления». Толковый словарь русского языка Ожегова приводит 2 определения слова «информация»: 1. Сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством. 2. Сообщения, осведомляющие о положении дел, о состоянии чего-нибудь. (Научно-техническая и газетная информации, средства массовой информации – печать, радио, телевидение, кино). Информация и ее свойства являются объектом исследования целого ряда научных дисциплин, таких как теория информации (математическая теория систем передачи информации), кибернетика (наука о связи и управлении в машинах и животных, а также в обществе и человеческих существах), семиотика (наука о знаках и знаковых системах), теория массовой коммуникации (исследование средств мас-совой информации и их влияния на общество), информатика (изучение процессов сбора, преобразования, хранения, защиты, поиска и передачи всех видов информации и средств их автоматизированной обработки), соционика (теория информационного метаболизма индивидуальной и социальной психики), информодинамика (наука об открытых информационных системах), информациология (наука о получении, сохранении и передаче информации для различных множеств объектов) и т.д. В информатике наиболее часто используется следующее определение этого термина: Информация — это осознанные сведения об окружающем мире, которые являются объектом хранения, преобразования, передачи и использования. Сведения — это знания, выраженные в сигналах, сообщениях, известиях, уведомлениях и т.д. Каждого человека в мире окружает море информации различных видов. Стремление зафиксировать, сохранить надолго свое восприятие информации было всегда свойственно человеку. Мозг человека хранит множество информации, и использует для хранения ее свои способы, основа которых — двоичный код, как и у компьютеров. Человек всегда стремился иметь возможность поделиться своей информацией с другими людьми и найти надежные средства для ее передачи и долговременного хранения. Для этого в настоящее время изобретено множество способов хранения информации на внешних (относительно мозга человека) носителях и ее передачи на огромные расстояния. Основные виды информации по ее форме представления, способам ее кодирования и хранения, что имеет наибольшее значение для информатики, это: графическая или изобразительная — первый вид, для которого был реализован способ хранения информации об окружающем мире в виде наскальных рисунков, а позднее в виде картин, фотографий, схем, чертежей на бумаге, холсте, мраморе и др. материалах, изображающих картины реального мира; звуковая — мир вокруг нас полон звуков и задача их хранения и тиражирования была решена с изобретение звукозаписывающих устройств в 1877 г.; ее разновидностью является музыкальная информация – для этого вида был изобретен способ кодирования с использованием специальных символов, что делает возможным хранение ее аналогично графической информации; текстовая – способ кодирования речи человека специальными символами – буквами, причем разные народы имеют разные языки и используют различные наборы букв для отображения речи; особенно большое значение этот способ приобрел после изобретения бумаги и книгопечатания; числовая – количественная мера объектов и их свойств в окружающем мире; особенно большое значение приобрела с развитием торговли, экономики и денежного обмена; аналогично текстовой информации для ее отображения используется метод кодирования специальными символами – цифрами, причем системы кодирования (счисления) могут быть разными; видеоинформация – способ сохранения «живых» картин окружающего мира, появившийся с изобретением кино. Существуют также виды информации, для которых до сих пор не изобретено способов их кодирования и хранения – это тактильная информация, передаваемая ощущениями, органолептическая, передаваемая запахами и вкусами и другие виды, для которых современная наука даже не нашла признанных всеми терминов определения (например, экстрасенсорная информация). Для передачи информации на большие расстояния первоначально использовались кодированные световые сигналы, с изобретением электричества – передача закодированного определенным образом сигнала по проводам, позднее – с использованием радиоволн. Создателем общей теории информации и основоположником цифровой связи считается Клод Шеннон (Claude Shannon). Всемирную известность ему принес фундаментальный труд 1948 года – «Математическая теория связи» (A Mathematical Theory of Communication), в котором впервые обосновывается возможность применения двоичного кода для передачи информации. С появлением компьютеров (или, как их вначале называли в нашей стране, ЭВМ – электронные вычислительные машины) вначале появилось средство для обработки числовой информации. Однако в дальнейшем, особенно после широкого распространения персональных компьютеров (ПК), компьютеры стали использоваться для хранения, обработки, передачи и поиска текстовой, числовой, изобразительной, звуковой и видеоинформации. С момента появления первых персональных компьютеров – ПК (80-е годы 20 века) – до 80% их рабочего времени посвящено работе с текстовой информацией. Хранение информации при использовании компьютеров осуществляется на магнитных дисках или лентах, на лазерных дисках (CD и DVD), специальных устройствах энергонезависимой памяти (флэш-память и пр.). Эти методы постоянно совершенствуются, изобретаются новые устройства и носители информации. Обработку информации (воспроизведение, преобразование, передача, запись на внешние носители) выполняет процессор компьютера. С помощью компьютера возможно создание и хранение новой информации любых видов, для чего служат специальные программы, используемые на компьютерах, и устройства ввода информации. Особым видом информации в настоящее время можно считать информацию, представленную в глобальной сети Интернет. Здесь используются особые приемы хранения, обработки, поиска и передачи распределенной информации больших объемов и особые способы работы с различными видами информации. Постоянно совершенствуется программное обеспечение, обеспечивающее коллективную работу с информацией всех видов. 1.2 Свойства информации Как и всякий объект, информация обладает свойствами. Характерной отличительной особенность информации от других объектов природы и общества, является дуализм: на свойства информации влияют как свойства исходных данных, составляющих ее содержательную часть, так и свойства методов, фиксирующих эту информации. С точки зрения информатики наиболее важными представляются следующие общие качественные свойства: объективность, достоверность, полнота, точность, актуальность, полезность, ценность, своевременность, понятность, доступность, краткость и пр. 1. Объективность информации. Объективный – существующий вне и независимо от человеческого сознания. Информация – это отражение внешнего объективного мира. Информация объективна, если она не зависит от методов ее фиксации, чьего-либо мнения, суждения. Пример. Сообщение «На улице тепло» несет субъективную информацию, а сообщение «На улице 22°С» – объективную, но с точностью, зависящей от погрешности средства измерения. Объективную информацию можно получить с помощью исправных датчиков, измерительных приборов. Отражаясь в сознании конкретного человека, информация перестает быть объективной, так как, преобразовывается (в большей или меньшей степени) в зависимости от мнения, суждения, опыта, знаний конкретного субъекта. 2. Достоверность информации. Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Достоверная информация помогает принять нам правильное решение. Недостоверной информация может быть по следующим причинам: — преднамеренное искажение (дезинформация) или непреднамеренное искажение субъективного свойства; — искажение в результате воздействия помех («испорченный телефон») и недостаточно точных средств ее фиксации. 3. Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и принятия решений. Неполная информация может привести к ошибочному выводу или решению. 4. Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т. п. 5. Актуальность информации – важность для настоящего времени, злободневность, насущность. Только вовремя полученная информация может быть полезна. 6. Полезность (ценность) информации. Полезность может быть оценена применительно к нуждам конкретных ее потребителей и оценивается по тем задачам, которые можно решить с ее помощью. Самая ценная информация – объективная, достоверная, полная, и актуальная. При этом следует учитывать, что и необъективная, недостоверная информация (например, художественная литература), имеет большую значимость для человека. Социальная (общественная) информация обладает еще и дополнительными свойствами: имеет семантический (смысловой) характер, т. е. понятийный, так как именно в понятиях обобщаются наиболее существенные при-знаки предметов, процессов и явлений окружающего мира. имеет языковую природу (кроме некоторых видов эстетической информации, например изобразительного искусства). Одно и то же содержание может быть выражено на разных естественных (разговорных) языках, записано в виде математических формул и т. д. С течением времени количество информации растет, информация накапливается, происходит ее систематизация, оценка и обобщение. Это свойство назвали ростом и кумулированием информации. (Кумуляция – от лат; cumulatio – увеличение, скопление). Старение информации заключается в уменьшении ее ценности с течением времени. Старит информацию не само время, а появление новой информации, которая уточняет, дополняет или отвергает полностью или частично более раннюю. Научно-техническая информация стареет быстрее, эстетическая (произведения искусства) – медленнее. Логичность, компактность, удобная форма представления облегчает понимание и усвоение информации. 2. Информация в других областях наук 2.1 Фильтрация сенсорной информации Фильтрация сенсорной информации — фильтрация афферентных сигналов нервной системой. В результате такой фильтрации на определённые уровни обработки поступает только часть полученной предшествующими уровнями сенсорной информации. В английской литературе используется термин sensory gating (от английского gate, ворота), использующий сравнение фильтра информации с воротами, которые могут пропускать или блокировать сенсорные сигналы. Фильтрация происходит на разных уровнях нервной системы — в спинном мозге, стволе мозга, таламусе, коре больших полушарий и других структурах. Функции этой регуляции тоже разные, так как сенсорная информация используется нервной системой многообразно. Выявлено несколько механизмов фильтрации: пресинаприческое и постсинаптическое торможение, адаптация, восходящие и нисходящие влияния, нейронные осцилляции и другие. Сенсорные сигналы регулируются при выполнении движений, регуляции позы, при нейронной обработке зрительной, слуховой, соматосенсорной информации, а также запаха и вкуса. Регулируются и болевые ощущения. Одним из примеров существенной блокировки сенсорной информации является сон. Нарушения процесса фильтрации сенсорной информации могут приводить к неврологическим, психологическим и психиатрическим расстройствам. 2.2 Биологическая целесообразность Биологические системы находятся в постоянном взаимодействии с внешним миром, информацию о котором они получают при помощи органов сенсорных систем: зрения, слуха, обоняния, вкуса, осязания, проприоцепции, вестибулярной системы. Обнаружению сигналов обычно препятствуют помехи — шумы различного вида (внешнего и внутреннего происхождения). Кроме того, информация, которую нервная система получает через органы чувств, избыточна; полезная информация в ней смешана с массой бесполезных сигналов. Процесс фильтрации сенсорного потока выступает первым звеном в процессе обнаружения сигнала на фоне сенсорного шума. Так, человек не чувствует постоянного раздражения рецепторов кожи, которое производит надетая на нем одежда, и не обращает внимания на давление, которое оказывает на него сидение стула. Нервная система гимнастки, выполняющей упражнение на бревне, активно использует вестибулярную, проприоцептивную и зрительную информацию, но игнорирует слуховые сигналы (выкрики из зала). Во сне мозг практически отключается от сенсорных сигналов (отсюда выражения: тебя хоть из пушки буди). Регуляция потока сенсорной информации абсолютно необходима для нормального функционирования мозга. Без неё нервная система не смогла бы генерировать адекватные реакции на внешние раздражители, фильтровать и распределять сенсорную информацию при управлении движениями, концентрировать внимание на важных предметах и действиях и игнорировать маловажные раздражители, обеспечивать нормальный сон. 2.3 Асимметричность информации В экономике асимметричная информация имеет место, когда одна сторона сделки обладает большей информацией, чем другая. (Английский термин asymmetric(al) information, в русской литературе также называется несовершенная информация, неполная информация). Обычно продавец знает больше о продукте, чем покупатель, однако возможно и обратное, когда покупатель знает больше, чем продавец. Примеров, когда продавец обладает большей информацией, чем покупатель, множество, это и продавцы подержанных машин, агенты недвижимости, биржевые брокеры, страховые агенты, разработчики компьютерного программного обеспечения и игр. В качестве примера ситуации, когда покупатель знает больше, чем продавец, можно привести сделку продажи недвижимости в соответствии с завещанием умершего. Впервые это свойство было отмечено Кеннетом Эрроу в статье 1963 года, озаглавленной «Неопределённость и экономика благосостояния в здравоохранении» в журнале Американское Экономическое Обозрение. Джордж Акерлов в работе «Рынок лимонов» в 1970 построил математическую модель рынка с несовершенной информацией. Он отметил, что на таком рынке средняя цена товара имеет тенденцию снижаться, даже для товаров с идеальным качеством. Возможно даже, что рынок коллапсирует до исчезновения. Из-за несовершенства информации нечестные продавцы могут предложить менее качественный (более дешёвый в изготовлении) товар, обманывая покупателя. В результате многие покупатели, зная о низком среднем качестве, будут избегать покупок или соглашаться покупать только за меньшую цену. Производители качественных товаров, в ответ, чтобы отделиться в глазах потребителя от среднестатистического продавца и сохранить за собой рынок, могут заводить торговые марки, сертификацию товаров. Важная роль торговых марок в развитой рыночной экономике — служить признаком стабильного качества. Потребители, оценивая качество продуктов, составляют репутацию рынков и продавцов. Появление интернета существенно облегчило процесс обмена информацией среди потребителей. Позволяя узнать непосредственно характеристики товара либо его репутацию, интернет снижает асимметричность информации. Michael Spence предложил теорию сигнализирования. В ситуации асимметричности информации люди обозначают к какому типу они принадлежат, тем самым уменьшая степень асимметричности.Изначально в качестве модели выбрана ситуация поиска работы. Наниматель заинтересован в наборе обученного/обучаемого персонала. Все соискатели, естественно, заявляют, что они отлично способны учиться. Но только сами соискатели обладают информацией о действительном положении вещей. Это и есть ситуация информационной асимметрии. Майкл Спенс предположил, что окончание, к примеру, института, служит надёжным опознавательным сигналом — данная персона способна к обучению. Ведь окончить институт проще для того, кто способен учиться и, следовательно, подходит данному нанимателю. И наоборот, если человек не смог окончить институт, его способности к обучению весьма сомнительны. 2.4. Информация и рынок Чтобы в полной мере раскрыть роль информации в современной постиндустриальной экономике, необходимо обратиться к исследованию ее места и функций на рынке. Успех или неудача предприятия напрямую связаны с наличием или отсутствием рыночной информации. Вначале рассмотрим особые свойства информации, которые проявляются на рынке. 1. Информация не убывает в процессе ее использования. Эту черту информация имеет так же, как знания вообще. Т. Стюарт по этому поводу пишет: «Это означает, что знания не убывают по мере их использования. Они неотчуждаемы: приобретение мною некоего объема знаний никоим образом не уменьшает вашей способности приобрести столько же, чего не скажешь, например, о порции мороженого или о месте в автобусе. На стоимость создания знаний не влияет, сколько человек будет пользоваться ими впоследствии. Знания, воплощенные мною в этой книге, будут стоить одинаково, независимо от того, прочтут ли ее 5 или 500 тыс. человек. Конечно, экземпляр, который вы держите в руках, не может быть прочитан десятком людей одновременно, а стоимость печати, безусловно, зависела от тиража, но эти экономические факторы относятся к изделию, а не к знаниям». К. Эрроу также отмечает: тот факт, что «вы продали мне информацию, не мешает вам продавать ту же информацию другим — ведь университетский профессор из года в год читает одну и ту же лекцию. А мне этот факт не мешает перепродавать то, чему меня научили, при условии соблюдения законов об интеллектуальной собственности; этим в конечном итоге и занимаются журналисты». 2. Информация отличается от ее носителя. Р. Нолл замечает: «Знания и их оболочка — не одно и то же. Кроме того, средства их воспроизведения — магнитофоны, ксероксы, телевизоры, компьютеры — часто находятся под контролем потребителей, а не производителей. Производственные же возможности, по существу, ничем не сдерживаются. Так, миллиарды телезрителей каждый год смотрят церемонию вручения премии „Оскар“, а Американской академии кинематографии это обходится не дороже, чем если бы вся зрительская аудитория ограничивалась теми, кто сидел в зале». 3. Из первых двух черт следует, что информация не ограничена пространством. Однако она ограничена законами об интеллектуальной собственности. «Знания (информация) существуют вне зависимости от пространства. Подобно квантовым частицам они могут находиться в нескольких местах одновременно. Продайте мне пирог, и у вас его больше не будет. Продайте мне рецепт пирога, и он будет у нас обоих. В царстве интеллектуальных активов и неосязаемой продукции „пирога“ не становится меньше, сколько его ни ешь. Но вы не можете забрать его назад. Продавец может вернуть себе, предположим, автомашину, но, сообщив покупателю какую-либо информацию, он не может забрать ее обратно. В информационной экономике есть одна уловка, касающаяся и покупателя, и продавца: покупатель не может судить, стоит ли платить за информацию до тех пор, пока ее не получит; но как только он завладел ею, ему больше не нужно ее покупать» [см. 13]. 4. Информация зависит от фактора времени. Некоторые ее виды катастрофически стареют. 5. Информация в принципе изобильна. Она не обладает редкостью, как другие факторы производства, поэтому вопрос о ее стоимости является проблемой для экономической науки. Но она имеет цену, которая мало зависит от затрат на ее производство. Информация или есть, и тогда она не редкость, или ее нет. «Покупайте землю, — советовал своим читателям сатирик Уилл Роджерс, — а то ее больше не делают». Мы же с каждым днем «делаем» все больше знаний, и, как мы потом увидим, они зачастую вырастают в цене именно потому, что имеются в изобилии, а не потому, что их недостает" [см. 13]. 6. Информация множится, разрастается, так что ее трудно усвоить, классифицировать и т.п. Обратимся теперь к анализу влияния информации на поведение потребителей и производителей. Одно из центральных понятий функционирования рынка — выбор. Его делают все экономические агенты, находящиеся на рынке: компании, потребители, инвесторы и государство. В контексте данного исследования нас прежде всего интересует выбор компаний и потребителей. Ключевая проблема состоит в определении, от чего зависит их выбор при принятии решений. Выбор компании мотивируется, на наш взгляд, двумя группами факторов: · сегодняшними ценами на ресурсы; · завтрашними ценами на произведенные товары. Выбор потребителей определяется тремя моментами: · полезностью для потребителей тех или иных товаров и услуг; · ценой товаров; · доходами потребителей. Фактор времени и здесь имеет значение, так как потребитель также не знает будущих цен на товары и услуги, и он не может мгновенно удовлетворить свои потребности. Итак, мы видим, что фактор времени вносит неопределенность в поведение потребителей и компаний, а следовательно, в функционирование самого рынка. Дополнительную неопределенность в рыночную информацию вносит известная непредсказуемость поведения потребителей. Практика показывает, что рациональный выбор, основанный на ценовой информации, имеет ограниченное значение и не всегда обладает преимуществом над иррациональным. На рынке большое значение имеет как ценовая, так и неценовая информация. Это утверждение верно не только, например, для фондовой биржи, где особенно ярко видно влияние прочей информации, включая политическую, но и для всех рынков вообще. К. Эрроу назвал неценовую информацию «сигналами рынка». Сигналы эти наиболее слабо прогнозируемы, но именно они могут играть решающую роль в процессе выбора и потребителей, и производителей. Фактор времени также имеет огромное значение для информации обоих типов (ценовой и сигналов рынка). Его влияние, на наш взгляд, в современных условиях можно проследить по двум направлениям. · Первое связано с неопределенностью информации о будущей конъюнктуре рынков. Эта неопределенность является неотъемлемой чертой выбора (принятия решения). · Второе направление, которое, по нашему мнению, выдвигается на первый план, представляет собой проблему скорости анализа имеющейся конъюнктурной информации, быстроты передачи результатов обработки информации, на основе которой компания принимает решения. Новые возможности в этом плане дают современные электронные средства сбора, обработки и передачи информации и информационные сети. Еще один важный аспект проблемы информации на рынке — доступность или недоступность информации для экономических агентов. Компании занимаются сбором самой разной информации, которая необходима для нормального функционирования предприятий. Это информация о спросе и предложении, клиентах и др. Данный тип информации довольно просто получить в условиях развитого рыночного хозяйства через специализированные справочники, прайс-листы, обзоры. Компании собирают и информацию другого типа — неценовые сигналы рынка, используя источники СМИ, Интернет, консультантов и пр. Компании сами добывают информацию и покупают ее, затрачивая на это большие средства. Другая сторона деятельности компаний — распространение информации для потребителей (реклама). Однако возможности получения и распространения информации у разных компаний неодинаковые, известным фактом является неравенство компаний в этом отношении. Информация распространяется неравномерно, «асимметрично». Поэтому те, кто обладает преимуществами в информации, обладает и известными конкурентными преимуществами. Возрастающая роль информации и ее материальной основы в информационной экономике, о чем говорилось выше, вызвала к жизни принципиально новое явление — виртуальные рынки. Их существование стало возможным в связи с тем, что Интернет предоставляет информационные и коммуникационные коммерческие услуги. Виртуальные рынки преодолевают существенные недостатки реальных рынков в плане снижения неопределенности и более равномерного доступа к информации. Понятие симметричности информации означает равное распределение информации между участниками; прозрачность подразумевает открытость информации. Эти качества виртуальных рынков ставят барьер на пути монополизма. Виртуальное рыночное пространство существует в реальном масштабе времени, доступ к информации круглосуточный. Модель такого рынка может быть представлена при помощи понятий информации. На наш взгляд, виртуальные рынки представляют собой виртуальное пространство, в котором участники (экономические агенты) наблюдают и создают информационные сигналы с целью осуществления виртуальной коммерции. Таким образом, информация стала активнейшим элементом рыночной инфраструктуры, фактором производства и товаром. Наличие или отсутствие рыночной информации определяет успех или неуспех компании в производстве и сбыте продукции. Литература 1. Моисеев Н.Н. Расставание с простотой. М.: АГРАФ, 1998. С. 98-99. 2. Винер Н. Кибернетика, или управление и связь в живом и машине. М.: Советское радио, 1968. С.15. 3. Корогодин В.И., Корогодина В.Л. Информация как основа жизни. Дубна: Феникс, 2000. С. 11. 4. Спицнадель В.Н. Основы системного анализа. М.-СПб.: ИД Бизнес-пресса, 2000. С. 76. 5. Эрроу К. Информация и экономическое поведение // Вопросы экономики. 1995. № 5. С. 98. 6. Иноземцев В. За пределами экономического общества. М.: Academia, 1998. С. 323. 7. Могилевский В.Д. Методология систем. М.: Экономика. 1999. С. 42. 8. Bell D. The Coming of Post-Industrial Society. A Venture in Social Forecasting. N.Y., 1976; Brzezinski Z. The Story of the Information Technology Revolution. Cambridge. 1988; Drucker P. Post-Capitalist Society. N.Y., 1993; Between Two Ages. N.Y., 1970; Toffler A. The Third Wave. N.Y., 1980; Forester T. High-Teck Society. 9. Васильчук Ю. Постиндустриальная экономика и развитие человека // МЭ и МО. 1997. № 9. С.93. 10. Мовсесян А.Г. Роль информационных и финансовых факторов в интеграции и транснационализации // Вестник Московского университета. Сер. 6. Экономика. 1998. № 2. С. 22-29. 11. Тоffler A. Powershift. N.Y., 1990 / Цит. по: Васильчук Ю. Указ. соч. 12. Stewart T.A. Intellectual Capital. The New Wealth of Organizations. N.Y.-L., Doubleday / Currency, 1997. Р. 389. 13. Эрроу К. Восприятие риска в психологии и экономической науке / Цит. по: Теория и история экономических и социальных институтов и систем. Альманах. 1994. № 5. Вып. 5. С. 81. 14. Noll R.G. The Economics of Information // The Knowledge Economy: The Nature of Information in the 21th Century. Queenstown (MD), 1993. P. 29-30. www.ronl.ru Реферат - Что такое информацияСОДЕРЖАНИЕ НЕ ВЕЩЕСТВО И НЕ ЭНЕРГИЯ... СХЕМА ПЕРЕДАЧИ ИНФОРМАЦИИ ЦЕННОСТЬ ИНФОРМАЦИИ ЗАКЛЮЧЕНИЕ СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫИнформация - сведения об окружающем нас мире, о протекающих в нем процессах, которые воспринимают живые организмы, управляющие машины и другие информационные системы. НЕ ВЕЩЕСТВО И НЕ ЭНЕРГИЯ... Слово «информация» латинское. За долгую жизнь его значение претерпевало эволюции, то расширяя, то предельно сужая свои границы. Вначале под словом «информация» подразумевали: «представление», «понятие», затем-«сведения», «передача сообщений». В последние годы ученые решили, что обычное (всеми принятое) значение слова «информация» слишком эластично, расплывчато, и дали ему такое значение: «мера определенности в сообщении». Теорию информации вызвали к жизни потребности практики. Ее возникновение связывают с работой Клода Шеннона «Математическая теория связи», изданной в 1946г. Основы теории информации опираются на результаты, полученные многими учеными. Ко второй половине XX века земной шар гудел от передающейся информации, бегущей по телефонным и телеграфным кабелям и радиоканалам. Позже появились электронные вычислительные машины - переработчики информации. А для того времени основной задачей теории информации являлось, прежде всего, повышение эффективности функционирования систем связи. Сложность при проектировании и эксплуатации средств, систем и каналов связи в том, что конструктору и инженеру недостаточно решить задачу с физических и энергетических позиций. С этих точек зрения система может быть самой совершенной и экономичной. Но важно еще при создании передающих систем обратить внимание на то, какое количество информации пройдет через эту передающую систему. Ведь информацию можно измерить количественно, подсчитать. И поступают при подобных вычислениях самым обычным путем: абстрагируются от смысла сообщения, как отрешаются от конкретности в привычных всем нам арифметических действиях (как от сложения двух яблок и трех яблок переходят к сложению чисел вообще: 2+3). Ученые заявили, что они «полностью игнорировали человеческую оценку информации». Последовательному ряду из 100 букв, например, они приписывают определенное значение информации, не обращая внимания, имеет ли эта информация смысл и имеет ли, в свою очередь, смысл практическое применение. Количественный подход - наиболее разработанная ветвь теории информации. В соответствии с этим определением совокупность 100 букв - фраза из 100 букв из газеты, пьесы Шекспира или теоремы Эйнштейна - имеет в точности одинаковое количество информации. Такое определение количества информации является в высшей степени полезным и практичным. Оно в точности соответствует задаче инженера связи, который должен передать всю информацию, содержащуюся в поданной телеграмме, вне зависимости от ценности этой информации для адресата. Канал связи бездушен. Передающей системе важно одно: передать нужное количество информации за определенное время. Как же вычислить количество информации в конкретном сообщении? Оценка количества информации основывается на законах теории вероятностей, точнее, определяется через вероятности событий. Это и понятно. Сообщение имеет ценность, несет информацию только тогда, когда мы узнаем из него об исходе события, имеющего случайный характер, когда оно в какой-то мере неожиданно. Ведь сообщение об уже известном никакой информации не содержит. Т.е. если вам, допустим, кто-то позвонит по телефону и скажет: «Днем бывает светло, а ночью темно», то такое сообщение вас удивит лишь нелепостью высказывания очевидного и всем известного, а не новостью, которую оно содержит. Иное дело, например, результат забега на скачках. Кто придет первым? Исход здесь трудно предсказать. Чем больше интересующее нас событие имеет случайных исходов, тем ценнее сообщение о его результате, тем больше информации. Сообщение о событии, у которого только два одинаково возможных исхода, содержит одну единицу информации, называемую битом. Выбор единицы информации не случаен. Он связан с наиболее распространенным двоичным способом ее кодирования при передаче и обработке. Попытаемся хотя бы в самом упрощенном виде представить себе тот общий принцип количественной оценки информации, который является краеугольным камнем всей теории информации. Мы уже знаем, что количество информации зависит от вероятностей тех или иных исходов события. Если событие, как говорят ученые, имеет два равновероятных исхода, это означает, что вероятность каждого исхода равна 1/2. Такова вероятность выпадения «орла» или «решки» при бросании монеты. Если событие имеет три равновероятных исхода, то вероятность каждого равна 1/3. Заметьте, сумма вероятностей всех исходов всегда равна единице: ведь какой-нибудь из всех возможных исходов обязательно наступит. Событие, как вы сами понимаете, может иметь и неравновероятные исходы. Так, при футбольном матче между сильной и слабой командами вероятность победы сильной команды велика - например, 4/5. Вероятность ничьей намного меньше, например 3/20. Вероятность же поражения совсем мала. Выходит, что количество информации - это мера уменьшения неопределенности некоторой ситуации. Различные количества информации передаются по каналам связи, и количество проходящей через канал информации не может быть больше его пропускной способности. А ее определяют по тому, какое количество информации проходит здесь за единицу времени. Один из героев романа Жюля Верна «Таинственный остров», журналист Гедеон Спиллет, передавал по телефону главу из Библии, чтобы его конкуренты не могли воспользоваться телефонной связью. В этом случае канал был загружен полностью, а количество информации было равно нулю, ибо абоненту передавались известные для него сведения. Значит, канал работал вхолостую, пропустив строго определенное количество импульсов, ничем их не нагрузив. А между тем, чем больше информации несет каждый из определенного числа импульсов, тем полнее используется пропускная способность канала. Поэтому нужно разумно кодировать информацию, найти экономный, скупой язык для передачи сообщений. Информацию «просеивают» самым тщательным образом. В телеграфе часто встречающиеся буквы, сочетания букв, даже целые фразы изображают более коротким набором нулей и единиц, а те, что встречаются реже,- более длинным. В случае, когда уменьшают длину кодового слова для часто встречающихся символов и увеличивают для редко встречающихся, говорят об эффективном кодировании информации. Но на практике довольно часто случается, что код, возникший в результате самого тщательного «просеивания», код удобный и экономный, может исказить сообщение из-за помех, которые всегда, к сожалению, бывают в каналах связи: искажения звука в телефоне, атмосферные помехи в радио, искажение или затемнение изображения в телевидении, ошибки при передаче в телеграфе. Эти помехи, или, как их называют специалисты, шумы, обрушиваются на информацию. А от этого бывают самые невероятные и, естественно, неприятные неожиданности. Поэтому для повышения надежности в передаче и обработке информации приходится вводить лишние символы - своеобразную защиту от искажений. Они - эти лишние символы - не несут действительного содержания в сообщении, они избыточны. С точки зрения теории информации все то, что делает язык красочным, гибким, богатым оттенками, многоплановым, многозначным, - избыточность. Как избыточно с таких позиций письмо Татьяны к Онегину! Сколько в нем информационных излишеств для краткого и всем понятного сообщения « Я вас люблю»! И как информационно точны рисованные обозначения, понятные всем и каждому, кто входит сегодня в метро, где вместо слов и фраз объявлений висят лаконичные символьные знаки, указывающие: «Вход», «Выход». В этой связи полезно вспомнить анекдот, рассказанный в свое время знаменитым американским ученым Бенджаменом Франклином, о шляпочнике, пригласившем своих друзей для обсуждения проекта вывески. Предполагалось нарисовать на вывеске шляпу и написать: «Джон Томпсон, шляпочник, делает и продает шляпы за наличные деньги». Один из друзей заметил, что слова «за наличные деньги» являются излишними - такое напоминание будет оскорбительным для покупателя. Другой нашел также лишним слово «продает», так как само собой понятно, что шляпочник продает шляпы, а не раздает их даром. Третьему показалось, что слова «шляпочник» и «делает шляпы» представляют собой ненужную тавтологию, и последние слова были выкинуты. Четвертый предложил выкинуть и слово «шляпочник» - нарисованная шляпа ясно говорит, кто такой Джон Томпсон. Наконец, пятый уверял, что для покупателя совершенно безразлично, будет ли шляпочник называться Джоном Томпсоном или иначе, и предложил обойтись без этого указания. Таким образом, в конце концов на вывеске не осталось ничего, кроме шляпы. Конечно, если бы люди пользовались только такого рода кодами, без избыточности в сообщениях, то все «информационные формы» - книги, доклады, статьи - были бы предельно краткими. Но проиграли бы в доходчивости и красоте. СХЕМА ПЕРЕДАЧИ ИНФОРМАЦИИ Всякое событие, всякое явление служит источником информации. Всякое событие, всякое явление может быть выражено по-разному, разным способом, разным алфавитом. Чтобы информацию более точно и экономно передать по каналам связи, ее надо соответственно закодировать. Информация не может существовать без материального носителя, без передачи энергии. Закодированное сообщение приобретает вид сигналов-носителей информации. Они-то и идут по каналу. Выйдя на приемник, сигналы должны обрести вновь общепонятный вид. С этой целью сигналы пробегают декодирующее устройство, приобретая форму, удобную для абонента. Система связи сработала, цель достигнута. Когда говорят о каналах связи, о системах связи, чаще всего для примера берут телеграф. Но каналы связи - понятие очень широкое, включающее множество всяких систем, самых разных. Чтобы ясен был многоликий характер понятия «канал связи», достаточно привести несколько примеров. При телефонной передаче источник сообщения - говорящий. Кодирующее устройство, изменяющее звуки слов в электрические импульсы, - это микрофон. Канал, по которому передается информация - телефонный провод. Та часть трубки, которую мы подносим к уху, выполняет роль декодирующего устройства. Здесь электрические сигналы снова преобразуются в звуки. И наконец, информация поступает в «принимающее устройство»-ухо человека на другом конце провода. А вот каналсвязи совершенно другой природы - живой нерв. Здесь все сообщения передаются нервным импульсом. Но в технических каналах связи направление передачи информации может меняться, а по нервной системе передача идет в одном направлении. Еще один пример - вычислительная машина. И здесь те же характерные черты. Отдельные системы вычислительной машины передают одна другой информацию с помощью сигналов. Ведь вычислительная машина-автоматическое устройство для обработки информации, как станок - устройство для обработки металла. Машина не создает из «ничего» информацию, она преобразует только то, что в нее введено. канал Общая схема передачи информации. ЦЕННОСТЬ ИНФОРМАЦИИ Мы уже знаем, что количественный метод - одно из направлений в теории информации - наиболее распространенный и наиболее разработанный. Существуют и другие методы. Они, в противоположность количественному, стараются ухватить смысл информации, ее ценность, ее качество. Количество информации в двух сообщениях может быть совершенно одинаковым, а смысл совершенно разным. Два слова, например «Мир» и «Рим», содержат одинаковое количество информации, состоят из одних и тех же букв, но смысл слов различен. В повседневной жизни мы, как правило, оцениваем полученные сведения со смысловой стороны: новые сведения воспринимаем не как определенное количество информации, а как новое содержание. Можно ли вычислить смысл информации, подсчитать его в сообщении? Да, это пробует делать семантическая теория информации. Вот еще один пример и еще одно направление (прагматическое - деловое) в этой науке. Пассажиры едут в автобусе. Водитель объявляет остановку. Кое-кто выходит, остальные не обращают внимания на слова водителя - переданную им информацию. Почему? Потому что информация здесь имеет разную ценность для получателей, в роли которых в этом примере выступают пассажиры. Вышел тот, для кого информация была ценна. Значит, ценность можно определить как свойство информации, влияющей на поведение ее получателя. ЗАКЛЮЧЕНИЕ В теории информации в наше время разрабатывают много систем, методов, подходов, идей. Однако ученые считают, что к современным направлениям в теории информации добавятся новые, появятся новые идеи. В качестве доказательства правильности своих предположений они приводят «живой», развивающийся характер науки, указывают на то, что теория информации удивительно быстро и прочно внедряется в самые различные области человеческого знания. Теория информации проникла в физику, химию, биологию, медицину, философию, лингвистику, педагогику, экономику, логику, технические науки, эстетику. По признанию самих специалистов, учение об информации, возникшее в силу потребностей теории связи и кибернетики, перешагнуло их рамки. И теперь, пожалуй, мы вправе говорить об информации как научном понятии, дающем в руки исследователей теоретико - информационный метод, с помощью которого можно проникнуть во многие науки о живой и неживой природе, об обществе, что позволит не только взглянуть на все проблемы с новой стороны, но и увидеть еще неувиденное. Вот почему термин «информация» получил в наше время широкое распространение, став частью таких понятий, как информационная система, информационная культура, даже информационная этика. Многие научные дисциплины используют теорию информации, чтобы подчеркнуть новое направление в старых науках. Так возникли, например, информационная география, информационная экономика, информационное право. Но чрезвычайно большое значение приобрел термин «информация» в связи с развитием новейшей компьютерной техники, автоматизацией умственного труда, развитием новых средств связи и обработки информации и особенно с возникновением информатики. Одной из важнейших задач теории информации является изучение природы и свойств информации, создание методов ее обработки, в частности преобразования самой различной современной информации в программы для ЭВМ, с помощью которых происходит автоматизация умственной работы-своеобразное усиление интеллекта, а значит, развитие интеллектуальных ресурсов общества. Список использованной литературы 1. Пекелис В. Кибернетика от А до Я. М.,1990. 2. Дмитриев В. Прикладная теория информации. М., 1989. www.ronl.ru |
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|
|