Министерство образования Российской федерации
Уральский государственный лесотехнический университет
Кафедра философии
Реферат на тему :
Сознание и искусственный интеллект
Выполнил: Борисов А.В., ДС-36
Проверил: Яковлева Е.А.
Екатеринбург – 2004
СОДЕРЖАНИЕ
Введение 3
Взгляды на термин “знание” 5
Сознание и разум 8
Искусственный интеллект и теоретические проблемы психологии 11
Заключение 13
Список использованной литературы 14
ВВЕДЕНИЕ
Все расширяющееся применение электронных вычислительных машин и повышение их роли в жизни общества сделало актуальной проблему соотношения возможностей человеческого мышления и так называемого машинного, или искусственного, интеллекта.
В настоящее время практически невозможно указать ни одной, сферы человеческой деятельности, где бы не использовались или не могли быть использованы ЭВМ. При этом возникают вопросы: «Какой вид работы принципиально не могут выполнить современные ЭВМ и почему?», «Какие сферы, уровни человеческой деятельности не подвластны автоматизации?», «Каковы перспективы развития и использования ЭВМ?»
Ответы на эти вопросы в значительной мере зависят от решения проблемы соотношения и связи человека и кибернетических машин. Она имеет не только теоретический, но и практический аспект, так как распределение функций между человеком и ЭВМ невозможно осуществись без правильного понимания вопроса о характере этого соотношения и его комплексной разработки в ряде аспектов: кибернетическом, логическом, математическом, психологическом, психофизиологическом. Но при исследовании состояния проблемы и трудностей, встающих на пути ее решения, выдвигаются вопросы, которые выходят за рамки компетенции специалистов по кибернетике, логике, математике и психологии и требуют философско-методологического анализа и аргументации.
В литературе, посвященной философским проблемам кибернетики, рассмотрение проблемы соотношения мышления человека и возможностей ЭВМ нередко подменялось вопросом: Думают ли машины? При этом понятие «машина» трактовалось слишком абстрактно, а мышление определялось в терминах формальной логики и машинных операций. Предполагалось, что развитие «машинного мышления» столкнется лишь с чисто техническими трудностями, которые будут преодолены, подобно тому как авиация, постепенно совершенствуясь, преодолела «звуковой барьер»
Поводом для поспешных оптимистических выводов послужили первые успехи в решении достаточно простых задач, допускающих их полную алгоритмизацию, программирование и последующую автономную обработку информации на ЭВМ. При этом казалось, что решение и более сложных задач возможно путем увеличения скорости переработки информации, объема «памяти», путем автоматического распознавания вводимого в ЭВМ текста с помощью автоматических читающих устройств и главное—путем совершенствования информационно-логических программ, в частности методов эвристического программирования.
Однако при переходе к решению сложных задач оказалось невозможным создать полностью формализованные решения и машинные программы. Причина этого заключается в том, что процесс их решения на всех основных этапах включает неформальные, в частности творческие, элементы, являющиеся прерогативой исключительно человека.
Осознание этого обстоятельства и послужило толчком к изменению стратегии применения ЭВМ во всех сферах человеческой деятельности; от стратегии, предполагавшей постепенную принципиально не ограниченную замену функций человеческого интеллекта искусственным, к стратегии кооперирования возможностей человека и ЭВМ. Если раньше кибернетики стремились обосновать и доказать плодотворность далеко идущих аналогий между человеческим мышлением и кибернетическими устройствами, то в настоящее время это уже мешает трезвой научной оценке возможностей ЭВМ.
Поэтому актуальной задачей кибернетики стало изучение фундаментальных различий, возможностей и связей человека и кибернетических устройств.
Методологический анализ проблем «искусственного интеллекта» и диалогового взаимодействия человека с ЭВМ важен не только для обоснования общей стратегии решения этих проблем, но и для разработки вопросов распределения функций человека и ЭВМ в процессе самого решения.
ВЗГЛЯДЫ НА ТЕРМИН “ЗНАНИЕ”
В последние годы термин “знание” все чаще употребляется в информатике. Он встречается в таких словосочетаниях, как “база знаний”, “банк знаний”, язык представления знаний”, “системы представления знаний” и других. Специалисты подчеркивают, что совершенствование так называемых интеллектуальных систем (информационно-поисковых систем высокого уровня, диалоговых систем, базирующихся на естественных языках, интерактивных человеко-машинных систем, используемых в управлении, проектировании, научных исследованиях) вот многом определяется тем, насколько успешно будут решаться задачи представления знаний.
Неудивительно, что перед теми, кто занимается проблемой представлении знаний, встает вопрос о том, что такое знание, какова его природа и основные характеристики. В связи с этим предпринимаются, например, попытки дать такое определение знания, из которого можно было бы исходить в решении задач представления знаний в компьютерных системах. Подчеркивается, что для разработки средств и методов представления знаний необходимо использовать результаты когнитивной психологии — науки, выявляющей структуры, в виде которых человек хранит информацию об окружающем его мире. Высказывается мнение, что язык и представление знаний в системах искусственного интеллекта должны рассматриваться в рамках особого научного направления — когитологии. Предметом когитологии должно стать знание как самостоятельный аспект реальности.
Представлению данных присущ пассивный аспект: книга, таблица, заполненная информацией память. В теории искусственного интеллекта особо подчеркивается активный аспект представления: “знать” должно стать активной операцией, позволяющей не только запоминать, но и извлекать воспринятые (приобретенные, усвоенные) знания для рассуждений на их основе. Следовательно, истоки представления знаний — в науке о познании (эпистемологии или гносеологии), а его конечная цель — программные средства информатики.
Вместе с тем вопрос, что такое знание, каковы его основные свойства и способы получения, — это исконно философский вопрос. Закономерно поэтому стремление дать философское осмысление вопросов компьютерного представления знаний, выявляя прежде всего их гносеологические и философско-логические аспекты.
Принципиальная мировоззренческая установка состоит в рассмотрении ЭВМ как предмета-посредника в человеческой познавательной деятельности. Компьютерная система, подобно другим предметам-посредникам (орудиям труда и предметам быта, инструментам, приборам, знаково-символическим системам, научным текстам и т. д.), играя инструментальную роль в познании, является средством объективизации накопленного знания, воплощением определенного социально-исторического опыта практической и познавательной деятельности. Ее важнейшая теоретико-познавательная роль и обусловлена тем, что выделение человеком во вновь познаваемых объектов черт, которые оказываются существенными с точки зрения общественной практики, становится возможным именно при помощи предметов-посредников. “ЭВМ, — подчеркивает акад. Г. С. Поспелов, — представляет собой инструмент для интеллектуальной деятельности людей, а научное направление “искусственный интеллект” придает этому инструменту новые качества и обеспечивает новый, более перспективный стиль его использования. Спор между сторонниками и противниками искусственного интеллекта оказывается в связи с этим совершенно беспредметным.
Для философского анализа рассматриваемой проблематики важен вопрос о том, считать ли термин “знание” в выражении “представление знаний” явлением профессионального жаргона или действительно переход от представления данных к представлению знаний имеет существенные гносеологические характеристики и какие именно? Особенности ЭВМ как предмета-посредника в познании во многом определяются тем, что ЭВМ относится к такому типу предметов-посредников, как модели. Термин “модель” употребляется в обыденном языке и в языке науки в различных значениях. Пусть под моделью понимается некоторая система (материальная или концептуальная), в той или иной форме отображающая некоторые свойства и отношения другой системы, называемой оригиналом, в точно указанном смысле замещающая ее и дающая новую информацию об оригинале. При анализе гносеологических аспектов моделирования ЭВМ рассматривались в философско-методологической литературе прежде всего как материальные модели, создаваемые на основе действия определенных физических закономерностей и функционирующие благодаря протеканию в них вполне определенных физических процессов. Моделирование на ЭВМ понималось как техническая реализация определенной формы знакового моделирования. Однако, рассматривая ЭВМ в гносеологическом плане как предмет посредник в познании, имеет смысл не фиксировать внимание прежде всего на “железной части” (hardware) компьютера, а рассматривать всю компьютерную систему как сложную систему взаимосвязанных и до некоторых пределов самостоятельных моделей — как материальных, так и знаковых, т. е. идеальных. Такой подход не только соответствует рассмотрению компьютерных систем в современной информатике, но является и гносеологически оправданным. Многие важные философские аспекты проблем, возникающих в связи с компьютеризацией различных сфер человеческой деятельности, требуют для своего исследования обращения прежде всего к знаковым составляющим компьютерных систем. Это верно и в отношении философских аспектов проблем представления знаний.
В последние годы все чаще стал употребляться термин “компьютерное моделирование”.Т.е. построение любого из составляющих компьютерной системы — будь то знаковая модель или материальная.
Что изменяется в компьютерном моделировании с переходом от представления данных к представлению знаний? Каков гносеологический смысл этих изменений? А. Ньюэлл, отмечая, что проблематика представления знаний имеет интересные точки соприкосновения с философией, ибо природа разума и природа знания всегда являлись одним из центральных философских вопросов, пишет: “Однако, интерес философии к знанию всегда концентрировался на проблеме достоверности… Это нашло отражение в том различении между знанием и верой, которое проводится в философии. Искусственный интеллект, рассматривая все знание как содержащие ошибки, называет все-таки свои системы системами знаний. С точки зрения философии искусственный интеллект имеет дело только с системами веры.… Таким образом, учение о знании, если оно разделит с искусственным интеллектом безразличие к проблеме абсолютной достоверности, окажется оставляющим без внимания центральные философские вопросы”. Различия в подходах к знанию, имеющиеся в философии и в искусственном интеллекте, не дают оснований для абсолютного противопоставления этих подходов и для отстранения от проблематики представления знаний той философии, которая не желает “оставлять без внимания центральные философские вопросы”.
Таким образом понятие “знание” можно считать одним из ключевых как с точки зрения теории искусственного интеллекта, так и гносеологии. Но ограничивается ли дело только знанием?
СОЗНАНИЕ И РАЗУМ
Сознание возникает у животных как одно из средств, улучшающее их адаптацию к окружающей среде. Быстрая (по сравнению со временем жизни животного) адаптация требует способности предвидеть, а мотивом адаптации служат биологические жизненные потребности организма. Искусственная система, обладающая такими свойствами, тоже приобретает сознание.
Как устроено сознание? Какие процессы, механизмы, взаимодействующие объекты требуются, чтобы возникло сознание и осознание себя? Что нужно для изготовления не модели сознания, а просто сознания?
Обычно слово сознание применяется, как характеристика отдельного существа. Оно может «потерять сознание». А слово разум означает принципиальную способность быть сознательным. Например, «человек разумный». Однако, есть и другие толкования.
Не известно, как доказать, что человек думает. Уверенность в том, что люди думают, основана на опыте и убеждённости в собственном сознании, а не на измерениях и логических выводах из них. Вот почему науке трудно подступиться к глубокому изучению сознания. Мы можем изучать мозг, нейроны, языки, поведение, но не сознание само по себе. Мы наблюдаем не разум, а разумное поведение.
Суждение же о наличии разума субъективно, вплоть до того, что некоторые люди считают поведение некоторых своих соплеменников несознательным.
Можно ввести субъективную шкалу разумности. Например, улитка, кошка и человек перечислены здесь в порядке увеличения разумности. Не исключено, что разум начинается не с самого простейшего уровня организации нервной системы, а «возникает» при достаточном её развитии. Однако, пока не ясно, что такое разум, и не ясен механизм такого возникновения, удобно считать, что все существа с нервной системой разумны. В частности, самые простые существа могут иметь «нулевую» или «бесконечно малую» разумность. Зато при таком подходе можно сравнить поведение многих животных, чтобы найти, что же именно в поведении данного животного кажется разумным. Это должны быть такие признаки, которые выявляются у всех без исключения животных.
Такие неплохие определения сознания, как способность к достижению цели, или к нахождению решения, или к принятию решения, не подходят, так как они не конструктивны, в частности, не связаны однозначно с наблюдаемым поведением. «Цель» и «решение» сами определяются через сознание. Способность к общению с себе подобными, и формы такого общения «более наблюдаемы», но часто их трудно отличить от физического взаимодействия. Пример: перенос пыльцы.
Хорошим наблюдаемым критерием разумности является способность активно приспосабливаться к меняющимся окружающим условиям, то есть способность самообучаться на основе своего опыта. Чем же отличается сознание от самообучения?
Сознание — это внутреннее свойство, творческий мотор самообучающегося организма. Начальное сознание возникает при такой организации нервной системы, которая обеспечивает возможность обучаться. Это ещё не то самосознание, которое заставляет уступить место старушке. Конструктивность этого определения состоит в том, что оно не ограничивает средства для изготовления «творческого мотора». Стоит изобрести и создать устройство, способное самообучаться (именно “само-”, без толчков и внешнего воздействия, причем не пассивно, а в активной форме, сопровождаемой деятельностью) — и оно получит сознание. Найдите способность к самообучению у робота, и этим будет доказано, что он обладает сознанием.
Вместо слова «самообучение» иногда используют более широкое понятие «адаптация». Если существо самостоятельно находит новое поведение в новых условиях, причём никто не учил его этому поведению, то это существо способно к адаптации (к самообучению). Изобретение нового поведения — признак творчества (хотя это мнение очень и очень спорно и для доказательства его истинности и ошибочности требуются серьезные философские изыскания в области понятия “творчество”), а творчество — один из атрибутов сознания.
Большой потенциал адаптации хорошо виден из такого мысленного эксперимента. Представим себе существо с максимально развитой адаптацией. Пусть это существо вынуждено приспосабливаться к человеческой культуре. И оно научилось играть в шахматы, конструировать космические ракеты и сочинять изысканные стихи. Кто теперь откажет ему в разумности! Поэтому любые способности живого существа к адаптации следует считать проявлениями его сознания. И каждый вправе субъективно оценивать степень развития этого сознания.
«Начальное» сознание не гарантирует осознавания. Осознавание — это такой уровень развития сознания, при котором субъект отличает себя от других объектов, т. е. выделяет себя как самостоятельно функционирующую систему.
Осознавание себя – главный общепризнанный признак сознания. Однако это лишь частный случай осознавания «внешнего» мира. Мы воспринимаем внешний мир в виде различных качеств, которые отражают физические параметры природных явлений, регистрируемые нашими органами чувств. Мы осознаём не своё сознание, а свои ощущения объектного мира и свои мысли, представимые в виде образов из объектного мира, то есть в виде образов ощущений. Суждение о собственном сознании выводится из наблюдения своего поведения. Поэтому проблема осознавания себя сводится к проблеме осознавания своих ощущений.
Осознавание ощущений обеспечивает тот же внутренний механизм сознания — мотор самообучения и творчества. Собственно сознание – это не мозг, не поведение, а именно механизм, то есть особый процесс обработки информации.
Для осознавания важно, что творческий механизм сознания вырабатывает оптимальное в данных обстоятельствах поведение органов. Поведение мозга — это его взаимодействие с другими органами. Поведение руки — это её взаимодействие с физическим миром и с мозгом. Если найдено достаточно совершенное «не улучшаемое» поведение, то осознавание тоже исчезает, заменяясь автоматическим управлением. Поэтому тщательно отработанное поведение, например, при игре на музыкальном инструменте, становится автоматическим и не отвлекает осознавание от музыкального творчества. Хотя мы не придаём этому большого значения, но следует заметить, что сопутствующие автоматическому поведению ощущения тоже могут становиться автоматическими, то есть неосознаваемыми. Например, здоровый человек не обращает внимания на то, что при ходьбе на ступни его ног действует сила в десятки килограммов. А в другой ситуации мы чувствуем и сознательно реагируем на лёгкое прикосновение.
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ТЕОРЕТИЧЕСКИЕ ПРОБЛЕМЫ ПСИХОЛОГИИ
Можно выделить две основные линии работ по искусственному интеллекту (ИИ). Первая связана с совершенствованием самих машин, с повышением «интеллектуальности» искусственных систем. Вторая связана с задачей оптимизации совместной работы «искусственного интеллекта» и собственно интеллектуальных возможностей человека.
Переходя к психологическим проблемам искусственного интеллекта, можно отметить три позиции по вопросу о взаимодействии психологии и искусственного интеллекта.
1. «Мы мало знаем о человеческом разуме, мы хотим его воссоздать, мы делаем это вопреки отсутствию знаний» — эта позиция характерна для многих зарубежных специалистов по ИИ.
2. Вторая позиция сводится к констатации ограниченности результатов исследований интеллектуальной деятельности, проводившихся психологами, социологами и физиологами. В качестве причины указывается отсутствие адекватных методов. Решение видится в воссоздании тех или иных интеллектуальных функций в работе машин. Иными словами, если машина решает задачу ранее решавшуюся человеком, то знания, которые можно почерпнуть, анализируя эту работу и есть основной материал для построения психологических теорий.
3. Третья позиция характеризуется оценкой исследования в области искусственного интеллекта и психологии как совершенно независимых. В этом случае допускается возможность только потребления, использования психологических знаний в плане психологического обеспечения работ по ИИ.
Популярные идеи системного анализа позволили сделать сравнение принципов работы искусственных систем и собственно человеческой деятельности важным эвристическим приемом выделения именно специфического психологического анализа деятельности человека.
В 1963 г. выступая на совещании по философским вопросам физиологии ВНД и психологии, А.Н. Леонтьев сформулировал следующую позицию: машина воспроизводит операции человеческого мышления, и следовательно соотношение «машинного» и «немашинного» есть соотнесение операционального и неоперационального в человеческой деятельности. Однако в последствии при сравнении операций, из которых слагается работа машины, и операций как единиц деятельности человека выявились существенные различия — в психологическом смысле «операция» отражает способ достижения результатов, процессуальную характеристику, в то время как применительно к машинной работе этот термин используется в логико-математическом смысле (характеризуется результатом).
В работах по искусственному интеллекту постоянно используется термин «цель». В психологической теории деятельности «цель» является конституирующим признаком действия в отличии от операций (и деятельности в целом). В то время как в искусственных системах «целью» называют некоторую конечную ситуацию к которой стремится система. Признаки этой ситуации должны быть четко выявленными и описанными на формальном языке. Цели человеческой деятельности имеют другую природу. Конечная ситуация может по разному отражаться субъектом: как на понятийном уровне, так и в форме представлений. Это отражение может характеризоваться разной степенью ясности, отчетливости. Кроме того, для человека характерно не просто достижение готовых целей но и формирование новых.
Также работа систем искусственно интеллекта, характеризуется не просто наличием операций, программ, «целей», но и оценочными функциями. И у искусственных систем есть своего рода «ценностные ориентации». Специфику человеческой мотивационно-эмоциональной регуляции деятельности составляет использование не только константных, но и ситуативно возникающих и динамично меняющихся оценок, существенно также различие между словесно-логическими и эмоциональными оценками. В существовании потребностей и мотивов видится различие между человеком и машиной на уровне деятельности. Этот тезис повлек за собой цикл исследований, посвященных анализу специфики человеческой деятельности. Позже была показана зависимость структуры мыслительной деятельности при решении творческих задач от изменения мотивации.
Как в действительности показала история, психология и искусственный интеллект как научное направление могут находится в достаточно тесном сотрудничестве, взаимно базируясь на достижениях друг друга.
ЗАКЛЮЧЕНИЕ
Природа мышления, загадка сознания, тайна разума, все это, безусловно, одна из наиболее волнующих человека проблем. Популярность кибернетики, неослабевающий интерес к ней со стороны самых широких кругов во многом объясняется именно ее тесной связью с этой «вечной» проблемой. С того самого момента, как человек стал задумываться над проблемой мышления, в подходе к ней существуют два основных диаметрально противоположных направления: материализм и идеализм. Идеализм исходит из признания мышления некой особой сущностью, в корне отличной от материи, от всего того, с чем мы имеем дело во внешнем мире. Материализм, напротив, утверждает, что “… тот вещественный, чувственно воспринимаемый нами мир, к которому принадлежим мы сами, есть единственный действительный мир и наше сознание и мышление, являются продуктом вещественного, телесного органа”.
До сих пор диалектико-материалистиеское понимание мышления опиралось главным образом на обобщенные данные психологии, физиологии и языкознания. Данные кибернетики позволяют поставить вопрос о более конкретном понимании мышления.
Инструментом философии является знание. Именно инструментом, а не результатом. Знание не есть конечный предмет, который можно положить в сундук и сказать: “Да, теперь у меня есть знание!” Знание — это цепочка. Знание в области искусственного интеллекта — тоже есть цепочка, причем бесконечная.
Инструментом же кибернетики является моделирование. С точки зрения теории моделирования вообще не имеет смысла говорить о полном тождестве модели и оригинала. Поэтому нельзя стопроцентно смоделировать разумное поведение, объект способный мыслить, и поместить его все в тот же сундук. Все это вполне согласуется с понятием знания.
СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ
1. Алексеева И.Ю. Искусственный интеллект и рефлексия над знаниями. // “Философия науки и техники”: журнал 1991 №9, с. 44-53.
2. Алексеева И.Ю. Знание как объект компьютерного моделирования. // “Вопросы философии”: журнал 1987 №3, с. 42-49.
3. Анисов А.М. ЭВМ и понимание математических доказательств. // “Вопросы философии”: журнал 1987 №3, с. 29-40.
4. Будущее искусственного интеллекта: М., Наука 1991, ред: Карл, Левитин, Поспелов, Хорошевский.
5. Вендров А.М. CASE-технологии. Современные методы и средства проектирования информационных систем.: М., Финансы и статистика 1998.
6. Винер Н. Кибернетика или управление и связь в животном и машине. Второе издание: М., Наука 1983.
7. Лефевр В.А. От психофизики к моделированию души. // “Вопросы философии”: журнал 1990 №7, с. 25-31.
8. Лефевр В.А. “Непостижимая“ эффективность математики в исследованиях человеческой рефлексии. // “Вопросы философии”: журнал 1990 №7, с. 51-58.
9. Поспелов Д.А. Философия или наука. На пути к искусственному интеллекту: М., Наука 1982.
10. Поспелов Д.А. Искусственный интеллект: новый этап развития. // “Вестник АН СССР”: журнал 1987 №4.
11. Петрунин Ю.Ю. Искусственный интеллект как феномен современной культуры. // “Вестник Московского университета”: журнал 1994 №8, с. 28-34.
12. Тьюринг А. Может ли машина мыслить?: М., Наука 1960.
13. Шрейдер Ю.А. Искусственный интеллект, рефлексивные структуры и антропный принцип. // “Вопросы философии”: журнал 1995 №7, с. 163-167.
14. Шрейдер Ю.А. Человеческая рефлексия и две системы этического сознания. // “Вопросы философии”: журнал 1990 №7, с. 32-41.
15. Корниенко Е. Механизмы сознания: www.glasnet.ru 2004 (электронная публикация)
www.ronl.ru
Министерство образования Российской федерации
Уральский государственный лесотехнический университет
Кафедра философии
Реферат на тему :
Сознание и искусственный интеллект
Выполнил: Борисов А.В., ДС-36
Проверил: Яковлева Е.А.
Екатеринбург – 2004
СОДЕРЖАНИЕ
Введение 3
Взгляды на термин “знание” 5
Сознание и разум 8
Искусственный интеллект и теоретическиепроблемы психологии 11
Заключение 13
Список использованной литературы 14
ВВЕДЕНИЕ
Всерасширяющееся применение электронных вычислительных машин и повышение их ролив жизни общества сделало актуальной проблему соотношения возможностейчеловеческого мышления и так называемого машинного, или искусственного,интеллекта.
В настоящее время практически невозможно указать ниодной, сферы человеческой деятельности, где бы не использовались или не моглибыть использованы ЭВМ. При этом возникают вопросы: «Какой вид работы принципиальноне могут выполнить современные ЭВМ и почему?», «Какие сферы, уровни человеческойдеятельности не подвластны автоматизации?», «Каковы перспективы развития ииспользования ЭВМ?»
Ответы на эти вопросы в значительной мере зависят отрешения проблемы соотношения и связи человека и кибернетических машин. Онаимеет не только теоретический, но и практический аспект, так как распределениефункций между человеком и ЭВМ невозможно осуществись без правильного пониманиявопроса о характере этого соотношения и его комплексной разработки в рядеаспектов: кибернетическом, логическом, математическом, психологическом,психофизиологическом. Но при исследовании состояния проблемы и трудностей,встающих на пути ее решения, выдвигаются вопросы, которые выходят за рамкикомпетенции специалистов по кибернетике, логике, математике и психологии итребуют философско-методологического анализа и аргументации.
В литературе, посвященной философским проблемамкибернетики, рассмотрение проблемы соотношения мышления человека и возможностейЭВМ нередко подменялось вопросом: Думают ли машины? При этом понятие «машина»трактовалось слишком абстрактно, а мышление определялось в терминах формальнойлогики и машинных операций. Предполагалось, что развитие «машинного мышления»столкнется лишь с чисто техническими трудностями, которые будут преодолены,подобно тому как авиация, постепенно совершенствуясь, преодолела «звуковойбарьер»
Поводом дляпоспешных оптимистических выводов послужили первые успехи в решении достаточнопростых задач, допускающих их полную алгоритмизацию, программирование ипоследующую автономную обработку информации на ЭВМ. При этом казалось, чторешение и более сложных задач возможно путем увеличения скорости переработкиинформации, объема «памяти», путем автоматического распознавания вводимого вЭВМ текста с помощью автоматических читающих устройств и главное—путем совершенствованияинформационно-логических программ, в частности методов эвристическогопрограммирования.
Однако припереходе к решению сложных задач оказалось невозможным создать полностьюформализованные решения и машинные программы. Причина этого заключается в том,что процесс их решения на всех основных этапах включает неформальные, вчастности творческие, элементы, являющиеся прерогативой исключительночеловека.
Осознание этого обстоятельства и послужило толчком к изменению стратегии применения ЭВМ во всехсферах человеческой деятельности; от стратегии, предполагавшей постепеннуюпринципиально не ограниченную замену функций человеческого интеллекта искусственным,к стратегии кооперирования возможностей человека и ЭВМ. Если раньшекибернетики стремились обосновать и доказать плодотворность далеко идущиханалогий между человеческим мышлением и кибернетическими устройствами, то в настоящеевремя это уже мешает трезвой научной оценке возможностей ЭВМ.
Поэтому актуальной задачей кибернетики стало изучениефундаментальных различий, возможностей и связей человека и кибернетических устройств.
Методологический анализ проблем «искусственногоинтеллекта» и диалогового взаимодействия человека с ЭВМ важен не только дляобоснования общей стратегии решения этих проблем, но и для разработки вопросовраспределения функций человека и ЭВМ в процессе самого решения.
ВЗГЛЯДЫ НА ТЕРМИН “ЗНАНИЕ”
Впоследние годы термин “знание” все чаще употребляется в информатике. Онвстречается в таких словосочетаниях, как “база знаний”, “банк знаний”, языкпредставления знаний”, “системы представления знаний” и других. Специалистыподчеркивают, что совершенствование так называемых интеллектуальных систем(информационно-поисковых систем высокого уровня, диалоговых систем,базирующихся на естественных языках, интерактивных человеко-машинных систем,используемых в управлении, проектировании, научных исследованиях) вот многомопределяется тем, насколько успешно будут решаться задачи представления знаний.
Неудивительно,что перед теми, кто занимается проблемой представлении знаний, встает вопрос отом, что такое знание, какова его природа и основные характеристики. В связи сэтим предпринимаются, например, попытки дать такое определение знания, изкоторого можно было бы исходить в решении задач представления знаний вкомпьютерных системах. Подчеркивается, что для разработки средств и методовпредставления знаний необходимо использовать результаты когнитивной психологии- науки, выявляющей структуры, в виде которых человек хранит информацию об окружающемего мире. Высказывается мнение, что язык и представление знаний в системахискусственного интеллекта должны рассматриваться в рамках особого научногонаправления — когитологии. Предметом когитологии должно стать знание как самостоятельныйаспект реальности.
Представлениюданных присущ пассивный аспект: книга, таблица, заполненная информацией память.В теории искусственного интеллекта особо подчеркивается активный аспектпредставления: “знать” должно стать активной операцией, позволяющей не толькозапоминать, но и извлекать воспринятые (приобретенные, усвоенные) знания длярассуждений на их основе. Следовательно, истоки представления знаний — в наукео познании (эпистемологии или гносеологии), а его конечная цель — программныесредства информатики.
Вместес тем вопрос, что такое знание, каковы его основные свойства и способыполучения, — это исконно философский вопрос. Закономерно поэтому стремлениедать философское осмысление вопросов компьютерного представления знаний,выявляя прежде всего их гносеологические и философско-логические аспекты.
Принципиальнаямировоззренческая установка состоит в рассмотрении ЭВМ как предмета-посредникав человеческой познавательной деятельности. Компьютерная система, подобнодругим предметам-посредникам (орудиям труда и предметам быта, инструментам,приборам, знаково-символическим системам, научным текстам и т. д.), играя инструментальнуюроль в познании, является средством объективизации накопленного знания,воплощением определенного социально-исторического опыта практической ипознавательной деятельности. Ее важнейшая теоретико-познавательная роль иобусловлена тем, что выделение человеком во вновь познаваемых объектов черт, которыеоказываются существенными с точки зрения общественной практики, становитсявозможным именно при помощи предметов-посредников. “ЭВМ, — подчеркивает акад.Г. С. Поспелов, — представляет собой инструмент для интеллектуальнойдеятельности людей, а научное направление “искусственный интеллект” придаетэтому инструменту новые качества и обеспечивает новый, более перспективныйстиль его использования. Спор между сторонниками и противниками искусственногоинтеллекта оказывается в связи с этим совершенно беспредметным.
Дляфилософского анализа рассматриваемой проблематики важен вопрос о том, считатьли термин “знание” в выражении “представление знаний” явлениемпрофессионального жаргона или действительно переход от представления данных кпредставлению знаний имеет существенные гносеологические характеристики и какиеименно? Особенности ЭВМ как предмета-посредника в познании во многомопределяются тем, что ЭВМ относится к такому типу предметов-посредников, какмодели. Термин “модель” употребляется в обыденном языке и в языке науки вразличных значениях. Пусть под моделью понимается некоторая система(материальная или концептуальная), в той или иной форме отображающая некоторыесвойства и отношения другой системы, называемой оригиналом, в точно указанномсмысле замещающая ее и дающая новую информацию об оригинале. При анализегносеологических аспектов моделирования ЭВМ рассматривались вфилософско-методологической литературе прежде всего как материальные модели,создаваемые на основе действия определенных физических закономерностей ифункционирующие благодаря протеканию в них вполне определенных физическихпроцессов. Моделирование на ЭВМ понималось как техническая реализацияопределенной формы знакового моделирования. Однако, рассматривая ЭВМ вгносеологическом плане как предмет посредник в познании, имеет смысл нефиксировать внимание прежде всего на “железной части” (hardware) компьютера, арассматривать всю компьютерную систему как сложную систему взаимосвязанных и донекоторых пределов самостоятельных моделей — как материальных, так и знаковых,т. е. идеальных. Такой подход не только соответствует рассмотрению компьютерныхсистем в современной информатике, но является и гносеологически оправданным.Многие важные философские аспекты проблем, возникающих в связи с компьютеризациейразличных сфер человеческой деятельности, требуют для своего исследованияобращения прежде всего к знаковым составляющим компьютерных систем. Это верно ив отношении философских аспектов проблем представления знаний.
Впоследние годы все чаще стал употребляться термин “компьютерное моделирование”.Т.е.построение любого из составляющих компьютерной системы — будь то знаковаямодель или материальная.
Чтоизменяется в компьютерном моделировании с переходом от представления данных кпредставлению знаний? Каков гносеологический смысл этих изменений? А. Ньюэлл,отмечая, что проблематика представления знаний имеет интересные точкисоприкосновения с философией, ибо природа разума и природа знания всегдаявлялись одним из центральных философских вопросов, пишет: “Однако, интересфилософии к знанию всегда концентрировался на проблеме достоверности… Этонашло отражение в том различении между знанием и верой, которое проводится вфилософии. Искусственный интеллект, рассматривая все знание как содержащиеошибки, называет все-таки свои системы системами знаний. С точки зренияфилософии искусственный интеллект имеет дело только с системами веры.… Такимобразом, учение о знании, если оно разделит с искусственным интеллектомбезразличие к проблеме абсолютной достоверности, окажется оставляющим безвнимания центральные философские вопросы”. Различия в подходах к знанию,имеющиеся в философии и в искусственном интеллекте, не дают оснований дляабсолютного противопоставления этих подходов и для отстранения от проблематикипредставления знаний той философии, которая не желает “оставлять без вниманияцентральные философские вопросы”.
Таким образом понятие “знание” можно считать одним изключевых как с точки зрения теории искусственного интеллекта, так и гносеологии.Но ограничивается ли дело только знанием?
СОЗНАНИЕ И РАЗУМ
Сознаниевозникает у животных как одно из средств, улучшающее их адаптацию к окружающейсреде. Быстрая (по сравнению со временем жизни животного) адаптация требуетспособности предвидеть, а мотивом адаптации служат биологические жизненныепотребности организма. Искусственная система, обладающая такими свойствами,тоже приобретает сознание.
Какустроено сознание? Какие процессы, механизмы, взаимодействующие объектытребуются, чтобы возникло сознание и осознание себя? Что нужно для изготовленияне модели сознания, а просто сознания?
Обычнослово сознание применяется, как характеристика отдельного существа. Оно может«потерять сознание». А слово разум означает принципиальнуюспособность быть сознательным. Например, «человек разумный». Однако,есть и другие толкования.
Неизвестно, как доказать, что человек думает. Уверенность в том, что люди думают,основана на опыте и убеждённости в собственном сознании, а не на измерениях илогических выводах из них. Вот почему науке трудно подступиться к глубокомуизучению сознания. Мы можем изучать мозг, нейроны, языки, поведение, но несознание само по себе. Мы наблюдаем не разум, а разумное поведение.
Суждение же о наличии разума субъективно, вплоть дотого, что некоторые люди считают поведение некоторых своих соплеменников несознательным.
Можно ввести субъективную шкалу разумности.Например, улитка, кошка и человек перечислены здесь в порядке увеличенияразумности. Не исключено, что разум начинается не с самого простейшего уровняорганизации нервной системы, а «возникает» при достаточном еёразвитии. Однако, пока не ясно, что такое разум, и не ясен механизм такоговозникновения, удобно считать, что все существа с нервной системой разумны. Вчастности, самые простые существа могут иметь «нулевую» или «бесконечномалую» разумность. Зато при таком подходе можно сравнить поведение многихживотных, чтобы найти, что же именно в поведении данного животного кажется разумным.Это должны быть такие признаки, которые выявляются у всех без исключенияживотных.
Такие неплохие определения сознания, как способностьк достижению цели, или к нахождению решения, или к принятию решения, не подходят,так как они не конструктивны, в частности, не связаны однозначно с наблюдаемымповедением. «Цель» и «решение» сами определяются через сознание.Способность к общению с себе подобными, и формы такого общения «болеенаблюдаемы», но часто их трудно отличить от физического взаимодействия.Пример: перенос пыльцы.
Хорошим наблюдаемым критерием разумности являетсяспособность активно приспосабливаться к меняющимся окружающим условиям, то естьспособность самообучаться на основе своего опыта. Чем же отличается сознание отсамообучения?
Сознание — это внутреннее свойство, творческий моторсамообучающегося организма. Начальное сознание возникает при такой организациинервной системы, которая обеспечивает возможность обучаться. Это ещё не тосамосознание, которое заставляет уступить место старушке. Конструктивностьэтого определения состоит в том, что оно не ограничивает средства дляизготовления «творческого мотора». Стоит изобрести и создатьустройство, способное самообучаться (именно “само-”, без толчков и внешнеговоздействия, причем не пассивно, а в активной форме, сопровождаемой деятельностью)- и оно получит сознание. Найдите способность к самообучению у робота, и этимбудет доказано, что он обладает сознанием.
Вместо слова «самообучение» иногдаиспользуют более широкое понятие «адаптация». Если существосамостоятельно находит новое поведение в новых условиях, причём никто не училего этому поведению, то это существо способно к адаптации (к самообучению).Изобретение нового поведения — признак творчества (хотя это мнение очень иочень спорно и для доказательства его истинности и ошибочности требуютсясерьезные философские изыскания в области понятия “творчество”), а творчество — один из атрибутов сознания.
Большой потенциал адаптации хорошо виден из такогомысленного эксперимента. Представим себе существо с максимально развитойадаптацией. Пусть это существо вынуждено приспосабливаться к человеческой культуре.И оно научилось играть в шахматы, конструировать космические ракеты и сочинятьизысканные стихи. Кто теперь откажет ему в разумности! Поэтому любыеспособности живого существа к адаптации следует считать проявлениями егосознания. И каждый вправе субъективно оценивать степень развития этогосознания.
«Начальное»сознание не гарантирует осознавания. Осознавание — это такой уровень развитиясознания, при котором субъект отличает себя от других объектов, т. е. выделяетсебя как самостоятельно функционирующую систему.
Осознаваниесебя – главный общепризнанный признак сознания. Однако это лишь частный случайосознавания «внешнего» мира. Мы воспринимаем внешний мир в видеразличных качеств, которые отражают физические параметры природных явлений,регистрируемые нашими органами чувств. Мы осознаём не своё сознание, а своиощущения объектного мира и свои мысли, представимые в виде образов изобъектного мира, то есть в виде образов ощущений. Суждение о собственномсознании выводится из наблюдения своего поведения. Поэтому проблема осознаваниясебя сводится к проблеме осознавания своих ощущений.
Осознаваниеощущений обеспечивает тот же внутренний механизм сознания — мотор самообученияи творчества. Собственно сознание – это не мозг, не поведение, а именномеханизм, то есть особый процесс обработки информации.
Дляосознавания важно, что творческий механизм сознания вырабатывает оптимальное вданных обстоятельствах поведение органов. Поведение мозга — это еговзаимодействие с другими органами. Поведение руки — это её взаимодействие сфизическим миром и с мозгом. Если найдено достаточно совершенное «неулучшаемое» поведение, то осознавание тоже исчезает, заменяясьавтоматическим управлением. Поэтому тщательно отработанное поведение, например,при игре на музыкальном инструменте, становится автоматическим и не отвлекаетосознавание от музыкального творчества. Хотя мы не придаём этому большогозначения, но следует заметить, что сопутствующие автоматическому поведениюощущения тоже могут становиться автоматическими, то есть неосознаваемыми. Например,здоровый человек не обращает внимания на то, что при ходьбе на ступни его ногдействует сила в десятки килограммов. А в другой ситуации мы чувствуем исознательно реагируем на лёгкое прикосновение.
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ТЕОРЕТИЧЕСКИЕ ПРОБЛЕМЫПСИХОЛОГИИ
Можновыделить две основные линии работ по искусственному интеллекту (ИИ). Перваясвязана с совершенствованием самих машин, с повышением«интеллектуальности» искусственных систем. Вторая связана с задачейоптимизации совместной работы «искусственного интеллекта» исобственно интеллектуальных возможностей человека.
Переходяк психологическим проблемам искусственного интеллекта, можно отметить трипозиции по вопросу о взаимодействии психологии и искусственного интеллекта.
1. «Мы мало знаем о человеческомразуме, мы хотим его воссоздать, мы делаем это вопреки отсутствию знаний»- эта позиция характерна для многих зарубежных специалистов по ИИ.
2. Вторая позиция сводится кконстатации ограниченности результатов исследований интеллектуальнойдеятельности, проводившихся психологами, социологами и физиологами. В качествепричины указывается отсутствие адекватных методов. Решение видится ввоссоздании тех или иных интеллектуальных функций в работе машин. Инымисловами, если машина решает задачу ранее решавшуюся человеком, то знания, которые можно почерпнуть, анализируя эту работу и есть основной материал дляпостроения психологических теорий.
3. Третья позиция характеризуетсяоценкой исследования в области искусственного интеллекта и психологии каксовершенно независимых. В этом случае допускается возможность толькопотребления, использования психологических знаний в плане психологическогообеспечения работ по ИИ.
Популярныеидеи системного анализа позволили сделать сравнение принципов работыискусственных систем и собственно человеческой деятельности важнымэвристическим приемом выделения именно специфического психологического анализадеятельности человека.
В1963 г. выступая на совещании по философским вопросам физиологии ВНД ипсихологии, А.Н. Леонтьев сформулировал следующую позицию: машина воспроизводитоперации человеческого мышления, и следовательно соотношение«машинного» и «немашинного» есть соотнесение операциональногои неоперационального в человеческой деятельности. Однако в последствии присравнении операций, из которых слагается работа машины, и операций как единицдеятельности человека выявились существенные различия — в психологическомсмысле «операция» отражает способ достижения результатов,процессуальную характеристику, в то время как применительно к машинной работеэтот термин используется в логико-математическом смысле (характеризуетсярезультатом).
Вработах по искусственному интеллекту постоянно используется термин«цель». В психологической теории деятельности «цель»является конституирующим признаком действия в отличии от операций (идеятельности в целом). В то время как в искусственных системах«целью» называют некоторую конечную ситуацию к которой стремитсясистема. Признаки этой ситуации должны быть четко выявленными и описанными наформальном языке. Цели человеческой деятельности имеют другую природу.Конечная ситуация может по разному отражаться субъектом: как на понятийном уровне,так и в форме представлений. Это отражение может характеризоваться разнойстепенью ясности, отчетливости. Кроме того, для человека характерно не простодостижение готовых целей но и формирование новых.
Такжеработа систем искусственно интеллекта, характеризуется не просто наличиемопераций, программ, «целей», но и оценочными функциями. И уискусственных систем есть своего рода «ценностные ориентации». Спецификучеловеческой мотивационно-эмоциональной регуляции деятельности составляет использование не только константных, но и ситуативно возникающих и динамичноменяющихся оценок, существенно также различие между словесно-логическими иэмоциональными оценками. В существовании потребностей и мотивов видитсяразличие между человеком и машиной на уровне деятельности. Этот тезисповлек за собой цикл исследований, посвященных анализу специфики человеческойдеятельности. Позже была показана зависимость структуры мыслительнойдеятельности при решении творческих задач от изменения мотивации.
Какв действительности показала история, психология и искусственный интеллект какнаучное направление могут находится в достаточно тесном сотрудничестве, взаимнобазируясь на достижениях друг друга.
ЗАКЛЮЧЕНИЕ
Природа мышления, загадка сознания, тайна разума, все это, безусловно, одна из наиболееволнующих человека проблем. Популярность кибернетики, неослабевающий интерес кней со стороны самых широких кругов во многом объясняется именно ее теснойсвязью с этой «вечной» проблемой. С того самого момента, как человекстал задумываться над проблемой мышления, в подходе к ней существуют дваосновных диаметрально противоположных направления: материализм и идеализм.Идеализм исходит из признания мышления некой особой сущностью, в корне отличнойот материи, от всего того, с чем мы имеем дело во внешнем мире. Материализм,напротив, утверждает, что “… тот вещественный, чувственно воспринимаемый намимир, к которому принадлежим мы сами, есть единственный действительный мир инаше сознание и мышление, являются продуктом вещественного, телесного органа”.
Досих пор диалектико-материалистиеское понимание мышления опиралось главнымобразом на обобщенные данные психологии, физиологии и языкознания. Данныекибернетики позволяют поставить вопрос о более конкретном понимании мышления.
Инструментомфилософии является знание. Именно инструментом, а не результатом. Знание неесть конечный предмет, который можно положить в сундук и сказать: “Да, теперь уменя есть знание!” Знание — это цепочка. Знание в области искусственногоинтеллекта — тоже есть цепочка, причем бесконечная.
Инструментомже кибернетики является моделирование. С точки зрения теории моделированиявообще не имеет смысла говорить о полном тождестве модели и оригинала. Поэтомунельзя стопроцентно смоделировать разумное поведение, объект способный мыслить,и поместить его все в тот же сундук. Все это вполне согласуется с понятиемзнания.
СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ
1. Алексеева И.Ю. Искусственныйинтеллект и рефлексия над знаниями. // “Философия науки и техники”: журнал 1991№9, с. 44-53.
2. Алексеева И.Ю. Знание как объекткомпьютерного моделирования. // “Вопросы философии”: журнал 1987 №3, с. 42-49.
3. Анисов А.М. ЭВМ и пониманиематематических доказательств. // “Вопросы философии”: журнал 1987 №3, с. 29-40.
4. Будущее искусственного интеллекта:М., Наука 1991, ред: Карл, Левитин, Поспелов, Хорошевский.
5. Вендров А.М. CASE-технологии.Современные методы и средства проектирования информационных систем.: М.,Финансы и статистика 1998.
6. Винер Н. Кибернетика илиуправление и связь в животном и машине. Второе издание: М., Наука 1983.
7. Лефевр В.А. От психофизики кмоделированию души. // “Вопросы философии”: журнал 1990 №7, с. 25-31.
8. Лефевр В.А. “Непостижимая“эффективность математики в исследованиях человеческой рефлексии. // “Вопросыфилософии”: журнал 1990 №7, с. 51-58.
9. Поспелов Д.А. Философия или наука.На пути к искусственному интеллекту: М., Наука 1982.
10. Поспелов Д.А. Искусственныйинтеллект: новый этап развития. // “Вестник АН СССР”: журнал 1987 №4.
11. Петрунин Ю.Ю. Искусственныйинтеллект как феномен современной культуры. // “Вестник Московскогоуниверситета”: журнал 1994 №8, с. 28-34.
12. Тьюринг А. Может ли машинамыслить?: М., Наука 1960.
13. Шрейдер Ю.А. Искусственныйинтеллект, рефлексивные структуры и антропный принцип. // “Вопросы философии”:журнал 1995 №7, с. 163-167.
14. Шрейдер Ю.А. Человеческаярефлексия и две системы этического сознания. // “Вопросы философии”: журнал1990 №7, с. 32-41.
15. Корниенко Е. Механизмы сознания:www.glasnet.ru 2004 (электронная публикация)
www.ronl.ru
Министерство образования Российской федерации
Уральский государственный лесотехнический университет
Кафедра философии
Реферат на тему :
Сознание и искусственный интеллект
Выполнил: Борисов А.В., ДС-36
Проверил: Яковлева Е.А.
Екатеринбург – 2004
СОДЕРЖАНИЕ
Введение 3
Взгляды на термин “знание” 5
Сознание и разум 8
Искусственный интеллект и теоретическиепроблемы психологии 11
Заключение 13
Список использованной литературы 14
ВВЕДЕНИЕ
Всерасширяющееся применение электронных вычислительных машин и повышение их ролив жизни общества сделало актуальной проблему соотношения возможностейчеловеческого мышления и так называемого машинного, или искусственного,интеллекта.
В настоящее время практически невозможно указать ниодной, сферы человеческой деятельности, где бы не использовались или не моглибыть использованы ЭВМ. При этом возникают вопросы: «Какой вид работы принципиальноне могут выполнить современные ЭВМ и почему?», «Какие сферы, уровни человеческойдеятельности не подвластны автоматизации?», «Каковы перспективы развития ииспользования ЭВМ?»
Ответы на эти вопросы в значительной мере зависят отрешения проблемы соотношения и связи человека и кибернетических машин. Онаимеет не только теоретический, но и практический аспект, так как распределениефункций между человеком и ЭВМ невозможно осуществись без правильного пониманиявопроса о характере этого соотношения и его комплексной разработки в рядеаспектов: кибернетическом, логическом, математическом, психологическом,психофизиологическом. Но при исследовании состояния проблемы и трудностей,встающих на пути ее решения, выдвигаются вопросы, которые выходят за рамкикомпетенции специалистов по кибернетике, логике, математике и психологии итребуют философско-методологического анализа и аргументации.
В литературе, посвященной философским проблемамкибернетики, рассмотрение проблемы соотношения мышления человека и возможностейЭВМ нередко подменялось вопросом: Думают ли машины? При этом понятие «машина»трактовалось слишком абстрактно, а мышление определялось в терминах формальнойлогики и машинных операций. Предполагалось, что развитие «машинного мышления»столкнется лишь с чисто техническими трудностями, которые будут преодолены,подобно тому как авиация, постепенно совершенствуясь, преодолела «звуковойбарьер»
Поводом дляпоспешных оптимистических выводов послужили первые успехи в решении достаточнопростых задач, допускающих их полную алгоритмизацию, программирование ипоследующую автономную обработку информации на ЭВМ. При этом казалось, чторешение и более сложных задач возможно путем увеличения скорости переработкиинформации, объема «памяти», путем автоматического распознавания вводимого вЭВМ текста с помощью автоматических читающих устройств и главное—путем совершенствованияинформационно-логических программ, в частности методов эвристическогопрограммирования.
Однако припереходе к решению сложных задач оказалось невозможным создать полностьюформализованные решения и машинные программы. Причина этого заключается в том,что процесс их решения на всех основных этапах включает неформальные, вчастности творческие, элементы, являющиеся прерогативой исключительночеловека.
Осознание этого обстоятельства и послужило толчком к изменению стратегии применения ЭВМ во всехсферах человеческой деятельности; от стратегии, предполагавшей постепеннуюпринципиально не ограниченную замену функций человеческого интеллекта искусственным,к стратегии кооперирования возможностей человека и ЭВМ. Если раньшекибернетики стремились обосновать и доказать плодотворность далеко идущиханалогий между человеческим мышлением и кибернетическими устройствами, то в настоящеевремя это уже мешает трезвой научной оценке возможностей ЭВМ.
Поэтому актуальной задачей кибернетики стало изучениефундаментальных различий, возможностей и связей человека и кибернетических устройств.
Методологический анализ проблем «искусственногоинтеллекта» и диалогового взаимодействия человека с ЭВМ важен не только дляобоснования общей стратегии решения этих проблем, но и для разработки вопросовраспределения функций человека и ЭВМ в процессе самого решения.
ВЗГЛЯДЫ НА ТЕРМИН “ЗНАНИЕ”
Впоследние годы термин “знание” все чаще употребляется в информатике. Онвстречается в таких словосочетаниях, как “база знаний”, “банк знаний”, языкпредставления знаний”, “системы представления знаний” и других. Специалистыподчеркивают, что совершенствование так называемых интеллектуальных систем(информационно-поисковых систем высокого уровня, диалоговых систем,базирующихся на естественных языках, интерактивных человеко-машинных систем,используемых в управлении, проектировании, научных исследованиях) вот многомопределяется тем, насколько успешно будут решаться задачи представления знаний.
Неудивительно,что перед теми, кто занимается проблемой представлении знаний, встает вопрос отом, что такое знание, какова его природа и основные характеристики. В связи сэтим предпринимаются, например, попытки дать такое определение знания, изкоторого можно было бы исходить в решении задач представления знаний вкомпьютерных системах. Подчеркивается, что для разработки средств и методовпредставления знаний необходимо использовать результаты когнитивной психологии- науки, выявляющей структуры, в виде которых человек хранит информацию об окружающемего мире. Высказывается мнение, что язык и представление знаний в системахискусственного интеллекта должны рассматриваться в рамках особого научногонаправления — когитологии. Предметом когитологии должно стать знание как самостоятельныйаспект реальности.
Представлениюданных присущ пассивный аспект: книга, таблица, заполненная информацией память.В теории искусственного интеллекта особо подчеркивается активный аспектпредставления: “знать” должно стать активной операцией, позволяющей не толькозапоминать, но и извлекать воспринятые (приобретенные, усвоенные) знания длярассуждений на их основе. Следовательно, истоки представления знаний — в наукео познании (эпистемологии или гносеологии), а его конечная цель — программныесредства информатики.
Вместес тем вопрос, что такое знание, каковы его основные свойства и способыполучения, — это исконно философский вопрос. Закономерно поэтому стремлениедать философское осмысление вопросов компьютерного представления знаний,выявляя прежде всего их гносеологические и философско-логические аспекты.
Принципиальнаямировоззренческая установка состоит в рассмотрении ЭВМ как предмета-посредникав человеческой познавательной деятельности. Компьютерная система, подобнодругим предметам-посредникам (орудиям труда и предметам быта, инструментам,приборам, знаково-символическим системам, научным текстам и т. д.), играя инструментальнуюроль в познании, является средством объективизации накопленного знания,воплощением определенного социально-исторического опыта практической ипознавательной деятельности. Ее важнейшая теоретико-познавательная роль иобусловлена тем, что выделение человеком во вновь познаваемых объектов черт, которыеоказываются существенными с точки зрения общественной практики, становитсявозможным именно при помощи предметов-посредников. “ЭВМ, — подчеркивает акад.Г. С. Поспелов, — представляет собой инструмент для интеллектуальнойдеятельности людей, а научное направление “искусственный интеллект” придаетэтому инструменту новые качества и обеспечивает новый, более перспективныйстиль его использования. Спор между сторонниками и противниками искусственногоинтеллекта оказывается в связи с этим совершенно беспредметным.
Дляфилософского анализа рассматриваемой проблематики важен вопрос о том, считатьли термин “знание” в выражении “представление знаний” явлениемпрофессионального жаргона или действительно переход от представления данных кпредставлению знаний имеет существенные гносеологические характеристики и какиеименно? Особенности ЭВМ как предмета-посредника в познании во многомопределяются тем, что ЭВМ относится к такому типу предметов-посредников, какмодели. Термин “модель” употребляется в обыденном языке и в языке науки вразличных значениях. Пусть под моделью понимается некоторая система(материальная или концептуальная), в той или иной форме отображающая некоторыесвойства и отношения другой системы, называемой оригиналом, в точно указанномсмысле замещающая ее и дающая новую информацию об оригинале. При анализегносеологических аспектов моделирования ЭВМ рассматривались вфилософско-методологической литературе прежде всего как материальные модели,создаваемые на основе действия определенных физических закономерностей ифункционирующие благодаря протеканию в них вполне определенных физическихпроцессов. Моделирование на ЭВМ понималось как техническая реализацияопределенной формы знакового моделирования. Однако, рассматривая ЭВМ вгносеологическом плане как предмет посредник в познании, имеет смысл нефиксировать внимание прежде всего на “железной части” (hardware) компьютера, арассматривать всю компьютерную систему как сложную систему взаимосвязанных и донекоторых пределов самостоятельных моделей — как материальных, так и знаковых,т. е. идеальных. Такой подход не только соответствует рассмотрению компьютерныхсистем в современной информатике, но является и гносеологически оправданным.Многие важные философские аспекты проблем, возникающих в связи с компьютеризациейразличных сфер человеческой деятельности, требуют для своего исследованияобращения прежде всего к знаковым составляющим компьютерных систем. Это верно ив отношении философских аспектов проблем представления знаний.
Впоследние годы все чаще стал употребляться термин “компьютерное моделирование”.Т.е.построение любого из составляющих компьютерной системы — будь то знаковаямодель или материальная.
Чтоизменяется в компьютерном моделировании с переходом от представления данных кпредставлению знаний? Каков гносеологический смысл этих изменений? А. Ньюэлл,отмечая, что проблематика представления знаний имеет интересные точкисоприкосновения с философией, ибо природа разума и природа знания всегдаявлялись одним из центральных философских вопросов, пишет: “Однако, интересфилософии к знанию всегда концентрировался на проблеме достоверности… Этонашло отражение в том различении между знанием и верой, которое проводится вфилософии. Искусственный интеллект, рассматривая все знание как содержащиеошибки, называет все-таки свои системы системами знаний. С точки зренияфилософии искусственный интеллект имеет дело только с системами веры.… Такимобразом, учение о знании, если оно разделит с искусственным интеллектомбезразличие к проблеме абсолютной достоверности, окажется оставляющим безвнимания центральные философские вопросы”. Различия в подходах к знанию,имеющиеся в философии и в искусственном интеллекте, не дают оснований дляабсолютного противопоставления этих подходов и для отстранения от проблематикипредставления знаний той философии, которая не желает “оставлять без вниманияцентральные философские вопросы”.
Таким образом понятие “знание” можно считать одним изключевых как с точки зрения теории искусственного интеллекта, так и гносеологии.Но ограничивается ли дело только знанием?
СОЗНАНИЕ И РАЗУМ
Сознаниевозникает у животных как одно из средств, улучшающее их адаптацию к окружающейсреде. Быстрая (по сравнению со временем жизни животного) адаптация требуетспособности предвидеть, а мотивом адаптации служат биологические жизненныепотребности организма. Искусственная система, обладающая такими свойствами,тоже приобретает сознание.
Какустроено сознание? Какие процессы, механизмы, взаимодействующие объектытребуются, чтобы возникло сознание и осознание себя? Что нужно для изготовленияне модели сознания, а просто сознания?
Обычнослово сознание применяется, как характеристика отдельного существа. Оно может«потерять сознание». А слово разум означает принципиальнуюспособность быть сознательным. Например, «человек разумный». Однако,есть и другие толкования.
Неизвестно, как доказать, что человек думает. Уверенность в том, что люди думают,основана на опыте и убеждённости в собственном сознании, а не на измерениях илогических выводах из них. Вот почему науке трудно подступиться к глубокомуизучению сознания. Мы можем изучать мозг, нейроны, языки, поведение, но несознание само по себе. Мы наблюдаем не разум, а разумное поведение.
Суждение же о наличии разума субъективно, вплоть дотого, что некоторые люди считают поведение некоторых своих соплеменников несознательным.
Можно ввести субъективную шкалу разумности.Например, улитка, кошка и человек перечислены здесь в порядке увеличенияразумности. Не исключено, что разум начинается не с самого простейшего уровняорганизации нервной системы, а «возникает» при достаточном еёразвитии. Однако, пока не ясно, что такое разум, и не ясен механизм такоговозникновения, удобно считать, что все существа с нервной системой разумны. Вчастности, самые простые существа могут иметь «нулевую» или «бесконечномалую» разумность. Зато при таком подходе можно сравнить поведение многихживотных, чтобы найти, что же именно в поведении данного животного кажется разумным.Это должны быть такие признаки, которые выявляются у всех без исключенияживотных.
Такие неплохие определения сознания, как способностьк достижению цели, или к нахождению решения, или к принятию решения, не подходят,так как они не конструктивны, в частности, не связаны однозначно с наблюдаемымповедением. «Цель» и «решение» сами определяются через сознание.Способность к общению с себе подобными, и формы такого общения «болеенаблюдаемы», но часто их трудно отличить от физического взаимодействия.Пример: перенос пыльцы.
Хорошим наблюдаемым критерием разумности являетсяспособность активно приспосабливаться к меняющимся окружающим условиям, то естьспособность самообучаться на основе своего опыта. Чем же отличается сознание отсамообучения?
Сознание — это внутреннее свойство, творческий моторсамообучающегося организма. Начальное сознание возникает при такой организациинервной системы, которая обеспечивает возможность обучаться. Это ещё не тосамосознание, которое заставляет уступить место старушке. Конструктивностьэтого определения состоит в том, что оно не ограничивает средства дляизготовления «творческого мотора». Стоит изобрести и создатьустройство, способное самообучаться (именно “само-”, без толчков и внешнеговоздействия, причем не пассивно, а в активной форме, сопровождаемой деятельностью)- и оно получит сознание. Найдите способность к самообучению у робота, и этимбудет доказано, что он обладает сознанием.
Вместо слова «самообучение» иногдаиспользуют более широкое понятие «адаптация». Если существосамостоятельно находит новое поведение в новых условиях, причём никто не училего этому поведению, то это существо способно к адаптации (к самообучению).Изобретение нового поведения — признак творчества (хотя это мнение очень иочень спорно и для доказательства его истинности и ошибочности требуютсясерьезные философские изыскания в области понятия “творчество”), а творчество — один из атрибутов сознания.
Большой потенциал адаптации хорошо виден из такогомысленного эксперимента. Представим себе существо с максимально развитойадаптацией. Пусть это существо вынуждено приспосабливаться к человеческой культуре.И оно научилось играть в шахматы, конструировать космические ракеты и сочинятьизысканные стихи. Кто теперь откажет ему в разумности! Поэтому любыеспособности живого существа к адаптации следует считать проявлениями егосознания. И каждый вправе субъективно оценивать степень развития этогосознания.
«Начальное»сознание не гарантирует осознавания. Осознавание — это такой уровень развитиясознания, при котором субъект отличает себя от других объектов, т. е. выделяетсебя как самостоятельно функционирующую систему.
Осознаваниесебя – главный общепризнанный признак сознания. Однако это лишь частный случайосознавания «внешнего» мира. Мы воспринимаем внешний мир в видеразличных качеств, которые отражают физические параметры природных явлений,регистрируемые нашими органами чувств. Мы осознаём не своё сознание, а своиощущения объектного мира и свои мысли, представимые в виде образов изобъектного мира, то есть в виде образов ощущений. Суждение о собственномсознании выводится из наблюдения своего поведения. Поэтому проблема осознаваниясебя сводится к проблеме осознавания своих ощущений.
Осознаваниеощущений обеспечивает тот же внутренний механизм сознания — мотор самообученияи творчества. Собственно сознание – это не мозг, не поведение, а именномеханизм, то есть особый процесс обработки информации.
Дляосознавания важно, что творческий механизм сознания вырабатывает оптимальное вданных обстоятельствах поведение органов. Поведение мозга — это еговзаимодействие с другими органами. Поведение руки — это её взаимодействие сфизическим миром и с мозгом. Если найдено достаточно совершенное «неулучшаемое» поведение, то осознавание тоже исчезает, заменяясьавтоматическим управлением. Поэтому тщательно отработанное поведение, например,при игре на музыкальном инструменте, становится автоматическим и не отвлекаетосознавание от музыкального творчества. Хотя мы не придаём этому большогозначения, но следует заметить, что сопутствующие автоматическому поведениюощущения тоже могут становиться автоматическими, то есть неосознаваемыми. Например,здоровый человек не обращает внимания на то, что при ходьбе на ступни его ногдействует сила в десятки килограммов. А в другой ситуации мы чувствуем исознательно реагируем на лёгкое прикосновение.
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ТЕОРЕТИЧЕСКИЕ ПРОБЛЕМЫПСИХОЛОГИИ
Можновыделить две основные линии работ по искусственному интеллекту (ИИ). Перваясвязана с совершенствованием самих машин, с повышением«интеллектуальности» искусственных систем. Вторая связана с задачейоптимизации совместной работы «искусственного интеллекта» исобственно интеллектуальных возможностей человека.
Переходяк психологическим проблемам искусственного интеллекта, можно отметить трипозиции по вопросу о взаимодействии психологии и искусственного интеллекта.
1. «Мы мало знаем о человеческомразуме, мы хотим его воссоздать, мы делаем это вопреки отсутствию знаний»- эта позиция характерна для многих зарубежных специалистов по ИИ.
2. Вторая позиция сводится кконстатации ограниченности результатов исследований интеллектуальнойдеятельности, проводившихся психологами, социологами и физиологами. В качествепричины указывается отсутствие адекватных методов. Решение видится ввоссоздании тех или иных интеллектуальных функций в работе машин. Инымисловами, если машина решает задачу ранее решавшуюся человеком, то знания, которые можно почерпнуть, анализируя эту работу и есть основной материал дляпостроения психологических теорий.
3. Третья позиция характеризуетсяоценкой исследования в области искусственного интеллекта и психологии каксовершенно независимых. В этом случае допускается возможность толькопотребления, использования психологических знаний в плане психологическогообеспечения работ по ИИ.
Популярныеидеи системного анализа позволили сделать сравнение принципов работыискусственных систем и собственно человеческой деятельности важнымэвристическим приемом выделения именно специфического психологического анализадеятельности человека.
В1963 г. выступая на совещании по философским вопросам физиологии ВНД ипсихологии, А.Н. Леонтьев сформулировал следующую позицию: машина воспроизводитоперации человеческого мышления, и следовательно соотношение«машинного» и «немашинного» есть соотнесение операциональногои неоперационального в человеческой деятельности. Однако в последствии присравнении операций, из которых слагается работа машины, и операций как единицдеятельности человека выявились существенные различия — в психологическомсмысле «операция» отражает способ достижения результатов,процессуальную характеристику, в то время как применительно к машинной работеэтот термин используется в логико-математическом смысле (характеризуетсярезультатом).
Вработах по искусственному интеллекту постоянно используется термин«цель». В психологической теории деятельности «цель»является конституирующим признаком действия в отличии от операций (идеятельности в целом). В то время как в искусственных системах«целью» называют некоторую конечную ситуацию к которой стремитсясистема. Признаки этой ситуации должны быть четко выявленными и описанными наформальном языке. Цели человеческой деятельности имеют другую природу.Конечная ситуация может по разному отражаться субъектом: как на понятийном уровне,так и в форме представлений. Это отражение может характеризоваться разнойстепенью ясности, отчетливости. Кроме того, для человека характерно не простодостижение готовых целей но и формирование новых.
Такжеработа систем искусственно интеллекта, характеризуется не просто наличиемопераций, программ, «целей», но и оценочными функциями. И уискусственных систем есть своего рода «ценностные ориентации». Спецификучеловеческой мотивационно-эмоциональной регуляции деятельности составляет использование не только константных, но и ситуативно возникающих и динамичноменяющихся оценок, существенно также различие между словесно-логическими иэмоциональными оценками. В существовании потребностей и мотивов видитсяразличие между человеком и машиной на уровне деятельности. Этот тезисповлек за собой цикл исследований, посвященных анализу специфики человеческойдеятельности. Позже была показана зависимость структуры мыслительнойдеятельности при решении творческих задач от изменения мотивации.
Какв действительности показала история, психология и искусственный интеллект какнаучное направление могут находится в достаточно тесном сотрудничестве, взаимнобазируясь на достижениях друг друга.
ЗАКЛЮЧЕНИЕ
Природа мышления, загадка сознания, тайна разума, все это, безусловно, одна из наиболееволнующих человека проблем. Популярность кибернетики, неослабевающий интерес кней со стороны самых широких кругов во многом объясняется именно ее теснойсвязью с этой «вечной» проблемой. С того самого момента, как человекстал задумываться над проблемой мышления, в подходе к ней существуют дваосновных диаметрально противоположных направления: материализм и идеализм.Идеализм исходит из признания мышления некой особой сущностью, в корне отличнойот материи, от всего того, с чем мы имеем дело во внешнем мире. Материализм,напротив, утверждает, что “… тот вещественный, чувственно воспринимаемый намимир, к которому принадлежим мы сами, есть единственный действительный мир инаше сознание и мышление, являются продуктом вещественного, телесного органа”.
Досих пор диалектико-материалистиеское понимание мышления опиралось главнымобразом на обобщенные данные психологии, физиологии и языкознания. Данныекибернетики позволяют поставить вопрос о более конкретном понимании мышления.
Инструментомфилософии является знание. Именно инструментом, а не результатом. Знание неесть конечный предмет, который можно положить в сундук и сказать: “Да, теперь уменя есть знание!” Знание — это цепочка. Знание в области искусственногоинтеллекта — тоже есть цепочка, причем бесконечная.
Инструментомже кибернетики является моделирование. С точки зрения теории моделированиявообще не имеет смысла говорить о полном тождестве модели и оригинала. Поэтомунельзя стопроцентно смоделировать разумное поведение, объект способный мыслить,и поместить его все в тот же сундук. Все это вполне согласуется с понятиемзнания.
СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ
1. Алексеева И.Ю. Искусственныйинтеллект и рефлексия над знаниями. // “Философия науки и техники”: журнал 1991№9, с. 44-53.
2. Алексеева И.Ю. Знание как объекткомпьютерного моделирования. // “Вопросы философии”: журнал 1987 №3, с. 42-49.
3. Анисов А.М. ЭВМ и пониманиематематических доказательств. // “Вопросы философии”: журнал 1987 №3, с. 29-40.
4. Будущее искусственного интеллекта:М., Наука 1991, ред: Карл, Левитин, Поспелов, Хорошевский.
5. Вендров А.М. CASE-технологии.Современные методы и средства проектирования информационных систем.: М.,Финансы и статистика 1998.
6. Винер Н. Кибернетика илиуправление и связь в животном и машине. Второе издание: М., Наука 1983.
7. Лефевр В.А. От психофизики кмоделированию души. // “Вопросы философии”: журнал 1990 №7, с. 25-31.
8. Лефевр В.А. “Непостижимая“эффективность математики в исследованиях человеческой рефлексии. // “Вопросыфилософии”: журнал 1990 №7, с. 51-58.
9. Поспелов Д.А. Философия или наука.На пути к искусственному интеллекту: М., Наука 1982.
10. Поспелов Д.А. Искусственныйинтеллект: новый этап развития. // “Вестник АН СССР”: журнал 1987 №4.
11. Петрунин Ю.Ю. Искусственныйинтеллект как феномен современной культуры. // “Вестник Московскогоуниверситета”: журнал 1994 №8, с. 28-34.
12. Тьюринг А. Может ли машинамыслить?: М., Наука 1960.
13. Шрейдер Ю.А. Искусственныйинтеллект, рефлексивные структуры и антропный принцип. // “Вопросы философии”:журнал 1995 №7, с. 163-167.
14. Шрейдер Ю.А. Человеческаярефлексия и две системы этического сознания. // “Вопросы философии”: журнал1990 №7, с. 32-41.
15. Корниенко Е. Механизмы сознания:www.glasnet.ru 2004 (электронная публикация)
www.ronl.ru
Министерство образования Российской федерации
Уральский государственный лесотехнический университет
Кафедра философии
Реферат на тему :
Сознание и искусственный интеллект
Выполнил: Борисов А.В., ДС-36
Проверил: Яковлева Е.А.
Екатеринбург – 2004
СОДЕРЖАНИЕ
Введение 3
Взгляды на термин “знание” 5
Сознание и разум 8
Искусственный интеллект и теоретические проблемы психологии 11
Заключение 13
Список использованной литературы 14
ВВЕДЕНИЕ
Все расширяющееся применение электронных вычислительных машин и повышение их роли в жизни общества сделало актуальной проблему соотношения возможностей человеческого мышления и так называемого машинного, или искусственного, интеллекта.
В настоящее время практически невозможно указать ни одной, сферы человеческой деятельности, где бы не использовались или не могли быть использованы ЭВМ. При этом возникают вопросы: «Какой вид работы принципиально не могут выполнить современные ЭВМ и почему?», «Какие сферы, уровни человеческой деятельности не подвластны автоматизации?», «Каковы перспективы развития и использования ЭВМ?»
Ответы на эти вопросы в значительной мере зависят от решения проблемы соотношения и связи человека и кибернетических машин. Она имеет не только теоретический, но и практический аспект, так как распределение функций между человеком и ЭВМ невозможно осуществись без правильного понимания вопроса о характере этого соотношения и его комплексной разработки в ряде аспектов: кибернетическом, логическом, математическом, психологическом, психофизиологическом. Но при исследовании состояния проблемы и трудностей, встающих на пути ее решения, выдвигаются вопросы, которые выходят за рамки компетенции специалистов по кибернетике, логике, математике и психологии и требуют философско-методологического анализа и аргументации.
В литературе, посвященной философским проблемам кибернетики, рассмотрение проблемы соотношения мышления человека и возможностей ЭВМ нередко подменялось вопросом: Думают ли машины? При этом понятие «машина» трактовалось слишком абстрактно, а мышление определялось в терминах формальной логики и машинных операций. Предполагалось, что развитие «машинного мышления» столкнется лишь с чисто техническими трудностями, которые будут преодолены, подобно тому как авиация, постепенно совершенствуясь, преодолела «звуковой барьер»
Поводом для поспешных оптимистических выводов послужили первые успехи в решении достаточно простых задач, допускающих их полную алгоритмизацию, программирование и последующую автономную обработку информации на ЭВМ. При этом казалось, что решение и более сложных задач возможно путем увеличения скорости переработки информации, объема «памяти», путем автоматического распознавания вводимого в ЭВМ текста с помощью автоматических читающих устройств и главное—путем совершенствования информационно-логических программ, в частности методов эвристического программирования.
Однако при переходе к решению сложных задач оказалось невозможным создать полностью формализованные решения и машинные программы. Причина этого заключается в том, что процесс их решения на всех основных этапах включает неформальные, в частности творческие, элементы, являющиеся прерогативой исключительно человека.
Осознание этого обстоятельства и послужило толчком к изменению стратегии применения ЭВМ во всех сферах человеческой деятельности; от стратегии, предполагавшей постепенную принципиально не ограниченную замену функций человеческого интеллекта искусственным, к стратегии кооперирования возможностей человека и ЭВМ. Если раньше кибернетики стремились обосновать и доказать плодотворность далеко идущих аналогий между человеческим мышлением и кибернетическими устройствами, то в настоящее время это уже мешает трезвой научной оценке возможностей ЭВМ.
Поэтому актуальной задачей кибернетики стало изучение фундаментальных различий, возможностей и связей человека и кибернетических устройств.
Методологический анализ проблем «искусственного интеллекта» и диалогового взаимодействия человека с ЭВМ важен не только для обоснования общей стратегии решения этих проблем, но и для разработки вопросов распределения функций человека и ЭВМ в процессе самого решения.
ВЗГЛЯДЫ НА ТЕРМИН “ЗНАНИЕ”
В последние годы термин “знание” все чаще употребляется в информатике. Он встречается в таких словосочетаниях, как “база знаний”, “банк знаний”, язык представления знаний”, “системы представления знаний” и других. Специалисты подчеркивают, что совершенствование так называемых интеллектуальных систем (информационно-поисковых систем высокого уровня, диалоговых систем, базирующихся на естественных языках, интерактивных человеко-машинных систем, используемых в управлении, проектировании, научных исследованиях) вот многом определяется тем, насколько успешно будут решаться задачи представления знаний.
Неудивительно, что перед теми, кто занимается проблемой представлении знаний, встает вопрос о том, что такое знание, какова его природа и основные характеристики. В связи с этим предпринимаются, например, попытки дать такое определение знания, из которого можно было бы исходить в решении задач представления знаний в компьютерных системах. Подчеркивается, что для разработки средств и методов представления знаний необходимо использовать результаты когнитивной психологии — науки, выявляющей структуры, в виде которых человек хранит информацию об окружающем его мире. Высказывается мнение, что язык и представление знаний в системах искусственного интеллекта должны рассматриваться в рамках особого научного направления — когитологии. Предметом когитологии должно стать знание как самостоятельный аспект реальности.
Представлению данных присущ пассивный аспект: книга, таблица, заполненная информацией память. В теории искусственного интеллекта особо подчеркивается активный аспект представления: “знать” должно стать активной операцией, позволяющей не только запоминать, но и извлекать воспринятые (приобретенные, усвоенные) знания для рассуждений на их основе. Следовательно, истоки представления знаний — в науке о познании (эпистемологии или гносеологии), а его конечная цель — программные средства информатики.
Вместе с тем вопрос, что такое знание, каковы его основные свойства и способы получения, — это исконно философский вопрос. Закономерно поэтому стремление дать философское осмысление вопросов компьютерного представления знаний, выявляя прежде всего их гносеологические и философско-логические аспекты.
Принципиальная мировоззренческая установка состоит в рассмотрении ЭВМ как предмета-посредника в человеческой познавательной деятельности. Компьютерная система, подобно другим предметам-посредникам (орудиям труда и предметам быта, инструментам, приборам, знаково-символическим системам, научным текстам и т. д.), играя инструментальную роль в познании, является средством объективизации накопленного знания, воплощением определенного социально-исторического опыта практической и познавательной деятельности. Ее важнейшая теоретико-познавательная роль и обусловлена тем, что выделение человеком во вновь познаваемых объектов черт, которые оказываются существенными с точки зрения общественной практики, становится возможным именно при помощи предметов-посредников. “ЭВМ, — подчеркивает акад. Г. С. Поспелов, — представляет собой инструмент для интеллектуальной деятельности людей, а научное направление “искусственный интеллект” придает этому инструменту новые качества и обеспечивает новый, более перспективный стиль его использования. Спор между сторонниками и противниками искусственного интеллекта оказывается в связи с этим совершенно беспредметным.
Для философского анализа рассматриваемой проблематики важен вопрос о том, считать ли термин “знание” в выражении “представление знаний” явлением профессионального жаргона или действительно переход от представления данных к представлению знаний имеет существенные гносеологические характеристики и какие именно? Особенности ЭВМ как предмета-посредника в познании во многом определяются тем, что ЭВМ относится к такому типу предметов-посредников, как модели. Термин “модель” употребляется в обыденном языке и в языке науки в различных значениях. Пусть под моделью понимается некоторая система (материальная или концептуальная), в той или иной форме отображающая некоторые свойства и отношения другой системы, называемой оригиналом, в точно указанном смысле замещающая ее и дающая новую информацию об оригинале. При анализе гносеологических аспектов моделирования ЭВМ рассматривались в философско-методологической литературе прежде всего как материальные модели, создаваемые на основе действия определенных физических закономерностей и функционирующие благодаря протеканию в них вполне определенных физических процессов. Моделирование на ЭВМ понималось как техническая реализация определенной формы знакового моделирования. Однако, рассматривая ЭВМ в гносеологическом плане как предмет посредник в познании, имеет смысл не фиксировать внимание прежде всего на “железной части” (hardware) компьютера, а рассматривать всю компьютерную систему как сложную систему взаимосвязанных и до некоторых пределов самостоятельных моделей — как материальных, так и знаковых, т. е. идеальных. Такой подход не только соответствует рассмотрению компьютерных систем в современной информатике, но является и гносеологически оправданным. Многие важные философские аспекты проблем, возникающих в связи с компьютеризацией различных сфер человеческой деятельности, требуют для своего исследования обращения прежде всего к знаковым составляющим компьютерных систем. Это верно и в отношении философских аспектов проблем представления знаний.
В последние годы все чаще стал употребляться термин “компьютерное моделирование”.Т.е. построение любого из составляющих компьютерной системы — будь то знаковая модель или материальная.
Что изменяется в компьютерном моделировании с переходом от представления данных к представлению знаний? Каков гносеологический смысл этих изменений? А. Ньюэлл, отмечая, что проблематика представления знаний имеет интересные точки соприкосновения с философией, ибо природа разума и природа знания всегда являлись одним из центральных философских вопросов, пишет: “Однако, интерес философии к знанию всегда концентрировался на проблеме достоверности… Это нашло отражение в том различении между знанием и верой, которое проводится в философии. Искусственный интеллект, рассматривая все знание как содержащие ошибки, называет все-таки свои системы системами знаний. С точки зрения философии искусственный интеллект имеет дело только с системами веры.… Таким образом, учение о знании, если оно разделит с искусственным интеллектом безразличие к проблеме абсолютной достоверности, окажется оставляющим без внимания центральные философские вопросы”. Различия в подходах к знанию, имеющиеся в философии и в искусственном интеллекте, не дают оснований для абсолютного противопоставления этих подходов и для отстранения от проблематики представления знаний той философии, которая не желает “оставлять без внимания центральные философские вопросы”.
Таким образом понятие “знание” можно считать одним из ключевых как с точки зрения теории искусственного интеллекта, так и гносеологии. Но ограничивается ли дело только знанием?
СОЗНАНИЕ И РАЗУМ
Сознание возникает у животных как одно из средств, улучшающее их адаптацию к окружающей среде. Быстрая (по сравнению со временем жизни животного) адаптация требует способности предвидеть, а мотивом адаптации служат биологические жизненные потребности организма. Искусственная система, обладающая такими свойствами, тоже приобретает сознание.
Как устроено сознание? Какие процессы, механизмы, взаимодействующие объекты требуются, чтобы возникло сознание и осознание себя? Что нужно для изготовления не модели сознания, а просто сознания?
Обычно слово сознание применяется, как характеристика отдельного существа. Оно может «потерять сознание». А слово разум означает принципиальную способность быть сознательным. Например, «человек разумный». Однако, есть и другие толкования.
Не известно, как доказать, что человек думает. Уверенность в том, что люди думают, основана на опыте и убеждённости в собственном сознании, а не на измерениях и логических выводах из них. Вот почему науке трудно подступиться к глубокому изучению сознания. Мы можем изучать мозг, нейроны, языки, поведение, но не сознание само по себе. Мы наблюдаем не разум, а разумное поведение.
Суждение же о наличии разума субъективно, вплоть до того, что некоторые люди считают поведение некоторых своих соплеменников несознательным.
Можно ввести субъективную шкалу разумности. Например, улитка, кошка и человек перечислены здесь в порядке увеличения разумности. Не исключено, что разум начинается не с самого простейшего уровня организации нервной системы, а «возникает» при достаточном её развитии. Однако, пока не ясно, что такое разум, и не ясен механизм такого возникновения, удобно считать, что все существа с нервной системой разумны. В частности, самые простые существа могут иметь «нулевую» или «бесконечно малую» разумность. Зато при таком подходе можно сравнить поведение многих животных, чтобы найти, что же именно в поведении данного животного кажется разумным. Это должны быть такие признаки, которые выявляются у всех без исключения животных.
Такие неплохие определения сознания, как способность к достижению цели, или к нахождению решения, или к принятию решения, не подходят, так как они не конструктивны, в частности, не связаны однозначно с наблюдаемым поведением. «Цель» и «решение» сами определяются через сознание. Способность к общению с себе подобными, и формы такого общения «более наблюдаемы», но часто их трудно отличить от физического взаимодействия. Пример: перенос пыльцы.
Хорошим наблюдаемым критерием разумности является способность активно приспосабливаться к меняющимся окружающим условиям, то есть способность самообучаться на основе своего опыта. Чем же отличается сознание от самообучения?
Сознание — это внутреннее свойство, творческий мотор самообучающегося организма. Начальное сознание возникает при такой организации нервной системы, которая обеспечивает возможность обучаться. Это ещё не то самосознание, которое заставляет уступить место старушке. Конструктивность этого определения состоит в том, что оно не ограничивает средства для изготовления «творческого мотора». Стоит изобрести и создать устройство, способное самообучаться (именно “само-”, без толчков и внешнего воздействия, причем не пассивно, а в активной форме, сопровождаемой деятельностью) — и оно получит сознание. Найдите способность к самообучению у робота, и этим будет доказано, что он обладает сознанием.
Вместо слова «самообучение» иногда используют более широкое понятие «адаптация». Если существо самостоятельно находит новое поведение в новых условиях, причём никто не учил его этому поведению, то это существо способно к адаптации (к самообучению). Изобретение нового поведения — признак творчества (хотя это мнение очень и очень спорно и для доказательства его истинности и ошибочности требуются серьезные философские изыскания в области понятия “творчество”), а творчество — один из атрибутов сознания.
Большой потенциал адаптации хорошо виден из такого мысленного эксперимента. Представим себе существо с максимально развитой адаптацией. Пусть это существо вынуждено приспосабливаться к человеческой культуре. И оно научилось играть в шахматы, конструировать космические ракеты и сочинять изысканные стихи. Кто теперь откажет ему в разумности! Поэтому любые способности живого существа к адаптации следует считать проявлениями его сознания. И каждый вправе субъективно оценивать степень развития этого сознания.
«Начальное» сознание не гарантирует осознавания. Осознавание — это такой уровень развития сознания, при котором субъект отличает себя от других объектов, т. е. выделяет себя как самостоятельно функционирующую систему.
Осознавание себя – главный общепризнанный признак сознания. Однако это лишь частный случай осознавания «внешнего» мира. Мы воспринимаем внешний мир в виде различных качеств, которые отражают физические параметры природных явлений, регистрируемые нашими органами чувств. Мы осознаём не своё сознание, а свои ощущения объектного мира и свои мысли, представимые в виде образов из объектного мира, то есть в виде образов ощущений. Суждение о собственном сознании выводится из наблюдения своего поведения. Поэтому проблема осознавания себя сводится к проблеме осознавания своих ощущений.
Осознавание ощущений обеспечивает тот же внутренний механизм сознания — мотор самообучения и творчества. Собственно сознание – это не мозг, не поведение, а именно механизм, то есть особый процесс обработки информации.
Для осознавания важно, что творческий механизм сознания вырабатывает оптимальное в данных обстоятельствах поведение органов. Поведение мозга — это его взаимодействие с другими органами. Поведение руки — это её взаимодействие с физическим миром и с мозгом. Если найдено достаточно совершенное «не улучшаемое» поведение, то осознавание тоже исчезает, заменяясь автоматическим управлением. Поэтому тщательно отработанное поведение, например, при игре на музыкальном инструменте, становится автоматическим и не отвлекает осознавание от музыкального творчества. Хотя мы не придаём этому большого значения, но следует заметить, что сопутствующие автоматическому поведению ощущения тоже могут становиться автоматическими, то есть неосознаваемыми. Например, здоровый человек не обращает внимания на то, что при ходьбе на ступни его ног действует сила в десятки килограммов. А в другой ситуации мы чувствуем и сознательно реагируем на лёгкое прикосновение.
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ТЕОРЕТИЧЕСКИЕ ПРОБЛЕМЫ ПСИХОЛОГИИ
Можно выделить две основные линии работ по искусственному интеллекту (ИИ). Первая связана с совершенствованием самих машин, с повышением «интеллектуальности» искусственных систем. Вторая связана с задачей оптимизации совместной работы «искусственного интеллекта» и собственно интеллектуальных возможностей человека.
Переходя к психологическим проблемам искусственного интеллекта, можно отметить три позиции по вопросу о взаимодействии психологии и искусственного интеллекта.
1. «Мы мало знаем о человеческом разуме, мы хотим его воссоздать, мы делаем это вопреки отсутствию знаний» — эта позиция характерна для многих зарубежных специалистов по ИИ.
2. Вторая позиция сводится к констатации ограниченности результатов исследований интеллектуальной деятельности, проводившихся психологами, социологами и физиологами. В качестве причины указывается отсутствие адекватных методов. Решение видится в воссоздании тех или иных интеллектуальных функций в работе машин. Иными словами, если машина решает задачу ранее решавшуюся человеком, то знания, которые можно почерпнуть, анализируя эту работу и есть основной материал для построения психологических теорий.
3. Третья позиция характеризуется оценкой исследования в области искусственного интеллекта и психологии как совершенно независимых. В этом случае допускается возможность только потребления, использования психологических знаний в плане психологического обеспечения работ по ИИ.
Популярные идеи системного анализа позволили сделать сравнение принципов работы искусственных систем и собственно человеческой деятельности важным эвристическим приемом выделения именно специфического психологического анализа деятельности человека.
В 1963 г. выступая на совещании по философским вопросам физиологии ВНД и психологии, А.Н. Леонтьев сформулировал следующую позицию: машина воспроизводит операции человеческого мышления, и следовательно соотношение «машинного» и «немашинного» есть соотнесение операционального и неоперационального в человеческой деятельности. Однако в последствии при сравнении операций, из которых слагается работа машины, и операций как единиц деятельности человека выявились существенные различия — в психологическом смысле «операция» отражает способ достижения результатов, процессуальную характеристику, в то время как применительно к машинной работе этот термин используется в логико-математическом смысле (характеризуется результатом).
В работах по искусственному интеллекту постоянно используется термин «цель». В психологической теории деятельности «цель» является конституирующим признаком действия в отличии от операций (и деятельности в целом). В то время как в искусственных системах «целью» называют некоторую конечную ситуацию к которой стремится система. Признаки этой ситуации должны быть четко выявленными и описанными на формальном языке. Цели человеческой деятельности имеют другую природу. Конечная ситуация может по разному отражаться субъектом: как на понятийном уровне, так и в форме представлений. Это отражение может характеризоваться разной степенью ясности, отчетливости. Кроме того, для человека характерно не просто достижение готовых целей но и формирование новых.
Также работа систем искусственно интеллекта, характеризуется не просто наличием операций, программ, «целей», но и оценочными функциями. И у искусственных систем есть своего рода «ценностные ориентации». Специфику человеческой мотивационно-эмоциональной регуляции деятельности составляет использование не только константных, но и ситуативно возникающих и динамично меняющихся оценок, существенно также различие между словесно-логическими и эмоциональными оценками. В существовании потребностей и мотивов видится различие между человеком и машиной на уровне деятельности. Этот тезис повлек за собой цикл исследований, посвященных анализу специфики человеческой деятельности. Позже была показана зависимость структуры мыслительной деятельности при решении творческих задач от изменения мотивации.
Как в действительности показала история, психология и искусственный интеллект как научное направление могут находится в достаточно тесном сотрудничестве, взаимно базируясь на достижениях друг друга.
ЗАКЛЮЧЕНИЕ
Природа мышления, загадка сознания, тайна разума, все это, безусловно, одна из наиболее волнующих человека проблем. Популярность кибернетики, неослабевающий интерес к ней со стороны самых широких кругов во многом объясняется именно ее тесной связью с этой «вечной» проблемой. С того самого момента, как человек стал задумываться над проблемой мышления, в подходе к ней существуют два основных диаметрально противоположных направления: материализм и идеализм. Идеализм исходит из признания мышления некой особой сущностью, в корне отличной от материи, от всего того, с чем мы имеем дело во внешнем мире. Материализм, напротив, утверждает, что “… тот вещественный, чувственно воспринимаемый нами мир, к которому принадлежим мы сами, есть единственный действительный мир и наше сознание и мышление, являются продуктом вещественного, телесного органа”.
До сих пор диалектико-материалистиеское понимание мышления опиралось главным образом на обобщенные данные психологии, физиологии и языкознания. Данные кибернетики позволяют поставить вопрос о более конкретном понимании мышления.
Инструментом философии является знание. Именно инструментом, а не результатом. Знание не есть конечный предмет, который можно положить в сундук и сказать: “Да, теперь у меня есть знание!” Знание — это цепочка. Знание в области искусственного интеллекта — тоже есть цепочка, причем бесконечная.
Инструментом же кибернетики является моделирование. С точки зрения теории моделирования вообще не имеет смысла говорить о полном тождестве модели и оригинала. Поэтому нельзя стопроцентно смоделировать разумное поведение, объект способный мыслить, и поместить его все в тот же сундук. Все это вполне согласуется с понятием знания.
СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ
1. Алексеева И.Ю. Искусственный интеллект и рефлексия над знаниями. // “Философия науки и техники”: журнал 1991 №9, с. 44-53.
2. Алексеева И.Ю. Знание как объект компьютерного моделирования. // “Вопросы философии”: журнал 1987 №3, с. 42-49.
3. Анисов А.М. ЭВМ и понимание математических доказательств. // “Вопросы философии”: журнал 1987 №3, с. 29-40.
4. Будущее искусственного интеллекта: М., Наука 1991, ред: Карл, Левитин, Поспелов, Хорошевский.
5. Вендров А.М. CASE-технологии. Современные методы и средства проектирования информационных систем.: М., Финансы и статистика 1998.
6. Винер Н. Кибернетика или управление и связь в животном и машине. Второе издание: М., Наука 1983.
7. Лефевр В.А. От психофизики к моделированию души. // “Вопросы философии”: журнал 1990 №7, с. 25-31.
8. Лефевр В.А. “Непостижимая“ эффективность математики в исследованиях человеческой рефлексии. // “Вопросы философии”: журнал 1990 №7, с. 51-58.
9. Поспелов Д.А. Философия или наука. На пути к искусственному интеллекту: М., Наука 1982.
10. Поспелов Д.А. Искусственный интеллект: новый этап развития. // “Вестник АН СССР”: журнал 1987 №4.
11. Петрунин Ю.Ю. Искусственный интеллект как феномен современной культуры. // “Вестник Московского университета”: журнал 1994 №8, с. 28-34.
12. Тьюринг А. Может ли машина мыслить?: М., Наука 1960.
13. Шрейдер Ю.А. Искусственный интеллект, рефлексивные структуры и антропный принцип. // “Вопросы философии”: журнал 1995 №7, с. 163-167.
14. Шрейдер Ю.А. Человеческая рефлексия и две системы этического сознания. // “Вопросы философии”: журнал 1990 №7, с. 32-41.
15. Корниенко Е. Механизмы сознания: www.glasnet.ru 2004 (электронная публикация)
www.ronl.ru
Министерство образования Российской федерации
Уральский государственный лесотехнический университет
Кафедра философии
Реферат на тему :
Сознание и искусственный интеллект
Выполнил: Борисов А.В., ДС-36
Проверил: Яковлева Е.А.
Екатеринбург – 2004
СОДЕРЖАНИЕ
Введение 3
Взгляды на термин “знание” 5
Сознание и разум 8
Искусственный интеллект и теоретические проблемы психологии 11
Заключение 13
Список использованной литературы 14
ВВЕДЕНИЕ
Все расширяющееся применение электронных вычислительных машин и повышение их роли в жизни общества сделало актуальной проблему соотношения возможностей человеческого мышления и так называемого машинного, или искусственного, интеллекта.
В настоящее время практически невозможно указать ни одной, сферы человеческой деятельности, где бы не использовались или не могли быть использованы ЭВМ. При этом возникают вопросы: «Какой вид работы принципиально не могут выполнить современные ЭВМ и почему?», «Какие сферы, уровни человеческой деятельности не подвластны автоматизации?», «Каковы перспективы развития и использования ЭВМ?»
Ответы на эти вопросы в значительной мере зависят от решения проблемы соотношения и связи человека и кибернетических машин. Она имеет не только теоретический, но и практический аспект, так как распределение функций между человеком и ЭВМ невозможно осуществись без правильного понимания вопроса о характере этого соотношения и его комплексной разработки в ряде аспектов: кибернетическом, логическом, математическом, психологическом, психофизиологическом. Но при исследовании состояния проблемы и трудностей, встающих на пути ее решения, выдвигаются вопросы, которые выходят за рамки компетенции специалистов по кибернетике, логике, математике и психологии и требуют философско-методологического анализа и аргументации.
В литературе, посвященной философским проблемам кибернетики, рассмотрение проблемы соотношения мышления человека и возможностей ЭВМ нередко подменялось вопросом: Думают ли машины? При этом понятие «машина» трактовалось слишком абстрактно, а мышление определялось в терминах формальной логики и машинных операций. Предполагалось, что развитие «машинного мышления» столкнется лишь с чисто техническими трудностями, которые будут преодолены, подобно тому как авиация, постепенно совершенствуясь, преодолела «звуковой барьер»
Поводом для поспешных оптимистических выводов послужили первые успехи в решении достаточно простых задач, допускающих их полную алгоритмизацию, программирование и последующую автономную обработку информации на ЭВМ. При этом казалось, что решение и более сложных задач возможно путем увеличения скорости переработки информации, объема «памяти», путем автоматического распознавания вводимого в ЭВМ текста с помощью автоматических читающих устройств и главное—путем совершенствования информационно-логических программ, в частности методов эвристического программирования.
Однако при переходе к решению сложных задач оказалось невозможным создать полностью формализованные решения и машинные программы. Причина этого заключается в том, что процесс их решения на всех основных этапах включает неформальные, в частности творческие, элементы, являющиеся прерогативой исключительно человека.
Осознание этого обстоятельства и послужило толчком к изменению стратегии применения ЭВМ во всех сферах человеческой деятельности; от стратегии, предполагавшей постепенную принципиально не ограниченную замену функций человеческого интеллекта искусственным, к стратегии кооперирования возможностей человека и ЭВМ. Если раньше кибернетики стремились обосновать и доказать плодотворность далеко идущих аналогий между человеческим мышлением и кибернетическими устройствами, то в настоящее время это уже мешает трезвой научной оценке возможностей ЭВМ.
Поэтому актуальной задачей кибернетики стало изучение фундаментальных различий, возможностей и связей человека и кибернетических устройств.
Методологический анализ проблем «искусственного интеллекта» и диалогового взаимодействия человека с ЭВМ важен не только для обоснования общей стратегии решения этих проблем, но и для разработки вопросов распределения функций человека и ЭВМ в процессе самого решения.
ВЗГЛЯДЫ НА ТЕРМИН “ЗНАНИЕ”
В последние годы термин “знание” все чаще употребляется в информатике. Он встречается в таких словосочетаниях, как “база знаний”, “банк знаний”, язык представления знаний”, “системы представления знаний” и других. Специалисты подчеркивают, что совершенствование так называемых интеллектуальных систем (информационно-поисковых систем высокого уровня, диалоговых систем, базирующихся на естественных языках, интерактивных человеко-машинных систем, используемых в управлении, проектировании, научных исследованиях) вот многом определяется тем, насколько успешно будут решаться задачи представления знаний.
Неудивительно, что перед теми, кто занимается проблемой представлении знаний, встает вопрос о том, что такое знание, какова его природа и основные характеристики. В связи с этим предпринимаются, например, попытки дать такое определение знания, из которого можно было бы исходить в решении задач представления знаний в компьютерных системах. Подчеркивается, что для разработки средств и методов представления знаний необходимо использовать результаты когнитивной психологии — науки, выявляющей структуры, в виде которых человек хранит информацию об окружающем его мире. Высказывается мнение, что язык и представление знаний в системах искусственного интеллекта должны рассматриваться в рамках особого научного направления — когитологии. Предметом когитологии должно стать знание как самостоятельный аспект реальности.
Представлению данных присущ пассивный аспект: книга, таблица, заполненная информацией память. В теории искусственного интеллекта особо подчеркивается активный аспект представления: “знать” должно стать активной операцией, позволяющей не только запоминать, но и извлекать воспринятые (приобретенные, усвоенные) знания для рассуждений на их основе. Следовательно, истоки представления знаний — в науке о познании (эпистемологии или гносеологии), а его конечная цель — программные средства информатики.
Вместе с тем вопрос, что такое знание, каковы его основные свойства и способы получения, — это исконно философский вопрос. Закономерно поэтому стремление дать философское осмысление вопросов компьютерного представления знаний, выявляя прежде всего их гносеологические и философско-логические аспекты.
Принципиальная мировоззренческая установка состоит в рассмотрении ЭВМ как предмета-посредника в человеческой познавательной деятельности. Компьютерная система, подобно другим предметам-посредникам (орудиям труда и предметам быта, инструментам, приборам, знаково-символическим системам, научным текстам и т. д.), играя инструментальную роль в познании, является средством объективизации накопленного знания, воплощением определенного социально-исторического опыта практической и познавательной деятельности. Ее важнейшая теоретико-познавательная роль и обусловлена тем, что выделение человеком во вновь познаваемых объектов черт, которые оказываются существенными с точки зрения общественной практики, становится возможным именно при помощи предметов-посредников. “ЭВМ, — подчеркивает акад. Г. С. Поспелов, — представляет собой инструмент для интеллектуальной деятельности людей, а научное направление “искусственный интеллект” придает этому инструменту новые качества и обеспечивает новый, более перспективный стиль его использования. Спор между сторонниками и противниками искусственного интеллекта оказывается в связи с этим совершенно беспредметным.
Для философского анализа рассматриваемой проблематики важен вопрос о том, считать ли термин “знание” в выражении “представление знаний” явлением профессионального жаргона или действительно переход от представления данных к представлению знаний имеет существенные гносеологические характеристики и какие именно? Особенности ЭВМ как предмета-посредника в познании во многом определяются тем, что ЭВМ относится к такому типу предметов-посредников, как модели. Термин “модель” употребляется в обыденном языке и в языке науки в различных значениях. Пусть под моделью понимается некоторая система (материальная или концептуальная), в той или иной форме отображающая некоторые свойства и отношения другой системы, называемой оригиналом, в точно указанном смысле замещающая ее и дающая новую информацию об оригинале. При анализе гносеологических аспектов моделирования ЭВМ рассматривались в философско-методологической литературе прежде всего как материальные модели, создаваемые на основе действия определенных физических закономерностей и функционирующие благодаря протеканию в них вполне определенных физических процессов. Моделирование на ЭВМ понималось как техническая реализация определенной формы знакового моделирования. Однако, рассматривая ЭВМ в гносеологическом плане как предмет посредник в познании, имеет смысл не фиксировать внимание прежде всего на “железной части” (hardware) компьютера, а рассматривать всю компьютерную систему как сложную систему взаимосвязанных и до некоторых пределов самостоятельных моделей — как материальных, так и знаковых, т. е. идеальных. Такой подход не только соответствует рассмотрению компьютерных систем в современной информатике, но является и гносеологически оправданным. Многие важные философские аспекты проблем, возникающих в связи с компьютеризацией различных сфер человеческой деятельности, требуют для своего исследования обращения прежде всего к знаковым составляющим компьютерных систем. Это верно и в отношении философских аспектов проблем представления знаний.
В последние годы все чаще стал употребляться термин “компьютерное моделирование”.Т.е. построение любого из составляющих компьютерной системы — будь то знаковая модель или материальная.
Что изменяется в компьютерном моделировании с переходом от представления данных к представлению знаний? Каков гносеологический смысл этих изменений? А. Ньюэлл, отмечая, что проблематика представления знаний имеет интересные точки соприкосновения с философией, ибо природа разума и природа знания всегда являлись одним из центральных философских вопросов, пишет: “Однако, интерес философии к знанию всегда концентрировался на проблеме достоверности… Это нашло отражение в том различении между знанием и верой, которое проводится в философии. Искусственный интеллект, рассматривая все знание как содержащие ошибки, называет все-таки свои системы системами знаний. С точки зрения философии искусственный интеллект имеет дело только с системами веры.… Таким образом, учение о знании, если оно разделит с искусственным интеллектом безразличие к проблеме абсолютной достоверности, окажется оставляющим без внимания центральные философские вопросы”. Различия в подходах к знанию, имеющиеся в философии и в искусственном интеллекте, не дают оснований для абсолютного противопоставления этих подходов и для отстранения от проблематики представления знаний той философии, которая не желает “оставлять без внимания центральные философские вопросы”.
Таким образом понятие “знание” можно считать одним из ключевых как с точки зрения теории искусственного интеллекта, так и гносеологии. Но ограничивается ли дело только знанием?
СОЗНАНИЕ И РАЗУМ
Сознание возникает у животных как одно из средств, улучшающее их адаптацию к окружающей среде. Быстрая (по сравнению со временем жизни животного) адаптация требует способности предвидеть, а мотивом адаптации служат биологические жизненные потребности организма. Искусственная система, обладающая такими свойствами, тоже приобретает сознание.
Как устроено сознание? Какие процессы, механизмы, взаимодействующие объекты требуются, чтобы возникло сознание и осознание себя? Что нужно для изготовления не модели сознания, а просто сознания?
Обычно слово сознание применяется, как характеристика отдельного существа. Оно может «потерять сознание». А слово разум означает принципиальную способность быть сознательным. Например, «человек разумный». Однако, есть и другие толкования.
Не известно, как доказать, что человек думает. Уверенность в том, что люди думают, основана на опыте и убеждённости в собственном сознании, а не на измерениях и логических выводах из них. Вот почему науке трудно подступиться к глубокому изучению сознания. Мы можем изучать мозг, нейроны, языки, поведение, но не сознание само по себе. Мы наблюдаем не разум, а разумное поведение.
Суждение же о наличии разума субъективно, вплоть до того, что некоторые люди считают поведение некоторых своих соплеменников несознательным.
Можно ввести субъективную шкалу разумности. Например, улитка, кошка и человек перечислены здесь в порядке увеличения разумности. Не исключено, что разум начинается не с самого простейшего уровня организации нервной системы, а «возникает» при достаточном её развитии. Однако, пока не ясно, что такое разум, и не ясен механизм такого возникновения, удобно считать, что все существа с нервной системой разумны. В частности, самые простые существа могут иметь «нулевую» или «бесконечно малую» разумность. Зато при таком подходе можно сравнить поведение многих животных, чтобы найти, что же именно в поведении данного животного кажется разумным. Это должны быть такие признаки, которые выявляются у всех без исключения животных.
Такие неплохие определения сознания, как способность к достижению цели, или к нахождению решения, или к принятию решения, не подходят, так как они не конструктивны, в частности, не связаны однозначно с наблюдаемым поведением. «Цель» и «решение» сами определяются через сознание. Способность к общению с себе подобными, и формы такого общения «более наблюдаемы», но часто их трудно отличить от физического взаимодействия. Пример: перенос пыльцы.
Хорошим наблюдаемым критерием разумности является способность активно приспосабливаться к меняющимся окружающим условиям, то есть способность самообучаться на основе своего опыта. Чем же отличается сознание от самообучения?
Сознание — это внутреннее свойство, творческий мотор самообучающегося организма. Начальное сознание возникает при такой организации нервной системы, которая обеспечивает возможность обучаться. Это ещё не то самосознание, которое заставляет уступить место старушке. Конструктивность этого определения состоит в том, что оно не ограничивает средства для изготовления «творческого мотора». Стоит изобрести и создать устройство, способное самообучаться (именно “само-”, без толчков и внешнего воздействия, причем не пассивно, а в активной форме, сопровождаемой деятельностью) — и оно получит сознание. Найдите способность к самообучению у робота, и этим будет доказано, что он обладает сознанием.
Вместо слова «самообучение» иногда используют более широкое понятие «адаптация». Если существо самостоятельно находит новое поведение в новых условиях, причём никто не учил его этому поведению, то это существо способно к адаптации (к самообучению). Изобретение нового поведения — признак творчества (хотя это мнение очень и очень спорно и для доказательства его истинности и ошибочности требуются серьезные философские изыскания в области понятия “творчество”), а творчество — один из атрибутов сознания.
Большой потенциал адаптации хорошо виден из такого мысленного эксперимента. Представим себе существо с максимально развитой адаптацией. Пусть это существо вынуждено приспосабливаться к человеческой культуре. И оно научилось играть в шахматы, конструировать космические ракеты и сочинять изысканные стихи. Кто теперь откажет ему в разумности! Поэтому любые способности живого существа к адаптации следует считать проявлениями его сознания. И каждый вправе субъективно оценивать степень развития этого сознания.
«Начальное» сознание не гарантирует осознавания. Осознавание — это такой уровень развития сознания, при котором субъект отличает себя от других объектов, т. е. выделяет себя как самостоятельно функционирующую систему.
Осознавание себя – главный общепризнанный признак сознания. Однако это лишь частный случай осознавания «внешнего» мира. Мы воспринимаем внешний мир в виде различных качеств, которые отражают физические параметры природных явлений, регистрируемые нашими органами чувств. Мы осознаём не своё сознание, а свои ощущения объектного мира и свои мысли, представимые в виде образов из объектного мира, то есть в виде образов ощущений. Суждение о собственном сознании выводится из наблюдения своего поведения. Поэтому проблема осознавания себя сводится к проблеме осознавания своих ощущений.
Осознавание ощущений обеспечивает тот же внутренний механизм сознания — мотор самообучения и творчества. Собственно сознание – это не мозг, не поведение, а именно механизм, то есть особый процесс обработки информации.
Для осознавания важно, что творческий механизм сознания вырабатывает оптимальное в данных обстоятельствах поведение органов. Поведение мозга — это его взаимодействие с другими органами. Поведение руки — это её взаимодействие с физическим миром и с мозгом. Если найдено достаточно совершенное «не улучшаемое» поведение, то осознавание тоже исчезает, заменяясь автоматическим управлением. Поэтому тщательно отработанное поведение, например, при игре на музыкальном инструменте, становится автоматическим и не отвлекает осознавание от музыкального творчества. Хотя мы не придаём этому большого значения, но следует заметить, что сопутствующие автоматическому поведению ощущения тоже могут становиться автоматическими, то есть неосознаваемыми. Например, здоровый человек не обращает внимания на то, что при ходьбе на ступни его ног действует сила в десятки килограммов. А в другой ситуации мы чувствуем и сознательно реагируем на лёгкое прикосновение.
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ТЕОРЕТИЧЕСКИЕ ПРОБЛЕМЫ ПСИХОЛОГИИ
Можно выделить две основные линии работ по искусственному интеллекту (ИИ). Первая связана с совершенствованием самих машин, с повышением «интеллектуальности» искусственных систем. Вторая связана с задачей оптимизации совместной работы «искусственного интеллекта» и собственно интеллектуальных возможностей человека.
Переходя к психологическим проблемам искусственного интеллекта, можно отметить три позиции по вопросу о взаимодействии психологии и искусственного интеллекта.
1. «Мы мало знаем о человеческом разуме, мы хотим его воссоздать, мы делаем это вопреки отсутствию знаний» — эта позиция характерна для многих зарубежных специалистов по ИИ.
2. Вторая позиция сводится к констатации ограниченности результатов исследований интеллектуальной деятельности, проводившихся психологами, социологами и физиологами. В качестве причины указывается отсутствие адекватных методов. Решение видится в воссоздании тех или иных интеллектуальных функций в работе машин. Иными словами, если машина решает задачу ранее решавшуюся человеком, то знания, которые можно почерпнуть, анализируя эту работу и есть основной материал для построения психологических теорий.
3. Третья позиция характеризуется оценкой исследования в области искусственного интеллекта и психологии как совершенно независимых. В этом случае допускается возможность только потребления, использования психологических знаний в плане психологического обеспечения работ по ИИ.
Популярные идеи системного анализа позволили сделать сравнение принципов работы искусственных систем и собственно человеческой деятельности важным эвристическим приемом выделения именно специфического психологического анализа деятельности человека.
В 1963 г. выступая на совещании по философским вопросам физиологии ВНД и психологии, А.Н. Леонтьев сформулировал следующую позицию: машина воспроизводит операции человеческого мышления, и следовательно соотношение «машинного» и «немашинного» есть соотнесение операционального и неоперационального в человеческой деятельности. Однако в последствии при сравнении операций, из которых слагается работа машины, и операций как единиц деятельности человека выявились существенные различия — в психологическом смысле «операция» отражает способ достижения результатов, процессуальную характеристику, в то время как применительно к машинной работе этот термин используется в логико-математическом смысле (характеризуется результатом).
В работах по искусственному интеллекту постоянно используется термин «цель». В психологической теории деятельности «цель» является конституирующим признаком действия в отличии от операций (и деятельности в целом). В то время как в искусственных системах «целью» называют некоторую конечную ситуацию к которой стремится система. Признаки этой ситуации должны быть четко выявленными и описанными на формальном языке. Цели человеческой деятельности имеют другую природу. Конечная ситуация может по разному отражаться субъектом: как на понятийном уровне, так и в форме представлений. Это отражение может характеризоваться разной степенью ясности, отчетливости. Кроме того, для человека характерно не просто достижение готовых целей но и формирование новых.
Также работа систем искусственно интеллекта, характеризуется не просто наличием операций, программ, «целей», но и оценочными функциями. И у искусственных систем есть своего рода «ценностные ориентации». Специфику человеческой мотивационно-эмоциональной регуляции деятельности составляет использование не только константных, но и ситуативно возникающих и динамично меняющихся оценок, существенно также различие между словесно-логическими и эмоциональными оценками. В существовании потребностей и мотивов видится различие между человеком и машиной на уровне деятельности. Этот тезис повлек за собой цикл исследований, посвященных анализу специфики человеческой деятельности. Позже была показана зависимость структуры мыслительной деятельности при решении творческих задач от изменения мотивации.
Как в действительности показала история, психология и искусственный интеллект как научное направление могут находится в достаточно тесном сотрудничестве, взаимно базируясь на достижениях друг друга.
ЗАКЛЮЧЕНИЕ
Природа мышления, загадка сознания, тайна разума, все это, безусловно, одна из наиболее волнующих человека проблем. Популярность кибернетики, неослабевающий интерес к ней со стороны самых широких кругов во многом объясняется именно ее тесной связью с этой «вечной» проблемой. С того самого момента, как человек стал задумываться над проблемой мышления, в подходе к ней существуют два основных диаметрально противоположных направления: материализм и идеализм. Идеализм исходит из признания мышления некой особой сущностью, в корне отличной от материи, от всего того, с чем мы имеем дело во внешнем мире. Материализм, напротив, утверждает, что “… тот вещественный, чувственно воспринимаемый нами мир, к которому принадлежим мы сами, есть единственный действительный мир и наше сознание и мышление, являются продуктом вещественного, телесного органа”.
До сих пор диалектико-материалистиеское понимание мышления опиралось главным образом на обобщенные данные психологии, физиологии и языкознания. Данные кибернетики позволяют поставить вопрос о более конкретном понимании мышления.
Инструментом философии является знание. Именно инструментом, а не результатом. Знание не есть конечный предмет, который можно положить в сундук и сказать: “Да, теперь у меня есть знание!” Знание — это цепочка. Знание в области искусственного интеллекта — тоже есть цепочка, причем бесконечная.
Инструментом же кибернетики является моделирование. С точки зрения теории моделирования вообще не имеет смысла говорить о полном тождестве модели и оригинала. Поэтому нельзя стопроцентно смоделировать разумное поведение, объект способный мыслить, и поместить его все в тот же сундук. Все это вполне согласуется с понятием знания.
СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ
1. Алексеева И.Ю. Искусственный интеллект и рефлексия над знаниями. // “Философия науки и техники”: журнал 1991 №9, с. 44-53.
2. Алексеева И.Ю. Знание как объект компьютерного моделирования. // “Вопросы философии”: журнал 1987 №3, с. 42-49.
3. Анисов А.М. ЭВМ и понимание математических доказательств. // “Вопросы философии”: журнал 1987 №3, с. 29-40.
4. Будущее искусственного интеллекта: М., Наука 1991, ред: Карл, Левитин, Поспелов, Хорошевский.
5. Вендров А.М. CASE-технологии. Современные методы и средства проектирования информационных систем.: М., Финансы и статистика 1998.
6. Винер Н. Кибернетика или управление и связь в животном и машине. Второе издание: М., Наука 1983.
7. Лефевр В.А. От психофизики к моделированию души. // “Вопросы философии”: журнал 1990 №7, с. 25-31.
8. Лефевр В.А. “Непостижимая“ эффективность математики в исследованиях человеческой рефлексии. // “Вопросы философии”: журнал 1990 №7, с. 51-58.
9. Поспелов Д.А. Философия или наука. На пути к искусственному интеллекту: М., Наука 1982.
10. Поспелов Д.А. Искусственный интеллект: новый этап развития. // “Вестник АН СССР”: журнал 1987 №4.
11. Петрунин Ю.Ю. Искусственный интеллект как феномен современной культуры. // “Вестник Московского университета”: журнал 1994 №8, с. 28-34.
12. Тьюринг А. Может ли машина мыслить?: М., Наука 1960.
13. Шрейдер Ю.А. Искусственный интеллект, рефлексивные структуры и антропный принцип. // “Вопросы философии”: журнал 1995 №7, с. 163-167.
14. Шрейдер Ю.А. Человеческая рефлексия и две системы этического сознания. // “Вопросы философии”: журнал 1990 №7, с. 32-41.
15. Корниенко Е. Механизмы сознания: www.glasnet.ru 2004 (электронная публикация)
www.ronl.ru
Министерство образования Российской федерации
Уральский государственный лесотехнический университет
Кафедра философии
Реферат на тему :
Сознание и искусственный интеллект
Выполнил: Борисов А.В., ДС-36
Проверил: Яковлева Е.А.
Екатеринбург – 2004
СОДЕРЖАНИЕ
Введение 3
Взгляды на термин “знание” 5
Сознание и разум 8
Искусственный интеллект и теоретическиепроблемы психологии 11
Заключение 13
Список использованной литературы 14
ВВЕДЕНИЕ
Всерасширяющееся применение электронных вычислительных машин и повышение их ролив жизни общества сделало актуальной проблему соотношения возможностейчеловеческого мышления и так называемого машинного, или искусственного,интеллекта.
В настоящее время практически невозможно указать ниодной, сферы человеческой деятельности, где бы не использовались или не моглибыть использованы ЭВМ. При этом возникают вопросы: «Какой вид работы принципиальноне могут выполнить современные ЭВМ и почему?», «Какие сферы, уровни человеческойдеятельности не подвластны автоматизации?», «Каковы перспективы развития ииспользования ЭВМ?»
Ответы на эти вопросы в значительной мере зависят отрешения проблемы соотношения и связи человека и кибернетических машин. Онаимеет не только теоретический, но и практический аспект, так как распределениефункций между человеком и ЭВМ невозможно осуществись без правильного пониманиявопроса о характере этого соотношения и его комплексной разработки в рядеаспектов: кибернетическом, логическом, математическом, психологическом,психофизиологическом. Но при исследовании состояния проблемы и трудностей,встающих на пути ее решения, выдвигаются вопросы, которые выходят за рамкикомпетенции специалистов по кибернетике, логике, математике и психологии итребуют философско-методологического анализа и аргументации.
В литературе, посвященной философским проблемамкибернетики, рассмотрение проблемы соотношения мышления человека и возможностейЭВМ нередко подменялось вопросом: Думают ли машины? При этом понятие «машина»трактовалось слишком абстрактно, а мышление определялось в терминах формальнойлогики и машинных операций. Предполагалось, что развитие «машинного мышления»столкнется лишь с чисто техническими трудностями, которые будут преодолены,подобно тому как авиация, постепенно совершенствуясь, преодолела «звуковойбарьер»
Поводом дляпоспешных оптимистических выводов послужили первые успехи в решении достаточнопростых задач, допускающих их полную алгоритмизацию, программирование ипоследующую автономную обработку информации на ЭВМ. При этом казалось, чторешение и более сложных задач возможно путем увеличения скорости переработкиинформации, объема «памяти», путем автоматического распознавания вводимого вЭВМ текста с помощью автоматических читающих устройств и главное—путем совершенствованияинформационно-логических программ, в частности методов эвристическогопрограммирования.
Однако припереходе к решению сложных задач оказалось невозможным создать полностьюформализованные решения и машинные программы. Причина этого заключается в том,что процесс их решения на всех основных этапах включает неформальные, вчастности творческие, элементы, являющиеся прерогативой исключительночеловека.
Осознание этого обстоятельства и послужило толчком к изменению стратегии применения ЭВМ во всехсферах человеческой деятельности; от стратегии, предполагавшей постепеннуюпринципиально не ограниченную замену функций человеческого интеллекта искусственным,к стратегии кооперирования возможностей человека и ЭВМ. Если раньшекибернетики стремились обосновать и доказать плодотворность далеко идущиханалогий между человеческим мышлением и кибернетическими устройствами, то в настоящеевремя это уже мешает трезвой научной оценке возможностей ЭВМ.
Поэтому актуальной задачей кибернетики стало изучениефундаментальных различий, возможностей и связей человека и кибернетических устройств.
Методологический анализ проблем «искусственногоинтеллекта» и диалогового взаимодействия человека с ЭВМ важен не только дляобоснования общей стратегии решения этих проблем, но и для разработки вопросовраспределения функций человека и ЭВМ в процессе самого решения.
ВЗГЛЯДЫ НА ТЕРМИН “ЗНАНИЕ”
Впоследние годы термин “знание” все чаще употребляется в информатике. Онвстречается в таких словосочетаниях, как “база знаний”, “банк знаний”, языкпредставления знаний”, “системы представления знаний” и других. Специалистыподчеркивают, что совершенствование так называемых интеллектуальных систем(информационно-поисковых систем высокого уровня, диалоговых систем,базирующихся на естественных языках, интерактивных человеко-машинных систем,используемых в управлении, проектировании, научных исследованиях) вот многомопределяется тем, насколько успешно будут решаться задачи представления знаний.
Неудивительно,что перед теми, кто занимается проблемой представлении знаний, встает вопрос отом, что такое знание, какова его природа и основные характеристики. В связи сэтим предпринимаются, например, попытки дать такое определение знания, изкоторого можно было бы исходить в решении задач представления знаний вкомпьютерных системах. Подчеркивается, что для разработки средств и методовпредставления знаний необходимо использовать результаты когнитивной психологии- науки, выявляющей структуры, в виде которых человек хранит информацию об окружающемего мире. Высказывается мнение, что язык и представление знаний в системахискусственного интеллекта должны рассматриваться в рамках особого научногонаправления — когитологии. Предметом когитологии должно стать знание как самостоятельныйаспект реальности.
Представлениюданных присущ пассивный аспект: книга, таблица, заполненная информацией память.В теории искусственного интеллекта особо подчеркивается активный аспектпредставления: “знать” должно стать активной операцией, позволяющей не толькозапоминать, но и извлекать воспринятые (приобретенные, усвоенные) знания длярассуждений на их основе. Следовательно, истоки представления знаний — в наукео познании (эпистемологии или гносеологии), а его конечная цель — программныесредства информатики.
Вместес тем вопрос, что такое знание, каковы его основные свойства и способыполучения, — это исконно философский вопрос. Закономерно поэтому стремлениедать философское осмысление вопросов компьютерного представления знаний,выявляя прежде всего их гносеологические и философско-логические аспекты.
Принципиальнаямировоззренческая установка состоит в рассмотрении ЭВМ как предмета-посредникав человеческой познавательной деятельности. Компьютерная система, подобнодругим предметам-посредникам (орудиям труда и предметам быта, инструментам,приборам, знаково-символическим системам, научным текстам и т. д.), играя инструментальнуюроль в познании, является средством объективизации накопленного знания,воплощением определенного социально-исторического опыта практической ипознавательной деятельности. Ее важнейшая теоретико-познавательная роль иобусловлена тем, что выделение человеком во вновь познаваемых объектов черт, которыеоказываются существенными с точки зрения общественной практики, становитсявозможным именно при помощи предметов-посредников. “ЭВМ, — подчеркивает акад.Г. С. Поспелов, — представляет собой инструмент для интеллектуальнойдеятельности людей, а научное направление “искусственный интеллект” придаетэтому инструменту новые качества и обеспечивает новый, более перспективныйстиль его использования. Спор между сторонниками и противниками искусственногоинтеллекта оказывается в связи с этим совершенно беспредметным.
Дляфилософского анализа рассматриваемой проблематики важен вопрос о том, считатьли термин “знание” в выражении “представление знаний” явлениемпрофессионального жаргона или действительно переход от представления данных кпредставлению знаний имеет существенные гносеологические характеристики и какиеименно? Особенности ЭВМ как предмета-посредника в познании во многомопределяются тем, что ЭВМ относится к такому типу предметов-посредников, какмодели. Термин “модель” употребляется в обыденном языке и в языке науки вразличных значениях. Пусть под моделью понимается некоторая система(материальная или концептуальная), в той или иной форме отображающая некоторыесвойства и отношения другой системы, называемой оригиналом, в точно указанномсмысле замещающая ее и дающая новую информацию об оригинале. При анализегносеологических аспектов моделирования ЭВМ рассматривались вфилософско-методологической литературе прежде всего как материальные модели,создаваемые на основе действия определенных физических закономерностей ифункционирующие благодаря протеканию в них вполне определенных физическихпроцессов. Моделирование на ЭВМ понималось как техническая реализацияопределенной формы знакового моделирования. Однако, рассматривая ЭВМ вгносеологическом плане как предмет посредник в познании, имеет смысл нефиксировать внимание прежде всего на “железной части” (hardware) компьютера, арассматривать всю компьютерную систему как сложную систему взаимосвязанных и донекоторых пределов самостоятельных моделей — как материальных, так и знаковых,т. е. идеальных. Такой подход не только соответствует рассмотрению компьютерныхсистем в современной информатике, но является и гносеологически оправданным.Многие важные философские аспекты проблем, возникающих в связи с компьютеризациейразличных сфер человеческой деятельности, требуют для своего исследованияобращения прежде всего к знаковым составляющим компьютерных систем. Это верно ив отношении философских аспектов проблем представления знаний.
Впоследние годы все чаще стал употребляться термин “компьютерное моделирование”.Т.е.построение любого из составляющих компьютерной системы — будь то знаковаямодель или материальная.
Чтоизменяется в компьютерном моделировании с переходом от представления данных кпредставлению знаний? Каков гносеологический смысл этих изменений? А. Ньюэлл,отмечая, что проблематика представления знаний имеет интересные точкисоприкосновения с философией, ибо природа разума и природа знания всегдаявлялись одним из центральных философских вопросов, пишет: “Однако, интересфилософии к знанию всегда концентрировался на проблеме достоверности… Этонашло отражение в том различении между знанием и верой, которое проводится вфилософии. Искусственный интеллект, рассматривая все знание как содержащиеошибки, называет все-таки свои системы системами знаний. С точки зренияфилософии искусственный интеллект имеет дело только с системами веры.… Такимобразом, учение о знании, если оно разделит с искусственным интеллектомбезразличие к проблеме абсолютной достоверности, окажется оставляющим безвнимания центральные философские вопросы”. Различия в подходах к знанию,имеющиеся в философии и в искусственном интеллекте, не дают оснований дляабсолютного противопоставления этих подходов и для отстранения от проблематикипредставления знаний той философии, которая не желает “оставлять без вниманияцентральные философские вопросы”.
Таким образом понятие “знание” можно считать одним изключевых как с точки зрения теории искусственного интеллекта, так и гносеологии.Но ограничивается ли дело только знанием?
СОЗНАНИЕ И РАЗУМ
Сознаниевозникает у животных как одно из средств, улучшающее их адаптацию к окружающейсреде. Быстрая (по сравнению со временем жизни животного) адаптация требуетспособности предвидеть, а мотивом адаптации служат биологические жизненныепотребности организма. Искусственная система, обладающая такими свойствами,тоже приобретает сознание.
Какустроено сознание? Какие процессы, механизмы, взаимодействующие объектытребуются, чтобы возникло сознание и осознание себя? Что нужно для изготовленияне модели сознания, а просто сознания?
Обычнослово сознание применяется, как характеристика отдельного существа. Оно может«потерять сознание». А слово разум означает принципиальнуюспособность быть сознательным. Например, «человек разумный». Однако,есть и другие толкования.
Неизвестно, как доказать, что человек думает. Уверенность в том, что люди думают,основана на опыте и убеждённости в собственном сознании, а не на измерениях илогических выводах из них. Вот почему науке трудно подступиться к глубокомуизучению сознания. Мы можем изучать мозг, нейроны, языки, поведение, но несознание само по себе. Мы наблюдаем не разум, а разумное поведение.
Суждение же о наличии разума субъективно, вплоть дотого, что некоторые люди считают поведение некоторых своих соплеменников несознательным.
Можно ввести субъективную шкалу разумности.Например, улитка, кошка и человек перечислены здесь в порядке увеличенияразумности. Не исключено, что разум начинается не с самого простейшего уровняорганизации нервной системы, а «возникает» при достаточном еёразвитии. Однако, пока не ясно, что такое разум, и не ясен механизм такоговозникновения, удобно считать, что все существа с нервной системой разумны. Вчастности, самые простые существа могут иметь «нулевую» или «бесконечномалую» разумность. Зато при таком подходе можно сравнить поведение многихживотных, чтобы найти, что же именно в поведении данного животного кажется разумным.Это должны быть такие признаки, которые выявляются у всех без исключенияживотных.
Такие неплохие определения сознания, как способностьк достижению цели, или к нахождению решения, или к принятию решения, не подходят,так как они не конструктивны, в частности, не связаны однозначно с наблюдаемымповедением. «Цель» и «решение» сами определяются через сознание.Способность к общению с себе подобными, и формы такого общения «болеенаблюдаемы», но часто их трудно отличить от физического взаимодействия.Пример: перенос пыльцы.
Хорошим наблюдаемым критерием разумности являетсяспособность активно приспосабливаться к меняющимся окружающим условиям, то естьспособность самообучаться на основе своего опыта. Чем же отличается сознание отсамообучения?
Сознание — это внутреннее свойство, творческий моторсамообучающегося организма. Начальное сознание возникает при такой организациинервной системы, которая обеспечивает возможность обучаться. Это ещё не тосамосознание, которое заставляет уступить место старушке. Конструктивностьэтого определения состоит в том, что оно не ограничивает средства дляизготовления «творческого мотора». Стоит изобрести и создатьустройство, способное самообучаться (именно “само-”, без толчков и внешнеговоздействия, причем не пассивно, а в активной форме, сопровождаемой деятельностью)- и оно получит сознание. Найдите способность к самообучению у робота, и этимбудет доказано, что он обладает сознанием.
Вместо слова «самообучение» иногдаиспользуют более широкое понятие «адаптация». Если существосамостоятельно находит новое поведение в новых условиях, причём никто не училего этому поведению, то это существо способно к адаптации (к самообучению).Изобретение нового поведения — признак творчества (хотя это мнение очень иочень спорно и для доказательства его истинности и ошибочности требуютсясерьезные философские изыскания в области понятия “творчество”), а творчество — один из атрибутов сознания.
Большой потенциал адаптации хорошо виден из такогомысленного эксперимента. Представим себе существо с максимально развитойадаптацией. Пусть это существо вынуждено приспосабливаться к человеческой культуре.И оно научилось играть в шахматы, конструировать космические ракеты и сочинятьизысканные стихи. Кто теперь откажет ему в разумности! Поэтому любыеспособности живого существа к адаптации следует считать проявлениями егосознания. И каждый вправе субъективно оценивать степень развития этогосознания.
«Начальное»сознание не гарантирует осознавания. Осознавание — это такой уровень развитиясознания, при котором субъект отличает себя от других объектов, т. е. выделяетсебя как самостоятельно функционирующую систему.
Осознаваниесебя – главный общепризнанный признак сознания. Однако это лишь частный случайосознавания «внешнего» мира. Мы воспринимаем внешний мир в видеразличных качеств, которые отражают физические параметры природных явлений,регистрируемые нашими органами чувств. Мы осознаём не своё сознание, а своиощущения объектного мира и свои мысли, представимые в виде образов изобъектного мира, то есть в виде образов ощущений. Суждение о собственномсознании выводится из наблюдения своего поведения. Поэтому проблема осознаваниясебя сводится к проблеме осознавания своих ощущений.
Осознаваниеощущений обеспечивает тот же внутренний механизм сознания — мотор самообученияи творчества. Собственно сознание – это не мозг, не поведение, а именномеханизм, то есть особый процесс обработки информации.
Дляосознавания важно, что творческий механизм сознания вырабатывает оптимальное вданных обстоятельствах поведение органов. Поведение мозга — это еговзаимодействие с другими органами. Поведение руки — это её взаимодействие сфизическим миром и с мозгом. Если найдено достаточно совершенное «неулучшаемое» поведение, то осознавание тоже исчезает, заменяясьавтоматическим управлением. Поэтому тщательно отработанное поведение, например,при игре на музыкальном инструменте, становится автоматическим и не отвлекаетосознавание от музыкального творчества. Хотя мы не придаём этому большогозначения, но следует заметить, что сопутствующие автоматическому поведениюощущения тоже могут становиться автоматическими, то есть неосознаваемыми. Например,здоровый человек не обращает внимания на то, что при ходьбе на ступни его ногдействует сила в десятки килограммов. А в другой ситуации мы чувствуем исознательно реагируем на лёгкое прикосновение.
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ТЕОРЕТИЧЕСКИЕ ПРОБЛЕМЫПСИХОЛОГИИ
Можновыделить две основные линии работ по искусственному интеллекту (ИИ). Перваясвязана с совершенствованием самих машин, с повышением«интеллектуальности» искусственных систем. Вторая связана с задачейоптимизации совместной работы «искусственного интеллекта» исобственно интеллектуальных возможностей человека.
Переходяк психологическим проблемам искусственного интеллекта, можно отметить трипозиции по вопросу о взаимодействии психологии и искусственного интеллекта.
1. «Мы мало знаем о человеческомразуме, мы хотим его воссоздать, мы делаем это вопреки отсутствию знаний»- эта позиция характерна для многих зарубежных специалистов по ИИ.
2. Вторая позиция сводится кконстатации ограниченности результатов исследований интеллектуальнойдеятельности, проводившихся психологами, социологами и физиологами. В качествепричины указывается отсутствие адекватных методов. Решение видится ввоссоздании тех или иных интеллектуальных функций в работе машин. Инымисловами, если машина решает задачу ранее решавшуюся человеком, то знания, которые можно почерпнуть, анализируя эту работу и есть основной материал дляпостроения психологических теорий.
3. Третья позиция характеризуетсяоценкой исследования в области искусственного интеллекта и психологии каксовершенно независимых. В этом случае допускается возможность толькопотребления, использования психологических знаний в плане психологическогообеспечения работ по ИИ.
Популярныеидеи системного анализа позволили сделать сравнение принципов работыискусственных систем и собственно человеческой деятельности важнымэвристическим приемом выделения именно специфического психологического анализадеятельности человека.
В1963 г. выступая на совещании по философским вопросам физиологии ВНД ипсихологии, А.Н. Леонтьев сформулировал следующую позицию: машина воспроизводитоперации человеческого мышления, и следовательно соотношение«машинного» и «немашинного» есть соотнесение операциональногои неоперационального в человеческой деятельности. Однако в последствии присравнении операций, из которых слагается работа машины, и операций как единицдеятельности человека выявились существенные различия — в психологическомсмысле «операция» отражает способ достижения результатов,процессуальную характеристику, в то время как применительно к машинной работеэтот термин используется в логико-математическом смысле (характеризуетсярезультатом).
Вработах по искусственному интеллекту постоянно используется термин«цель». В психологической теории деятельности «цель»является конституирующим признаком действия в отличии от операций (идеятельности в целом). В то время как в искусственных системах«целью» называют некоторую конечную ситуацию к которой стремитсясистема. Признаки этой ситуации должны быть четко выявленными и описанными наформальном языке. Цели человеческой деятельности имеют другую природу.Конечная ситуация может по разному отражаться субъектом: как на понятийном уровне,так и в форме представлений. Это отражение может характеризоваться разнойстепенью ясности, отчетливости. Кроме того, для человека характерно не простодостижение готовых целей но и формирование новых.
Такжеработа систем искусственно интеллекта, характеризуется не просто наличиемопераций, программ, «целей», но и оценочными функциями. И уискусственных систем есть своего рода «ценностные ориентации». Спецификучеловеческой мотивационно-эмоциональной регуляции деятельности составляет использование не только константных, но и ситуативно возникающих и динамичноменяющихся оценок, существенно также различие между словесно-логическими иэмоциональными оценками. В существовании потребностей и мотивов видитсяразличие между человеком и машиной на уровне деятельности. Этот тезисповлек за собой цикл исследований, посвященных анализу специфики человеческойдеятельности. Позже была показана зависимость структуры мыслительнойдеятельности при решении творческих задач от изменения мотивации.
Какв действительности показала история, психология и искусственный интеллект какнаучное направление могут находится в достаточно тесном сотрудничестве, взаимнобазируясь на достижениях друг друга.
ЗАКЛЮЧЕНИЕ
Природа мышления, загадка сознания, тайна разума, все это, безусловно, одна из наиболееволнующих человека проблем. Популярность кибернетики, неослабевающий интерес кней со стороны самых широких кругов во многом объясняется именно ее теснойсвязью с этой «вечной» проблемой. С того самого момента, как человекстал задумываться над проблемой мышления, в подходе к ней существуют дваосновных диаметрально противоположных направления: материализм и идеализм.Идеализм исходит из признания мышления некой особой сущностью, в корне отличнойот материи, от всего того, с чем мы имеем дело во внешнем мире. Материализм,напротив, утверждает, что “… тот вещественный, чувственно воспринимаемый намимир, к которому принадлежим мы сами, есть единственный действительный мир инаше сознание и мышление, являются продуктом вещественного, телесного органа”.
Досих пор диалектико-материалистиеское понимание мышления опиралось главнымобразом на обобщенные данные психологии, физиологии и языкознания. Данныекибернетики позволяют поставить вопрос о более конкретном понимании мышления.
Инструментомфилософии является знание. Именно инструментом, а не результатом. Знание неесть конечный предмет, который можно положить в сундук и сказать: “Да, теперь уменя есть знание!” Знание — это цепочка. Знание в области искусственногоинтеллекта — тоже есть цепочка, причем бесконечная.
Инструментомже кибернетики является моделирование. С точки зрения теории моделированиявообще не имеет смысла говорить о полном тождестве модели и оригинала. Поэтомунельзя стопроцентно смоделировать разумное поведение, объект способный мыслить,и поместить его все в тот же сундук. Все это вполне согласуется с понятиемзнания.
СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ
1. Алексеева И.Ю. Искусственныйинтеллект и рефлексия над знаниями. // “Философия науки и техники”: журнал 1991№9, с. 44-53.
2. Алексеева И.Ю. Знание как объекткомпьютерного моделирования. // “Вопросы философии”: журнал 1987 №3, с. 42-49.
3. Анисов А.М. ЭВМ и пониманиематематических доказательств. // “Вопросы философии”: журнал 1987 №3, с. 29-40.
4. Будущее искусственного интеллекта:М., Наука 1991, ред: Карл, Левитин, Поспелов, Хорошевский.
5. Вендров А.М. CASE-технологии.Современные методы и средства проектирования информационных систем.: М.,Финансы и статистика 1998.
6. Винер Н. Кибернетика илиуправление и связь в животном и машине. Второе издание: М., Наука 1983.
7. Лефевр В.А. От психофизики кмоделированию души. // “Вопросы философии”: журнал 1990 №7, с. 25-31.
8. Лефевр В.А. “Непостижимая“эффективность математики в исследованиях человеческой рефлексии. // “Вопросыфилософии”: журнал 1990 №7, с. 51-58.
9. Поспелов Д.А. Философия или наука.На пути к искусственному интеллекту: М., Наука 1982.
10. Поспелов Д.А. Искусственныйинтеллект: новый этап развития. // “Вестник АН СССР”: журнал 1987 №4.
11. Петрунин Ю.Ю. Искусственныйинтеллект как феномен современной культуры. // “Вестник Московскогоуниверситета”: журнал 1994 №8, с. 28-34.
12. Тьюринг А. Может ли машинамыслить?: М., Наука 1960.
13. Шрейдер Ю.А. Искусственныйинтеллект, рефлексивные структуры и антропный принцип. // “Вопросы философии”:журнал 1995 №7, с. 163-167.
14. Шрейдер Ю.А. Человеческаярефлексия и две системы этического сознания. // “Вопросы философии”: журнал1990 №7, с. 32-41.
15. Корниенко Е. Механизмы сознания:www.glasnet.ru 2004 (электронная публикация)
www.ronl.ru
(Назад) (Cкачать работу)
Функция "чтения" служит для ознакомления с работой. Разметка, таблицы и картинки документа могут отображаться неверно или не в полном объёме!
Министерство образования Российской федерации Уральский государственный лесотехнический университет Кафедра философии Реферат на тему : Сознание и искусственный интеллектВыполнил : Борисов А.В.,ДС-36Проверил : Яковлева Е.А. Екатеринбург – 2004
СОДЕРЖАНИЕ Введение3
Взгляды на термин “знание”5
Сознание и разум8
Искусственный интеллект и теоретические проблемы психологии11
Заключение13
Список использованной литературы14
ВВЕДЕНИЕ
Все расширяющееся применение электронных вычислительных машин и повышение их роли в жизни общества сделало актуальной проблему соотношения возможностей человеческого мышления и так называемого машинного, или искусственного, интеллекта.
В настоящее время практически невозможно указать ни одной, сферы человеческой деятельности, где бы не использовались или не могли быть использованы ЭВМ. При этом возникают вопросы: «Какой вид работы принципиально не могут выполнить современные ЭВМ и почему?», «Какие сферы, уровни человеческой деятельности не подвластны автоматизации?», «Каковы перспективы развития и использования ЭВМ?»
Ответы на эти вопросы в значительной мере зависят от решения проблемы соотношения и связи человека и кибернетических машин. Она имеет не только теоретический, но и практический аспект, так как распределение функций между человеком и ЭВМ невозможно осуществись без правильного понимания вопроса о характере этого соотношения и его комплексной разработки в ряде аспектов: кибернетическом, логическом, математическом, психологическом, психофизиологическом. Но при исследовании состояния проблемы и трудностей, встающих на пути ее решения, выдвигаются вопросы, которые выходят за рамки компетенции специалистов по кибернетике, логике, математике и психологии и требуют философско-методологического анализа и аргументации.
В литературе, посвященной философским проблемам кибернетики, рассмотрение проблемы соотношения мышления человека и возможностей ЭВМ нередко подменялось вопросом: Думают ли машины? При этом понятие «машина» трактовалось слишком абстрактно, а мышление определялось в терминах формальной логики и машинных операций. Предполагалось, что развитие «машинного мышления» столкнется лишь с чисто техническими трудностями, которые будут преодолены, подобно тому как авиация, постепенно совершенствуясь, преодолела «звуковой барьер»
Поводом для поспешных оптимистических выводов послужили первые успехи в решении достаточно простых задач, допускающих их полную алгоритмизацию, программирование и последующую автономную обработку информации на ЭВМ. При этом казалось, что решение и более сложных задач возможно путем увеличения скорости переработки информации, объема «памяти», путем автоматического распознавания вводимого в ЭВМ текста с помощью автоматических читающих устройств и главное—путем совершенствования информационно-логических программ, в частности методов эвристического программирования.
Однако при переходе к решению сложных задач оказалось невозможным создать полностью формализованные решения и машинные программы. Причина этого заключается в том, что процесс их решения на всех основных этапах включает неформальные, в частности творческие, элементы, являющиеся прерогативой исключительно человека.
Осознание этого обстоятельства и послужило толчком к изменению стратегии применения ЭВМ во всех сферах человеческой деятельности; от стратегии, предполагавшей постепенную принципиально не ограниченную замену функций человеческого интеллекта искусственным, к стратегии кооперирования возможностей человека и ЭВМ. Если раньше кибернетики стремились обосновать и доказать плодотворность далеко идущих аналогий между человеческим мышлением и кибернетическими устройствами, то в настоящее время это уже мешает трезвой научной оценке возможностей ЭВМ.
Поэтому актуальной задачей кибернетики стало изучение фундаментальных различий, возможностей и связей человека и кибернетических устройств.
Методологический анализ проблем «искусственного интеллекта» и диалогового взаимодействия человека с ЭВМ важен не только для обоснования общей стратегии решения этих проблем, но и для разработки вопросов распределения функций человека и ЭВМ в процессе самого решения.
ВЗГЛЯДЫ НА ТЕРМИН “ЗНАНИЕ” В последние годы термин “знание” все чаще употребляется в информатике. Он встречается в таких словосочетаниях, как “база знаний”, “банк знаний”, язык представления знаний”, “системы представления знаний” и других. Специалисты подчеркивают, что совершенствование так называемых интеллектуальных систем (информационно-поисковых систем высокого уровня, диалоговых систем, базирующихся на естественных языках, интерактивных человеко-машинных систем, используемых в управлении, проектировании, научных исследованиях) вот многом определяется тем, насколько успешно будут решаться задачи представления знаний.
Неудивительно, что перед теми, кто занимается проблемой представлении знаний, встает вопрос о том, что такое знание, какова его природа и основные характеристики. В связи с этим предпринимаются, например, попытки дать такое определение знания, из которого можно было бы исходить в решении задач представления знаний в компьютерных системах. Подчеркивается, что для разработки средств и методов представления знаний необходимо использовать результаты когнитивной психологии - науки, выявляющей структуры, в виде которых человек хранит информацию об окружающем его мире. Высказывается мнение, что язык и представление знаний в системах искусственного интеллекта должны рассматриваться в рамках особого научного направления - когитологии. Предметом когитологии должно стать знание как самостоятельный аспект реальности.
Представлению данных присущ пассивный аспект: книга, таблица, заполненная информацией память. В теории искусственного интеллекта особо подчеркивается активный аспект представления: “знать” должно стать активной операцией, позволяющей не только запоминать, но и извлекать воспринятые (приобретенные, усвоенные) знания для рассуждений на их основе. Следовательно, истоки представления знаний - в науке о познании (эпистемологии или гносеологии), а его конечная цель - программные средства информатики.
Вместе с тем вопрос, что такое знание, каковы его основные свойства и способы получения, - это исконно философский вопрос. Закономерно поэтому стремление дать философское осмысление вопросов компьютерного представления знаний, выявляя прежде всего их гносеологические и философско-логические аспекты.
Принципиальная мировоззренческая установка состоит в рассмотрении ЭВМ как предмета-посредника в человеческой познавательной деятельности. Компьютерная система, подобно другим предметам-посредникам (орудиям труда и предметам быта, инструментам, приборам, знаково-символическим системам, научным текстам и т. д.), играя инструментальную роль в познании, является средством объективизации накопленного знания, воплощением определенного социально-исторического опыта практической и познавательной деятельности. Ее важнейшая теоретико-познавательная роль и обусловлена тем, что выделение человеком во вновь познаваемых объектов черт, которые оказываются существенными с точки зрения общественной практики, становится возможным именно при помощи предметов-посредников. “ЭВМ, - подчеркивает акад. Г. С. Поспелов, - представляет собой инструмент для интеллектуальной деятельности людей, а научное направление “искусственный интеллект” придает этому инструменту новые качества и обеспечивает новый, более перспективный стиль его использования. Спор между сторонниками и противниками искусственного интеллекта оказывается в связи с этим совершенно беспредметным.
Для философского анализа рассматриваемой проблематики важен вопрос о том, считать ли термин “знание” в выражении “представление знаний” явлением
referat.co