https://wodolei.ru/catalog/mebel/Aquanet/ 
А  Б  В  Г  Д  Е  Ж  З  И  Й  К  Л  М  Н  О  П  Р  С  Т  У  Ф  Х  Ц  Ч  Ш  Щ  Э  Ю  Я  AZ

 



- Артур Кларк

Искусственный
интеллект

Научная фантастика имеет обыкновение становиться научным фак
том. В современных лабораториях искусственного интеллекта (ИИ
всерьез обсуждается нечто вроде Хэла - бортового компьютера из про
изведения Артура Кларка "2001: Космическая Одиссея", имевшего интел
лект и способного принимать этические решения. Я не хочу сказать, чт
вероятность в точности такого развития компьютеров, как это описа.
Кларк, сколько-нибудь больше вероятности развития систем запуска в нг
правлении, описанном Жюль Верном за три четверти века до того, ка
ракета послала космическую капсулу на Луну. Но специалисты по комгц
ютерам разрабатывают компьютерные системы, которые способны довол1
но близко имитировать элементы человеческого познания и обработк
информации; так что вполне возможно, что к тому времени, когда MI
будем стартовать с Земли, что-нибудь вроде Хэла у нас появится.

Между ИИ и когнитивной психологией установились своего рода сиг.
биотические отношения, где каждый выигрывает от развития другого. Иб
для того, чтобы искусственным способом сделать точную копию ч(
ловеческого восприятия, памяти, языка и мышления, нужно знать,
к эти процессы происходят у человека. И в то же время, развитие искус(
таенного интеллекта дает новые возможности к пониманию человеческс
го познания.

В этой главе будет дано общее введение в ИИ, который будет обсу>
даться в связи с восприятием, памятью, процессами поиска, языком, р(
шением задач и "роботологией". Большинство этих тем затрагивались
предыдущих главах.

Хотя направление ИИ во многом посвящено разработке машин, кот<
рые действуют так, как если были бы "разумны", большинство последни
конструируется без всякого намерения подражать когнитивным проце!
сам человека. Однако, есть и те, кто занят разработкой "разумных" м:

шин, моделирующих человеческое мышление, и именно эта перспекп
ва - "компьютерное моделирование" (КМ) будет в основном освещатьс
в этой главе. (Когда-нибудь будет почти невозможно сказать, где кончае
ся ИИ и начинается КМ; мы будем использовать широко принятый терми
ИИ для обозначения всяких результатов компьютерной деятельности, ю
торые сочли бы разумными, если бы они были произведены человеком.

Истоки искусственного интеллекта

Происхождение современной компьютерной науки (спутником которой i
самом деле является ИИ) можно отнести к 40-м годам, когда для ускор
ния долгих и утомительных математических вычислений были изобретен
ламповые компьютеры LJNIVAC и EN1AC. Эти ранние простодушные и i

Хэл (HAL) - имя-аббревиатуря "//euristically programmed a/goritmic corn
uter" = эвристически программированный алгоритмический компьютер.

С другой стороны, многие всерьез сомневаются, что компьютер деиств1
тельно когда-нибудь сможет перехитрить человека в важных областях. Hei
ропсихолог Джон Экклз в работе "The Understand, ng of the Brain" ("Поним;

пие мозга") пишет, что те, кто "...высокомерно заявляет о том. что комньк
теры скоро перехитрят человека во всем... представляю- собой современны
вариант изготовителей идолов из некоторых суеверных эпох; подобно поел
дним, они стремятся к власти посредством культивации идолопоклонства"

Мышление и интеллект - естественный и искусственный
496

слишком эффективные гиганты открыли дорогу для более компактных,
более мощных и более сложных систем, которые, в свою очередь, посте-
пенно сменились микроэлектронными компьютерами, прочно вошедшими
во всеобщее пользование. Эти инструменты в основном помогают людям
решать математические задачи в коммерческих и промышленных исследо-
ваниях. ИИ служит не этим практическим нуждам калькуляций и индек-
саций, но, как мы уже сказали, связан с задачами когнитивной психологии
по разработке компьютерных программ, моделирующих человеческое по-
знание. Какое-то время назад некоторые чисто научные открытия ранних
пионеров ИИ получили практическое коммерческое применение и стали
важной частью деловых операций в Америке, Европе и Японии.

В когнитивной психологии найдется немного более важных дат, чем
1956 год.3 Летом того года группа из десяти ученых встретилась на терри-
тории колледжа Дортмут с целью обсудить возможность создания компь-
ютерных программ, способных к разумному поведению. Среди участников
этой конференции были: Джон МакКарти, основавший впоследствии ла-
боратории ИИ в Массачусеттском Технологическом институте (МТИ) и
Стэнфордском университете и широко признанный как человек, окрестив-
ший новую науку "Искусственным Интеллектом"; Марвин Минский, став-
ший затем директором лаборатории ИИ в МТИ; Герберт Саймон, которо-
му предстояло получить Нобелевскую премию по экономике; и Аллеи
Ньюэлл, который провел очень важные работы по когнитивной науке и
ИИ в университете Карнеги-Меллон. Эта конференция имела историчес-
кое значение - намечавшийся до того курс на ИИ был взят. Его зарожде-
ние непосредственно повлияло на развитие когнитивной психологии.

С момента конференции в Дортмуте развитие ИИ происходило в гео-
метрической прогрессии - если не по числу оригинальных идей, то по
количеству новых данных. В том или ином виде ИИ затрагивает сегодня
жизнь большинства людей в Западном обществе, распространяется по кол-
леджам, на нем сосредоточили свои усилия тысячи ученых. Различные
ветви теории и практики ИИ невозможно изложить в единственной главе
или книге и даже во многих книгах, но мы можем в этой главе предста-
вить образцы работ в области ИИ в их связи с когнитивной психологией.
Изучающие ИИ и когнитивную психологию могут найти по этой теме мно-
жество глубокомысленных книг и статей, а также побывать на многих
интересных конференциях.

Машины и разум: "имитирующая игра" и "китайская комната4

Я не знаю другой такой области когнитивной психологии, где происходили
бы столь ожесточенные споры о моделировании человеческого мышления
машинами: о "жестком" направлении ИИ. Одну сторону этого спора пред-
ставляют те ревнители ИИ, которые не только верят, что машины способ-
ны точно копировать человеческое познание, но и считают, что наиболее
сложные интеллектуальные процессы могут выполняться только машина-
ми. Это надо понимать так, что компьютеры должны непосредственно уча-

В тот году Бранер, Гуднау и Остин опубликовали книгу "Изучение мышле-
ния", Хомский - "Три модели описания языка", Миллер -"Магическое чис-
ло семь плюс-минус два", Ньюэлл и Саймон - "Логическая теория машин".

Искусственный интеллект

17 Зак. 2019

ствовать в повседневном принятии решений людьми. С другой стороны,
находятся те, кто полагает ИИ интеллектуально извращенным понятием и
считает, что люди, верящие в "мыслящие машины", - это материалисти-
ческие идолопоклонники. Они полагают, что человеческое мышление -
это чисто человеческий процесс; наверно, его можно частично синтезиро-
вать в машине, но дублировать с помощью ИИ программ его не удастся
никогда.

В качестве отправной точки полезно рассмотреть дихотомию, предло-
женную философом из Беркли Джоном Сирлом (John Searl, 1980). Он
описал две позиции в ИИ: "жесткую" и "мягкую"; согласно мягкой пози-
ции, ИИ может использоваться как инструмент в исследованиях челове-
ческого познания; а жесткая предполагает, что соответствующим образом
запрограммированный компьютер обладает разумом и способен к понима-
нию. У "мягкого" ИИ мало оппонентов; почти все признают важность
компьютеров в исследовании человеческого познания, и к этому почти
нечего добавить. "Жесткий" ИИ, опровергаемый Сирлом, вызвал бурю
протеста. Мы продолжим рассмотрение этого спора в следующем разделе
про "Китайскую комнату", но сначала рассмотрим одну оригинальную за-
дачу, предложенную британским математиком Аланом Тюрингом4 и каса-
ющуюся разума и машин.

"Имитирую-
щая игра"
или "тест
Тюринга"

Тюринг предложил задачу, в которой человек задает вопросы неизвестно-
му-существу-использующему-язык. Задача человека - решить, можно ли
отличить это от человека. В пользу Тюринга говорит то, что использова-
ние "имитирующей игры", ставшей впоследствии широко известной как
"тест Тюринга", само по себе было весьма тонким обманом, который, да-
вая специалистам по ИИ нечто конкретное для работы, уводил их внима-
ние от философских вопросов разума, ставших главным раздражающим
фактором в истории науки и философии. Не обращаясь непосредственно к
философским вопросам, как это сделал Тюринг, он спрашивал: "Является
ли познание функцией материальных процессов, и если да, то могут ли
такие функции происходить от неорганической машины?" или "Как ре-
шить проблему тела и разума?" - т.е. он выбирал гораздо более четкие
рамки вопроса, основанные на операционализме. Поскольку в литературе
сохраняется определенная путаница относительно реальной природы пред-
ложенного Тюрингом теста, мы приводим его здесь довольно детально.
Эту... задачу можно описать в терминах игры, известной нам как
"имитирующая игра". В нее играют три человека: мужчина (А),
женщина (В) и спрашивающий (С), который может быть любого
пола. Цель игры для спрашивающего - определить, кто из двух
других -мужчина, а кто - женщина. Для него они помечены как
Х и Y, и в конце игры он должен сказать либо: "X это A, a Y это В",
либо: "X это В, а Y это А". Спрашивающий может задавать А и В
такие, например вопросы:

С: Не скажет ли мне Х длину своих волос?
Теперь предположим, что Х - это на самом деле А; тогда А
должен ответить. Целью игры для А является... заставить С сде-
лать ошибочную идентификацию. Его ответ мог бы быть таким:

Замечательное описание жизни Тюринга вместе с обсуждением вопросов ИИ
можно найти в: Hofstadter. Metamagical Themas (1985).

Мышление и интеллект - естественный и искусственный
498

"Мои волосы коротко острижены, самые длинные пряди длиной
примерно 9 дюймов".

Чтобы тембр голоса не указывал спрашивающему на пол, отве-
ты пишутся или еще лучше печатаются. Самый лучший вариант -
это принтер, подключенный в соседней комнате. Другим вариантом
может быть повторение ответов посредником. Цель третьего игро-
ка (В) - помочь спрашивающему. Возможно, наилучшая стратегия
для нее - это давать правдивые ответы. Она может прибавлять к
своим ответам что-то вроде "Это я - женщина, не слушай его!",
но это ничего не даст, поскольку аналогичные замечания может
давать и мужчина.

Теперь спросим: "Что произойдет, если роль А в этой игре бу-
дет исполнять машина?" Будет ли спрашивающий при таком вари-
анте игры ошибаться так же часто, как и тогда, когда играют муж-
чина и женщина? Эти вопросы заменяют первоначальный, "Может
ли машина мыслить?" (Turing, 1950; р.434).

Очевидно, ценность некоторых вопросов, задаваемых для Х и Y, зависит
от того, какая сейчас мода, - т.е. если длину волос и прическу взять за
основу различения, то, например, в 70-х годах это привело бы к очень
многим ошибкам. Тем не менее, для специалистов по языку и ИИ в задаче
Тюринга есть очень важный момент- для того, чтобы компьютер пере-
хитрил нас и заставил думать, что он - это человек, он должен понимать
и генерировать ответную реакцию, которая эффективно имитировала бы
важную когнитивную функцию.

Можно предложить и другой тип вопроса о неразличимости функций.
Предположим, что в больнице работают два хирурга. Один - выпускник
знаменитой медицинской школы и считается одним из лучших хирургов в
мире. Другой окончил обычную медицинскую школу и считается плохим
хирургом. Однажды потребовалась срочная операция, и первый хирург
нездоров, так что операцию проводит второй врач, о чем не известно паци-
енту, находящемуся без сознания. Пациенту не говорят, какой врач про-
водил операцию, и он рад, что она была успешной. К тому же, другие
врачи уверены, что операцию проводил первый хирург. На этом ограни-
ченном примере мы можем заключить, что тест на неразличимость был
пройден. Однако, если бы вы были этим пациентом и узнали, что опера-
цию на самом деле проводил робот, какой вывод вы бы сделали о соотно-
шении функциональных свойств робота и хирурга? Согласились бы вы,
что они одинаковы? Почему? А Почему нет? Ответы на эти вопросы труд-
но найти, чего не скажешь о людях, придерживающихся твердых взглядов
на этот счет. Один из них - это Сирл, который вывернул "тест Тюринга"
наизнанку.

Чтобы продемонстрировать, что жесткая позиция в ИИ не выдерживает "Китайская
критики, Сирл предложил следующую головоломку. Предположим, что комната"

кого-то заперли в комнате, где много китайских текстов. Этот кто-то ниче-
го не понимает по-китайски и даже не способен отличить китайские иерог-
лифы от каких-нибудь еще. Снаружи этой комнаты ему передают еще
один набор китайских знаков вместе с набором правил для сопоставления
первого и второго набора символов. Эти правила всего лишь позволяют

Искусственный интеллект
499

этому человеку связывать один набор символов с другим и написаны на
обычном английском. При помощи этих правил сопоставления человек в
китайской комнате может давать осмысленные ответы на вопросы о содер-
жании китайских текстов, несмотря на то, что он в сущности не знает
этого языка. Через какое-то время эта личность приобретает настолько
хорошую сноровку, что может отвечать как на своем родном английском,
так и на китайском языке, которого не знает, но отвечает, основываясь на
правилах. Результаты настолько хороши, что их "совершенно нельзя от-
личить от ответов урожденного китайца" (Searl, 1980, 1981). Личность,
запертая в китайской комнате, - это простая конкретная иллюстрация
компьютерной программы: "данные на входе -данные на выходе". Вплоть
до этого момента почти никто из ИИ-пехоты не взъерошил перья, но затем
Сирл шагает еще на один аргумент вперед. Способность выполнять такие
функции, как перевод по сложным правилам, не означает, что тот, кто это
делает, понимает значение "выходных данных".
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97


А-П

П-Я