Философия искусственного интеллекта

Искусственный интеллект имеет тесные связи с философией, потому что оба имеют несколько концепций, и они включают ум, действие, сознание, эпистемологию и даже свободную волю. Кроме того, технология связана с созданием искусственных животных или искусственных людей (или, по крайней мере, искусственных существ), поэтому дисциплина представляет значительный интерес для философов. Эти факторы способствовали возникновению философии искусственного интеллекта. Некоторые ученые утверждают, что отклонение философии сообщества AI вредно.

Философия искусственного интеллекта пытается ответить на такие вопросы следующим образом:

Может ли машина действовать разумно? Может ли он решить любую проблему, которую человек решал бы, думая?
Разве человеческий интеллект и машинный интеллект одинаковы? Является ли человеческий мозг по существу компьютером?
Может ли машина иметь ум, психические состояния и сознание так же, как человек может? Может ли это чувствовать себя так?

Эти три вопроса отражают расходящиеся интересы исследователей ИИ, лингвистов, когнитивных ученых и философов соответственно. Научные ответы на эти вопросы зависят от определения «интеллект» и «сознание», а именно, какие «машины» обсуждаются.

Важными предложениями в философии ИИ являются:

«Вежливая конвенция» Тьюринга: если машина ведет себя так же разумно, как человек, тогда она столь же умна, как и человек.
Предложение Дартмута: «Каждый аспект обучения или любая другая особенность интеллекта может быть настолько точно описана, что машина может быть создана для имитации».
Гипотеза системы физических символов Ньюэлла и Симона: «Физическая система символов имеет необходимые и достаточные средства общего разумного действия».
Сильная гипотеза AI Сирла: «Соответственно запрограммированный компьютер с правильными входами и выходами, таким образом, будет иметь разум точно в том же смысле, что у людей есть разум».
Механизм Гоббса: «Для« причины »… есть не что иное, как« расчет », то есть добавление и вычитание последствий общих имен, согласованных для« маркировки »и« обозначения »наших мыслей …»

Может ли машина отображать общий интеллект?
Можно ли создать машину, которая может решить все проблемы, которые люди решат с помощью своего интеллекта? Этот вопрос определяет масштаб того, что машины смогут делать в будущем, и направляет направление исследований ИИ. Это касается только поведения машин и игнорирует вопросы, представляющие интерес для психологов, когнитивных ученых и философов; чтобы ответить на этот вопрос, неважно, действительно ли машина думает (как думает человек) или просто действует так, как думает.

Основная позиция большинства исследователей ИИ обобщается в этом заявлении, которое появилось в предложении для Дартмутской мастерской 1956 года:

Каждый аспект обучения или любая другая особенность интеллекта может быть настолько точно описана, что машина может быть создана для имитации.
Аргументы против основной предпосылки должны показать, что создание рабочей системы искусственного интеллекта невозможно, потому что существует некоторый практический предел способности компьютеров или что существует определенное качество человеческого разума, которое необходимо для мышления, и все же не может быть дублировано машины (или методами текущего исследования ИИ). Аргументы в пользу основной предпосылки должны показать, что такая система возможна.

Первым шагом к ответу на вопрос является четкое определение «интеллекта».

интеллект

Тест Тьюринга
Алан Тьюринг уменьшил проблему определения интеллекта до простого вопроса о разговоре. Он предполагает, что: если машина может ответить на любой вопрос, заданный ей, используя те же слова, что и обычный человек, тогда мы можем назвать эту машину интеллектуальной. В современной версии его экспериментального проекта будет использоваться онлайн-чат, где один из участников — настоящий человек, а один из участников — компьютерная программа. Программа проходит тест, если никто не может определить, кто из двух участников является человеком. Тьюринг отмечает, что никто (кроме философов) никогда не задает вопрос «могут ли люди думать?» Он пишет: «Вместо того, чтобы постоянно спорить по этому вопросу, обычно принято вежливое соглашение, которое все думают». Тест Тьюринга расширяет эту вежливую конвенцию на машинах:

Если машина действует так же разумно, как и человек, тогда она столь же умна, как и человек.
Одна критика теста Тьюринга заключается в том, что он явно антропоморфен. Если наша конечная цель — создать машины, более интеллектуальные, чем люди, почему мы должны настаивать на том, чтобы наши машины были очень похожи на людей? [Эта цитата нуждается в цитате] Рассел и Норвиг пишут, что «тексты авиационной инженерии не определяют цель их как «создание машин, которые летают так точно, как голуби, чтобы они могли обмануть других голубей».

Определение интеллектуального агента

Недавние исследования в области ИИ определяют интеллект с точки зрения интеллектуальных агентов. «Агент» — это то, что воспринимается и действует в среде. «Показатель эффективности» определяет, что считается успешным для агента.

Если агент действует так, чтобы максимизировать ожидаемое значение показателя эффективности, основанное на прошлом опыте и знаниях, тогда оно разумно.
Определения вроде этого пытаются уловить суть интеллекта. У них есть то преимущество, что, в отличие от теста Тьюринга, они также не проверяют человеческие черты, которые мы [кто?], Возможно, не захочет считать умными, такими как способность оскорблять или соблазн лгать [сомнительный — обсуждать]. У них есть недостаток, заключающийся в том, что они не могут сделать разумную (когда определено как?) Дифференциацию между «вещами, которые думают» и «вещами, которые этого не делают». По этому определению даже термостат имеет рудиментарный разум.

Аргументы о том, что машина может отображать общий интеллект

Мозг можно моделировать
Хьюберт Дрейфус описывает этот аргумент как утверждение, что «если нервная система подчиняется законам физики и химии, которые мы имеем все основания предполагать, что это так, то … мы … должны иметь возможность воспроизвести поведение нервной системы с некоторым физическим устройством ». Этот аргумент, впервые представленный еще в 1943 году и ярко описанный Хансом Моравеком в 1988 году, теперь связан с футуристом Рэй Курцвейлом, который оценивает, что мощность компьютера будет достаточной для полного моделирования мозга к 2029 году. Не в режиме реального времени моделирование талакокортикальной модели, имеющей размер человеческого мозга (1011 нейронов), было выполнено в 2005 году, и потребовалось 50 дней для моделирования 1 секунды динамики мозга на кластере из 27 процессоров.

Мало [количественно] не согласны с тем, что мозговое моделирование возможно в теории [, по мнению кого?] Даже критиков ИИ, таких как Хуберт Дрейфус и Джон Сирл. Однако Сирл отмечает, что в принципе все может быть смоделировано компьютером; таким образом, приведение определения к его точке прерывания приводит к выводу, что любой процесс вообще можно технически считать «вычислением». «То, что мы хотели знать, — это то, что отличает ум от термостатов и печени», — пишет он. Таким образом, просто подражать функционированию мозга само по себе было бы признанием невежества в отношении интеллекта и природы ума.

Человеческое мышление — обработка символов
В 1963 году Аллен Ньюэлл и Герберт Саймон предположили, что «манипулирование символами» является сущностью как человеческого, так и машинного интеллекта. Они написали:

Физическая система символов имеет необходимые и достаточные средства общего разумного действия.
Это утверждение очень сильное: это подразумевает, что человеческое мышление — это своего рода манипуляция символами (потому что для интеллекта нужна система символов), и что машины могут быть интеллектуальными (потому что для интеллекта достаточно системы символов). Другая версия этой позиции была описана философом Юбером Дрейфусом, который назвал это «психологическим предположением»:

Ум можно рассматривать как устройство, работающее на битах информации в соответствии с формальными правилами.
Различие обычно делается [кем?] Между символами высокого уровня, которые напрямую соответствуют объектам в мире, например и , и более сложными «символами», которые присутствуют на машине, например нейронная сеть. Раннее исследование ИИ, называемое «добрый старомодный искусственный интеллект» (GOFAI) Джона Хаугеланда, сосредоточилось на таких символах высокого уровня.

Аргументы против обработки символов
Эти аргументы показывают, что человеческое мышление не состоит (исключительно) в манипуляциях с символом высокого уровня. Они не показывают, что искусственный интеллект невозможен, только требуется больше, чем обработка символов.

Гёдельские антимеханические аргументы
В 1931 году Курт Гёдель доказал с теоремой о неполноте, что всегда можно построить «утверждение Гёделя», что такая согласованная формальная система логики (например, программа манипуляций с символами высокого уровня) не может быть доказана. Несмотря на то, что это истинное утверждение, построенное утверждение Гёделя недоказано в данной системе. (Истина построенного высказывания Гёделя зависит от согласованности данной системы, и применение такого же процесса к тонко непоследовательной системе окажется успешным, но на самом деле приведет к ложному «утверждению Гёделя».) Более спекулятивно Гёдель предположил что человеческий разум может в конечном итоге определить правду или ложность любого обоснованного математического утверждения (включая любое возможное утверждение Гёделя), и поэтому сила человеческого ума не сводится к механизму. Философ Джон Лукас (с 1961 года) и Роджер Пенроуз (с 1989 года) отстаивали этот философский аргумент против механиков. Гедельские антимеханические аргументы склонны полагаться на безобидное, кажущееся утверждение, что система человеческих математиков (или какая-то идеализация человеческих математиков) является одновременно последовательной (полностью свободной от ошибок) и полностью полагается на собственную согласованность (и может сделать все логическое выводы, вытекающие из его собственной последовательности, в том числе веры в ее заявление Гёделя). Это невозможно сделать машиной Тьюринга (требуется уточнение) (и, по неофициальному расширению, любой известный тип механического компьютера); поэтому Геделиан приходит к выводу, что человеческие рассуждения слишком сильны для захвата в машине [сомнительной — дискуссии].

Однако современный консенсус в научном и математическом сообществе состоит в том, что фактические человеческие рассуждения непоследовательны; что любая последовательная «идеализированная версия» человеческого рассуждения логически будет вынуждена принять здоровый, но противоречащий интуиции сдержанный скептицизм относительно согласованности H (иначе H является предположительно непоследовательным); и что теоремы Гёделя не приводят к какому-либо обоснованному аргументу о том, что у людей есть математические возможности рассуждения, превышающие то, что машина могла бы дублировать. Этот консенсус о том, что аргументы гёделеанского антимеханиста обречены на провал, сильно выражен в искусственном интеллекте: «любая попытка использовать (результаты неполноты Геделя) для атаки на тезисы, основанные на вычислении, неизбежно будет незаконной, поскольку эти результаты вполне согласуются с вычислительным Тезис.»

Более прагматично, Рассел и Норвиг отмечают, что аргумент Гёделя применим только к теоретическому обоснованию, учитывая бесконечное количество памяти и времени. На практике реальные машины (включая людей) имеют ограниченные ресурсы и будут испытывать трудности с доказательством многих теорем. Нет необходимости доказывать все, чтобы быть умным [когда определено как?].

Менее формально Дуглас Хофстадтер в своей книге Пулитцеровской премии Gödel, Escher, Bach: Eternal Golden Braid утверждает, что эти «высказывания Гёделя» всегда относятся к самой системе, проводя аналогию с тем, как парадокс Эпименида использует утверждения, которые ссылайтесь на себя, например, «это утверждение ложно» или «я ложь». Но, конечно, парадокс Эпименида относится ко всему, что делает заявления, будь то машины или люди, даже сам Лукас. Рассматривать:

Лукас не может утверждать правду этого утверждения.
Это утверждение верно, но Лукас не может утверждать. Это показывает, что сам Лукас подчиняется тем же пределам, которые он описывает для машин, как и все люди, и поэтому аргумент Лукаса бессмыслен.

Выяснив, что человеческое рассуждение не является вычислимым, Пенроуз продолжал спорить о том, что какие-то гипотетические неинтегрируемые процессы, связанные с крахом квантовомеханических состояний, дают людям особое преимущество перед существующими компьютерами. Существующие квантовые компьютеры способны только уменьшить сложность вычислимых задач Тьюринга и по-прежнему ограничены задачами в рамках машин Тьюринга [требуется уточнение]. По аргументам Пенроуза и Лукаса существующие квантовые компьютеры недостаточны (необходимы разъяснения) [почему?], Поэтому Пенроуз ищет какой-то другой процесс, связанный с новой физикой, например квантовой гравитацией, которая может проявлять новую физику в масштабе массы Планка посредством спонтанного квантовый коллапс волновой функции. Эти состояния, по его мнению, встречаются как внутри нейронов, так и охватывают более одного нейрона. Однако другие ученые отмечают, что в мозгу нет правдоподобного органического механизма для использования каких-либо квантовых вычислений, кроме того, что временные рамки квантовой декогеренции кажутся слишком быстрыми, чтобы влиять на стрельбу нейронами.

Дрейфус: примат бессознательных навыков
Хуберт Дрейфус утверждал, что человеческий интеллект и опыт зависят прежде всего от бессознательных инстинктов, а не от сознательных символических манипуляций, и утверждали, что эти бессознательные навыки никогда не будут зафиксированы в формальных правилах.

Аргумент Дрейфуса был предвиден Тьюрингом в его статье 1950 года «Компьютерная техника и интеллект», где он классифицировал это как «аргумент из-за неформальности поведения». Тьюринг утверждал в ответ, что только потому, что мы не знаем правил, которые управляют сложным поведением, это не означает, что таких правил не существует. Он писал: «Мы не можем так легко убедить себя в отсутствии полных законов поведения … Единственный способ узнать о таких законах — это научное наблюдение, и мы, конечно же, не знаем никаких обстоятельств, при которых мы могли бы сказать:« Мы так что они искали достаточно. Таких законов нет ».

Рассел и Норвиг отмечают, что за годы, прошедшие после того, как Дрейфус опубликовал свою критику, был достигнут прогресс в выявлении «правил», которые управляют бессознательными рассуждениями. Расположенное движение в исследованиях робототехники пытается захватить наши бессознательные навыки при восприятии и внимании. Парадигмы вычислительных интеллектов, такие как нейронные сети, эволюционные алгоритмы и т. Д., В основном направлены на моделирование бессознательных рассуждений и обучения. Статистические подходы к ИИ могут делать прогнозы, которые приближаются к точности интуитивных догадок человека. Исследование знаний здравого смысла сосредоточено на воспроизведении «фона» или контекста знаний. Фактически, исследование ИИ в целом отошло от манипулирования символом высокого уровня или «GOFAI», к новым моделям, которые предназначены для захвата большего количества наших бессознательных рассуждений [по мнению кого?]. Историк и исследователь ИИ Дэниел Кревьер писал, что «время доказало точность и восприимчивость некоторых замечаний Дрейфуса. Если бы он сформулировал их менее агрессивно, конструктивные действия, которые, по их мнению, могли быть приняты гораздо раньше».

Может ли машина иметь ум, сознание и психические состояния?
Это философский вопрос, связанный с проблемой других умов и тяжелой проблемой сознания. Вопрос вращается вокруг позиции, определенной Джоном Сирлом как «сильный ИИ»:

Физическая система символов может иметь ум и психические состояния.
Сирл отличил эту позицию от того, что он назвал «слабым ИИ»:

Related Post

Физическая система символов может действовать разумно.
Сирл ввел термины, чтобы изолировать сильный ИИ от слабых ИИ, чтобы он мог сосредоточиться на том, что, по его мнению, был более интересным и спорным. Он утверждал, что, даже если мы предположим, что у нас есть компьютерная программа, которая действовала точно так же, как человеческий разум, все равно будет сложный философский вопрос, на который нужно ответить.

Ни одна из двух позиций Сирла не представляет большой интерес для исследования ИИ, поскольку они не отвечают непосредственно на вопрос: «Может ли машина отображать общий интеллект?» (если также не может быть показано, что сознание необходимо для интеллекта). Тьюринг писал: «Я не хочу создавать впечатление, что я думаю, что нет никакой тайны в сознании … я не думаю, что эти тайны обязательно должны быть решены, прежде чем мы сможем ответить на вопрос [о том, могут ли машины мыслить]». Рассел и Норвиг соглашаются: «Большинство исследователей ИИ считают гипотезу слабого ИИ само собой разумеющимся и не заботятся о сильной гипотезе ИИ».

Есть несколько исследователей, которые считают, что сознание является важным элементом интеллекта, таких как Игорь Александер, Стэн Франклин, Рон Сан и Пентти Хайконен, хотя их определение «сознания» очень близко к «интеллекту». (См. Искусственное сознание.)

Прежде чем мы сможем ответить на этот вопрос, мы должны четко понимать, что мы подразумеваем под «умами», «ментальными состояниями» и «сознанием».

Сознание, умы, ментальные состояния, смысл
Слова «ум» и «сознание» используются разными сообществами по-разному. Например, некоторые мыслители нового века используют слово «сознание» для описания чего-то похожего на «élan vital» Бергсона: невидимую, энергичную жидкость, которая пронизывает жизнь и особенно ум. Авторы научной фантастики используют это слово, чтобы описать какое-то существенное свойство, которое делает нас человеческими: машина или инопланетянин, который является «сознательным», будет представлен как полностью человеческий характер, с интеллектом, желаниями, волей, проницательностью, гордостью и т. Д. (Авторы научной фантастики также используют слова «разумность», «здравомыслие», «самосознание» или «призрак» — как в мантии манга и аниме «Призрак в раковине», чтобы описать эту важную человеческую собственность). Для других [кто?] Слова «ум» или «сознание» используются как своего рода светский синоним души.

Для философов, нейробиологов и когнитивных ученых слова используются таким образом, который является более точным и более обыденным: они относятся к знакомому, повседневному опыту «мысли в вашей голове», как восприятие, сон, намерение или план, и то, как мы что-то знаем, или что-то значит или что-то понимаем. «Нетрудно дать определение здравого смысла сознания», — замечает философ Джон Сирл. То, что таинственно и увлекательно, — это не столько то, что есть, но и то, как это происходит: как совокупность жировой ткани и электричества приводит к этому (знакомому) опыту восприятия, смысла или мышления?

Философы называют это трудной проблемой сознания. Это последняя версия классической проблемы в философии разума, называемая «проблемой разума-тела». Связанная с этим проблема — проблема смысла или понимания (которую философы называют «интенциональностью»): какова связь между нашими мыслями и тем, о чем мы думаем (т.е. объектами и ситуациями в мире)? Третий вопрос — проблема опыта (или «феноменология»): если два человека видят одно и то же, есть ли у них такой же опыт? Или есть вещи «внутри головы» (называемые «qualia»), которые могут отличаться от человека к человеку?

Китайская комната Сирла
Джон Сирл просит нас рассмотреть мысленный эксперимент: предположим, что мы написали компьютерную программу, которая проходит тест Тьюринга и демонстрирует «общее разумное действие». Предположим, что программа может свободно разговаривать по-китайски. Напишите программу на картах 3×5 и отдайте их обычным людям, которые не говорят по-китайски. Заблокируйте человека в комнату и попросите его следовать инструкциям на карточках. Он будет копировать китайских иероглифов и передавать их в комнату и выходить из комнаты через щель. С внешней стороны окажется, что в китайской комнате есть полностью умный человек, который говорит по-китайски. Вопрос в следующем: есть ли кто-нибудь (или что-то еще) в комнате, которая понимает китайский? То есть, есть ли что-либо, что имеет психическое состояние понимания или которое сознательно осознает то, что обсуждается на китайском языке? Человек явно не знает. Комната не может быть в курсе. Карты, разумеется, не знают. Сирл приходит к выводу, что китайская комната или любая другая физическая система символов не могут иметь разум.

Сирл продолжает утверждать, что фактические психические состояния и сознание требуют (еще не описаны) «реальных физико-химических свойств реальных человеческих мозгов». Он утверждает, что существуют особые «причинные свойства» мозгов и нейронов, которые порождают умы: в его словах «мозги вызывают умы».

Готфрид Лейбниц сделал по существу тот же аргумент, что и Сирл в 1714 году, используя мысленный эксперимент по расширению мозга до тех пор, пока он не был размером с мельницу. В 1974 году Лоуренс Дэвис представил себе дублирование мозга, используя телефонные линии и офисы, в которых работают люди, а в 1978 году Нед Блок предвидел, что все население Китая участвует в таком мозговом моделировании. Этот мысленный эксперимент называется «Китайская нация» или «Китайский гимнастический зал». Ned Block также предложил свой аргумент Blockhead, который представляет собой версию китайской комнаты, в которой программа была переустановлена ​​в простой набор правил формы «см. Это, сделайте это», удалив из памяти всю тайну.

Ответы на китайскую комнату
Ответы на китайскую комнату подчеркивают несколько разных моментов.

Ответы на системы и ответ виртуального разума: В этом ответе утверждается, что система, включая человека, программу, комнату и карты, понимает китайцев. Сирл утверждает, что человек в комнате — это единственное, что может «иметь разум» или «понимать», но другие не согласны, утверждая, что возможно, что в одном физическом месте могут быть два ума, похожие на способ компьютер может одновременно «быть» двумя машинами одновременно: один физический (например, Macintosh) и один «виртуальный» (например, текстовый процессор).
Ответы на скорость, мощность и сложность: несколько критиков указывают, что человек в комнате, вероятно, займет миллионы лет, чтобы ответить на простой вопрос и потребовал бы «шкафы для хранения» астрономических пропорций. Это ставит под сомнение ясность интуиции Сирла.
Ответ робота: Чтобы по-настоящему понять, некоторые считают, что китайской комнате нужны глаза и руки. Ханс Моравек пишет: «Если бы мы могли перенести робота в программу рассуждений, нам больше не понадобился бы человек, чтобы дать смысл: он исходил из физического мира».
Ответ симулятора мозга: что, если программа имитирует последовательность нервных обстрелов в синапсах реального мозга реального китайского спикера? Человек в комнате будет имитировать настоящий мозг. Это вариация «системного ответа», которая кажется более правдоподобной, потому что «система» теперь явно действует как человеческий мозг, что укрепляет интуицию, что есть что-то помимо человека в комнате, который мог бы понять китайский язык.
Ответ других умов и ответы эпифеноменов: несколько человек отметили, что аргумент Сирла — это просто версия проблемы других умов, применяемая к машинам. Поскольку трудно решить, думают ли люди «на самом деле», мы не должны удивляться, что трудно ответить на один и тот же вопрос о машинах.

Думает ли какое-то вычисление?
Вычислительная теория ума или «вычислительный подход» утверждает, что связь между умом и мозгом аналогична (если не идентична) взаимосвязи между запущенной программой и компьютером. Идея имеет философские корни в Гоббсе (который утверждал, что рассуждение было «не более, чем считаться»), Лейбниц (который пытался создать логическое исчисление всех человеческих идей), Юм (который думал, что восприятие может быть сведено к «атомным впечатлениям») и даже Кант (который проанализировал весь опыт, контролируемый формальными правилами). Последняя версия связана с философами Хилари Путнэм и Джерри Фодором.

Этот вопрос связан с нашими более ранними вопросами: если человеческий мозг — это своего рода компьютер, то компьютеры могут быть умными и сознательными, отвечая как на практические, так и на философские вопросы ИИ. Что касается практического вопроса AI («Может ли машина отображать общий интеллект?»), Некоторые версии вычислительного процесса утверждают, что (как писал Гоббс):

Рассуждение — это не что иное, как расчет
Другими словами, наш интеллект происходит от формы вычисления, аналогичной арифметике. Это гипотеза о физической символической системе, рассмотренная выше, и подразумевает, что возможен искусственный интеллект. В терминах философского вопроса AI («Может ли машина иметь ум, психические состояния и сознание?»), Большинство версий вычислительного процесса утверждают, что (как характеризует его Стеван Харнад):

Психические состояния — это просто реализация (правильных) компьютерных программ
Это «сильный ИИ» Джона Сирла, о котором говорилось выше, и это реальная цель аргумента китайской комнаты (согласно Харнаду).

Другие связанные вопросы
Алан Тьюринг отметил, что есть много аргументов формы «машина никогда не будет делать X», где X может быть много чего, например:

Будьте добры, находчивы, красивы, дружелюбны, проявите инициативу, почувствуете юмор, говорите прямо из-за ошибки, совершайте ошибки, влюбляйтесь, наслаждайтесь клубникой и сливками, заставляйте кого-то влюбиться в нее, учитесь на опыте, правильно используйте слова , быть предметом собственной мысли, иметь такое же разнообразие поведения, как человек, делать что-то действительно новое.

Может ли машина испытывать эмоции?
Если «эмоции» определяются только с точки зрения их влияния на поведение или на то, как они функционируют внутри организма, эмоции можно рассматривать как механизм, который интеллектуальный агент использует для максимизации полезности своих действий. Учитывая это определение эмоций, Ханс Моравек считает, что «роботы в целом будут достаточно эмоциональными в том, чтобы быть хорошими людьми». Страх — источник срочности. Эмпатия — необходимый компонент хорошего взаимодействия с человеческим компьютером. Он говорит, что роботы «будут пытаться угодить вам, по-видимому, бескорыстным образом, потому что из этого позитивного подкрепления вы получите волнение». Вы можете интерпретировать это как своего рода любовь ». Дэниел Кревьер пишет: «Моравек считает, что эмоции — это просто устройства для направления поведения в направлении, выгодном для выживания своего вида».

Тем не менее, эмоции также можно определить с точки зрения их субъективного качества, того, что, по-видимому, имеет эмоции. Вопрос о том, действительно ли машина чувствует эмоцию или же она просто действует так, как будто она чувствует эмоцию, является философским вопросом: «Может ли машина быть сознательной?» в другой форме.

Может ли машина быть в курсе?
«Самосознание», как отмечалось выше, иногда используется писателями-фантастами как имя для основного человеческого имущества, которое делает человека полностью человеческим. Тьюринг убирает все другие свойства человека и сводит вопрос к «может ли машина быть предметом собственной мысли?» Может ли он думать о себе? Таким образом, может быть написана программа, которая может сообщать о своих внутренних состояниях, таких как отладчик. Хотя, возможно, самосознание часто предполагает немного больше возможностей; машина, которая каким-то образом приписывает смысл не только своему собственному состоянию, но и вообще постулирует вопросы без твердых ответов: контекстуальный характер его существования сейчас; как он сравнивается с прошлыми состояниями или планами на будущее, пределами и ценности его рабочего продукта, как он оценивает свою эффективность, которую оценивают или сравнивают с другими.

Может ли машина быть оригинальной или креативной?
Тьюринг сводит это к вопросу о том, может ли машина «взять нас врасплох» и утверждает, что это, очевидно, верно, как может подтвердить любой программист. Он отмечает, что с достаточным объемом памяти компьютер может вести себя в астрономическом количестве по-разному. Это должно быть возможно, даже тривиально, для компьютера, который может представлять идеи, чтобы объединить их по-новому. (Автоматизированный математик Дугласа Лената, как один пример, объединил идеи, чтобы открыть новые математические истины).

В 2009 году ученые из Университета Аберистуит в Уэльсе и Британский университет Кембриджа разработали робота по имени Адам, который, по их мнению, является первой машиной, которая самостоятельно придумывает новые научные результаты. Также в 2009 году исследователи из Корнелла разработали Eureqa, компьютерную программу, которая экстраполирует формулы для соответствия введенным данным, например, найти законы движения из движения маятника.

Может ли машина быть доброжелательной или враждебной?
Этот вопрос (как и многие другие в философии искусственного интеллекта) может быть представлен в двух формах. «Враждебность» может быть определена в терминах функции или поведения, и в этом случае «враждебное» становится синонимом «опасного». Или это можно определить с точки зрения намерения: может ли машина «намеренно» намереваться нанести вред? Последний вопрос: «Может ли машина иметь сознательные состояния?» (например, намерения) в другой форме.

Вопрос о том, опасны ли высокоинтеллектуальные и полностью автономные машины, был подробно рассмотрен футуристами (такими как Институт сингулярности). (Очевидный элемент драмы также сделал тему популярной в научной фантастике, которая рассмотрела множество по-разному возможных сценариев, где интеллектуальные машины представляют угрозу для человечества.)

Одна из проблем заключается в том, что машины могут приобретать автономию, а разведка должна быть опасной очень быстро. Вернон Винг предположил, что через несколько лет компьютеры внезапно станут тысячами или в миллионы раз более умными, чем люди. Он называет это «Сингулярностью». Он предполагает, что это может быть несколько или, возможно, очень опасно для людей. Это обсуждается философией сингулярности.

Некоторые эксперты и ученые поставили под сомнение использование роботов для боевых действий, особенно когда такие роботы получают некоторую степень автономных функций. ВМС США профинансировали отчет, который указывает на то, что по мере усложнения военных роботов следует уделять больше внимания последствиям их способности принимать автономные решения.

Президент Ассоциации по развитию искусственного интеллекта заказал исследование для изучения этого вопроса. Они указывают на такие программы, как устройство сбора данных, которое может подражать человеческому взаимодействию.

Некоторые из них предположили необходимость создания «Friendly AI», что означает, что достижения, которые уже происходят с AI, также должны включать в себя усилия, направленные на то, чтобы сделать ИИ неотъемлемо дружественным и гуманным.

Может ли машина иметь душу?
Наконец, те, кто верят в существование души, могут утверждать, что «Мышление — это функция бессмертной души человека». Алан Тьюринг назвал это «теологическим возражением». Он пишет

Пытаясь построить такие машины, мы не должны быть непочтительно узурпировать Свою силу создания душ, не больше, чем мы в родах детей: скорее, мы — в любом случае инструменты Его воли, обеспечивающие особняки для созданных Его душ.

Взгляды на роль философии
Некоторые ученые утверждают, что отклонение философии сообщества AI вредно. В Стэнфордской энциклопедии философии некоторые философы утверждают, что роль философии в ИИ недооценивается.Физик Дэвид Дойч утверждает, что без понимания философии или ее концепций развитие ИИ будет страдать от недостатка прогресса.

Библиография и конференции
Основная библиография по этому вопросу с несколькими подразделами посвящена PhilPapers

. Основная серия конференций по этому вопросу — «Философия и теория ИИ» (PT-AI), которую ведет Винсент К. Мюллер

Share