Влияние искусственного интеллекта

Искусственный интеллект (AI) — это интеллект, отображаемый машинами. В информатике идеальная «интеллектуальная» машина — это гибкий рациональный агент, который воспринимает окружающую среду и выполняет действия, которые максимизируют его шансы на успех в какой-то цели или задаче. Говоря просто, термин «искусственный интеллект» применяется, когда машина имитирует «когнитивные» функции, которые люди связывают с другими человеческими умами, например: «учиться» и «решать проблемы». Две машины становятся все более способными, технологии, которые когда-то считались требующими интеллекта, удаляются из определения. Например, оптическое распознавание символов больше не воспринимается как пример «искусственного интеллекта», который стал общей технологией. Технологические достижения, которые по-прежнему классифицируются как искусственный интеллект, являются автономными системами вождения или способными играть в шахматы или Go.

Согласно Takeyas (2007), AI — это отрасль вычислительной науки, ответственная за изучение компьютерных моделей, способных осуществлять деятельность людей на основе двух своих основных характеристик: рассуждений и поведения.

В 1956 году Джон Маккарти придумал термин «искусственный интеллект» и определил его как «науку и изобретательность создания интеллектуальных машин, особенно интеллектуальных компьютерных программ».

Для Нильса Джона Нильсона есть четыре основных столпа, на которых основан искусственный интеллект:

Найдите требуемое состояние в множестве состояний, созданных возможными действиями.
Генетические алгоритмы (аналогичные процессу эволюции цепочек ДНК).
Искусственные нейронные сети (аналогичные физическому функционированию мозга животных и людей).
Рассуждение через формальную логику, аналогичную абстрактному мышлению человека.

Существуют также различные типы восприятий и действий, которые могут быть получены и произведены, соответственно, физическими датчиками и механическими датчиками в машинах, электрическими или оптическими импульсами в компьютерах, а также битовыми входами и выходами программного обеспечения и его программной среды ,

Несколько примеров касаются системного контроля, автоматического планирования, способности реагировать на диагнозы и запросы потребителей, распознавания рукописного текста, распознавания речи и распознавания образов. Системы ИИ в настоящее время являются частью рутины в таких областях, как экономика, медицина, инженерия и военные, и были использованы в различных программных приложениях, стратегических играх, таких как компьютерные шахматы и другие видеоигры.

история
Искусственные существа, способные мыслить, стали орудиями повествования в древности и были распространены в художественной литературе, как в «Франкенштейне» Мэри Шелли или «Кареле Чапека» (универсальные роботы Россума). Эти персонажи и их судьба подняли многие из тех же проблем, которые обсуждались в этике искусственного интеллекта.

Изучение механических или «формальных» рассуждений началось с философов и математиков в древности. Изучение математической логики непосредственно привело к теории вычислений Алана Тьюринга, в которой предположилось, что машина, перемещая символы так же просто, как «0» и «1», смогла смоделировать любой мыслимый акт математической дедукции. Это понимание того, что цифровые компьютеры могут имитировать любой процесс формальных рассуждений, называется темой Церкви-Тьюринга. Наряду с параллельными открытиями в области нейробиологии, теории информации и кибернетики это заставило исследователей рассмотреть возможность создания электронного мозга. Тьюринг предположил, что «если человек не может отличить ответы от машины и человека, машину можно считать« разумной ». Первой работой, которая в настоящее время общепризнано как ИИ, был формальный дизайн Маккуллуша и Питса 1943 года для «искусственных нейронов» Тьюринга.

Область исследований ИИ родилась в мастерской в ​​Дартмутском колледже в 1956 году. Учредителями и учредителями были и Аллен Ньюэлл (CMU), Герберт Симон (CMU), Джон Маккарти (MIT), Марвин Мински (MIT) и Артур Самуэль (IBM) лидеры исследований ИИ. Они и их ученики выпускали программы, которые пресса описывала как «удивительные»: компьютеры изучали стратегии шашек (примерно в 1954 году) (а к 1959 году, как сообщается, играли лучше, чем средний человек), решая проблемы слов в алгебре, доказывая логические теоремы (логика Теоретик, первый раз в 1956 году) и говорящий по-английски. К середине 1960-х годов исследования в США были в значительной степени финансированы Министерством обороны, и лаборатории были созданы во всем мире. Создатели ИИ с оптимизмом смотрели в будущее: предсказал Герберт Саймон, «машины смогут в течение 20 лет выполнять любую работу, которую может сделать человек». Марвин Мински согласился, написав: «В течение одного поколения … проблема создания« искусственного интеллекта »будет существенно решена».

Они не смогли распознать трудности некоторых из оставшихся задач. Прогресс замедлился, и в 1974 году в ответ на критику сэра Джеймса Лайтхилла и постоянное давление со стороны Конгресса США на финансирование более продуктивных проектов как правительства США, так и Великобритании прекратили поисковые исследования в области ИИ. Следующие несколько лет позже можно было бы назвать «зимой AI», период, когда получение финансирования проектов ИИ было затруднительным.

В начале 1980-х годов исследование ИИ возродилось благодаря коммерческому успеху экспертных систем, форме программы ИИ, которая смоделировала знания и аналитические навыки специалистов-специалистов. К 1985 году рынок ИИ достиг более миллиарда долларов. В то же время японский компьютерный проект пятого поколения вдохновил правительства США и Великобритании на восстановление финансирования научных исследований. Однако, начиная с краха рынка Lisp Machine в 1987 году, AI снова впал в дурную славу, и начался второй, более продолжительный перерыв.

В конце 1990-х и начале XXI века ИИ начал использоваться для логистики, добычи данных, медицинской диагностики и других областей. Успех был обусловлен увеличением вычислительной мощности (см. Закон Мура), большим вниманием к решению конкретных проблем, новыми связями между ИИ и другими областями (такими как статистика, экономика и математика) и приверженностью исследователей математическим методам и научным стандартам. Deep Blue стала первой компьютерной шахматной системой, которая победила правящего чемпиона мира по шахматам Гарри Каспарова 11 мая 1997 года.

В 2011 году под угрозой! викторины показывают выставочный матч, система ответов на вопросы IBM, Уотсон, победили две величайшие опасности! чемпионы, Брэд Раттер и Кен Дженнингс. Более быстрые компьютеры, алгоритмические улучшения и доступ к большим объемам данных позволили достичь успехов в машинах и восприятии; основанные на данных, глубокие методы обучения стали доминировать в тестах точности в 2012 году. Kinect, который предоставляет 3D-интерфейс для движения тела для Xbox 360 и Xbox One, использует алгоритмы, которые возникли из длительных исследований ИИ, а также интеллектуальных персональных помощников в смартфонах. В марте 2016 года AlphaGo выиграла 4 из 5 игр Go в матче с чемпионом Go Lee Lee Sedol, став первой компьютерной Go-play системой, чтобы победить профессионального игрока Go без препятствий. В 2017 году Future of Go Summit AlphaGo выиграла матч с тремя играми с Ke Jie, который в то время постоянно занимал первое место в мире в течение двух лет. Это ознаменовало завершение важной вехи в развитии искусственного интеллекта, поскольку Go — чрезвычайно сложная игра, а не шахматы.

Согласно Bloomberg’s Jack Clark, 2015 год стал знаковым годом для искусственного интеллекта, при этом количество программных проектов, использующих AI в Google, увеличилось с «спорадического использования» в 2012 году до более чем 2700 проектов. Кларк также представляет фактические данные, свидетельствующие о том, что с 2011 года показатели ошибок в задачах обработки изображений значительно снизились. Он объясняет это увеличением доступных нейронных сетей из-за роста инфраструктуры облачных вычислений и увеличения исследовательских инструментов и наборов данных. Другие приведенные примеры включают разработку Microsoft системы Skype, которая может автоматически переводить с одного языка на другой и систему Facebook, которая может описывать изображения для слепых. В исследовании 2017 года каждая пятая компания сообщила, что они «включили ИИ в некоторые предложения или процессы». Примерно в 2016 году Китай значительно ускорил финансирование своего правительства; с учетом большого объема данных и быстро растущего объема исследований, некоторые наблюдатели считают, что это может стать «сверхдержавой AI».

основы
Типичный ИИ воспринимает окружающую среду и предпринимает действия, которые максимизируют его шансы на успешное достижение своих целей. Целевая целевая функция AI может быть простой («1, если ИИ выигрывает игру Go, 0 в противном случае») или сложный («Делайте действия математически подобными действиям, которые получили награды в прошлом»). Цели могут быть явно определены или могут быть вызваны. Если ИИ запрограммирован на «обучение усилению», цели могут быть неявно вызваны поощрением некоторых видов поведения и наказанием других. Альтернативно, эволюционная система может вызывать цели, используя «функцию фитнеса» для мутации и преимущественной репликации высокоуровневых систем ИИ; это похоже на то, как животные эволюционировали, чтобы врожденно желать определенных целей, таких как поиск пищи или как собак можно разводить посредством искусственного отбора, чтобы обладать желаемыми качествами. Некоторые системы ИИ, такие как ближайший сосед, вместо этого рассуждают по аналогии; эти системы обычно не дают целей, за исключением того, что цели как-то скрыты в их данных обучения. Такие системы все еще могут быть сопоставлены, если система без цели создается как система, «целью которой» является успешное выполнение своей узкой задачи классификации.

AI часто вращается вокруг использования алгоритмов. Алгоритм представляет собой набор недвусмысленных инструкций, которые может выполнить механический компьютер. Комплексный алгоритм часто строится поверх других, более простых алгоритмов. Простым примером алгоритма является следующий рецепт для оптимального воспроизведения в tic-tac-toe:

Если у кого-то есть «угроза» (то есть два подряд), возьмите оставшийся квадрат. Иначе,
если переместить «вилки» для создания сразу двух угроз, сыграйте этот ход. Иначе,
возьмите квадрат центра, если он свободен. Иначе,
если ваш оппонент сыграл в углу, возьмите противоположный угол. Иначе,
возьмите пустой угол, если он существует. Иначе,
возьмите любой пустой квадрат.

Многие алгоритмы AI способны учиться на данных; они могут улучшить себя, изучая новые эвристики (стратегии или «эмпирические правила», которые хорошо работали в прошлом), или могут сами писать другие алгоритмы. Некоторые из «учеников», описанные ниже, в том числе байесовские сети, деревья решений и ближайший сосед, теоретически могут, если дать бесконечные данные, время и память, научиться аппроксимировать любую функцию, в том числе любую комбинацию математических функций лучше всего описать весь мир. Таким образом, эти ученики могли бы теоретически получать все возможные знания, рассматривая каждую возможную гипотезу и сопоставляя ее с данными. На практике практически невозможно рассмотреть каждую возможность из-за явления «комбинаторного взрыва», где время, необходимое для решения проблемы, растет экспоненциально. Большая часть исследований ИИ включает в себя выяснение того, как идентифицировать и не учитывать широкие возможности возможностей, которые вряд ли будут плодотворными. Например, при просмотре карты и поиске кратчайшего маршрута движения из Денвера в Нью-Йорк на востоке, в большинстве случаев можно пропустить любой путь через Сан-Франциско или другие районы далеко до запада; таким образом, ИИ, обладающий алгоритмом слежения за траекторией, подобным A *, может избежать комбинаторного взрыва, который возникнет, если по очереди будет рассмотрен весь возможный маршрут.

Самый ранний (и самый простой для понимания) подход к ИИ — это символизм (например, формальная логика): «Если у здорового взрослого человека есть лихорадка, у них может быть грипп». Второй, более общий подход — это байесовский вывод: «Если у нынешнего пациента наблюдается лихорадка, настройте вероятность того, что у них грипп будет таким-то образом». Третий крупный подход, чрезвычайно популярный в рутинных бизнес-приложениях AI, является аналоговым инструментом, таким как SVM и ближайший сосед: «Изучив записи известных прошлых пациентов, температура, симптомы, возраст и другие факторы которых в основном соответствуют текущему пациенту, X% из этих пациентов оказался грипп ». Четвертый подход сложнее понять, но вдохновлен тем, как работает аппарат мозга: подход искусственной нейронной сети использует искусственные «нейроны», которые могут учиться, сравнивая себя с желаемой продукцией и изменяя сильные стороны связей между ее внутренними нейронами «усилить» связи, которые, казалось, были полезными. Эти четыре основных подхода могут перекрываться друг с другом и с эволюционными системами; например, нейронные сети могут научиться делать выводы, обобщать и делать аналогию. Некоторые системы неявно или явно используют несколько таких подходов, наряду со многими другими алгоритмами ИИ и не-ИИ; наилучший подход часто зависит от проблемы.

Алгоритмы обучения работают на основе того, что стратегии, алгоритмы и выводы, которые хорошо работали в прошлом, вероятно, будут продолжать работать в будущем. Эти выводы могут быть очевидны, например, «так как солнце поднимается каждое утро в течение последних 10 000 дней, это, вероятно, также будет повышаться и завтра утром». Они могут быть нюансированы, например «X% семей имеют географически отдельные виды с цветовыми вариантами, поэтому существует вероятность Y%, что существуют неоткрытые черные лебеди». Ученики также работают на основе «бритвы Оккама»: самая простая теория, которая объясняет данные, является наиболее вероятной. Поэтому, чтобы быть успешным, ученик должен быть разработан таким образом, чтобы он предпочитал более простые теории сложным теориям, за исключением случаев, когда сложная теория оказалась значительно лучше. Урегулирование на плохой, чрезмерно сложной теории gerrymandered, чтобы соответствовать всем прошлым данным обучения, известно как переобучение. Многие системы пытаются уменьшить переобучение, вознаграждая теорию в соответствии с тем, насколько она соответствует данным, но наказывая теорию в соответствии с тем, насколько сложна теория. Помимо классического переобучения, ученики также могут разочаровать «изучение неправильного урока». Пример игрушки состоит в том, что классификатор изображений, обученный только фотографиям коричневых лошадей и черных кошек, может заключить, что все коричневые пятна, скорее всего, являются лошадьми. Реальный пример состоит в том, что, в отличие от людей, текущие классификаторы изображений не определяют пространственную взаимосвязь между компонентами изображения; вместо этого они изучают абстрактные шаблоны пикселей, о которых люди не обращают внимания, но которые линейно коррелируют с образами определенных типов реальных объектов. Небольшое наложение такого шаблона на законное изображение приводит к «состязательному» изображению, которое система неправильно классифицирует.

По сравнению с людьми, существующий ИИ испытывает недостаток в нескольких особенностях человеческого «здравого смысла»; в первую очередь, у людей есть мощные механизмы для рассуждения о «наивной физике», такие как пространство, время и физические взаимодействия. Это позволяет даже маленьким детям легко делать выводы, такие как «Если я сверну эту ручку со стола, она упадет на пол». У людей также есть мощный механизм «народной психологии», который помогает им интерпретировать фразы на естественном языке, такие как «Городские советники отказали демонстрантам в разрешении, поскольку они выступали за насилие». (Общий ИИ затрудняет определение того, являются ли члены совета или демонстранты теми, кто якобы выступает за насилие.) Это отсутствие «общего знания» означает, что ИИ часто совершает разные ошибки, чем люди, способами, которые могут казаться непонятными. Например, существующие самоходные автомобили не могут рассуждать о местонахождении и намерениях пешеходов точно так, как это делают люди, и вместо этого должны использовать нечеловеческие способы рассуждения, чтобы избежать несчастных случаев.

Проблемы
Общая цель исследования искусственного интеллекта заключается в создании технологии, позволяющей компьютерам и машинам работать интеллектуально. Общая проблема моделирования (или создания) интеллекта была разбита на субадресы. Они состоят из определенных особенностей или возможностей, которые исследователи ожидают, что интеллектуальная система будет отображаться. Основные черты, описанные ниже, получили наибольшее внимание.

Рассуждение, решение проблем
Ранние исследователи разработали алгоритмы, которые имитировали пошаговые рассуждения, которые люди используют, когда они решают головоломки или делают логические выводы. К концу 1980-х и 1990-х годов исследования ИИ разработали методы для обработки неопределенной или неполной информации, используя концепции вероятности и экономики.

Эти алгоритмы оказались недостаточными для решения крупных проблем рассуждений, поскольку они испытывали «комбинаторный взрыв»: они становились экспоненциально медленнее по мере роста проблем. Фактически, даже люди редко используют поэтапный вывод, который раннее исследование ИИ могло моделировать. Они решают большинство своих проблем, используя быстрые, интуитивные суждения.

Представление знаний
Представление знаний и разработка знаний являются центральными в классическом исследовании ИИ. Некоторые «экспертные системы» пытаются собрать явные знания, которыми обладают эксперты в какой-то узкой области. Кроме того, некоторые проекты пытаются собрать «знание здравого смысла», известное среднему человеку, в базу данных, содержащую обширные знания о мире. Среди вещей, которые будет содержать всеобъемлющая база знаний здравого смысла, будут: объекты, свойства, категории и отношения между объектами; ситуации, события, состояния и время; причины и последствия; знание о знании (что мы знаем о том, что знают другие люди); и многие другие, менее хорошо исследованные домены. Представление «то, что существует» — это онтология: формально описывается набор объектов, отношений, понятий и свойств, чтобы программные агенты могли их интерпретировать. Семантика этих данных воспринимается как логика описания описания, роли и отдельных лиц и обычно реализуется как классы, свойства и отдельные лица на веб-языке онтологии. Наиболее общие онтологии называются верхними онтологиями, которые пытаются обеспечить основу для всех других знаний, выступая в качестве посредников между онтологиями доменов, которые охватывают конкретные знания о конкретной области знаний (область интересов или область, вызывающая озабоченность). Такие формальные представления знаний могут использоваться для индексирования и извлечения контента, интерпретации сценариев, поддержки клинических решений, обнаружения знаний (разработка «интересных» и действенных выводов из больших баз данных) и других областей.

Среди наиболее сложных проблем в представлении знаний:

Определение по умолчанию и проблема квалификации
Многие вещи, которые люди знают, принимают форму «рабочих предположений». Например, если птица появляется в разговоре, люди обычно изображают животное размером с кулак, поет и летит. Ни одна из этих вещей не относится ко всем птицам. Джон МакКарти определил эту проблему в 1969 году как проблему квалификации: для любого правила здравого смысла, которое исследователи ИИ должны представлять, существует, как правило, огромное количество исключений. Почти нет ничего истинного или ложного в том, что требует абстрактная логика. Исследования ИИ исследовали ряд решений этой проблемы.

Широта знаний здравого смысла
Число атомных фактов, которые знает средний человек, очень велико. Исследовательские проекты, которые пытаются построить полную базу знаний здравого смысла (например, Cyc), требуют огромного количества трудоемкой онтологической инженерии — они должны быть построены вручную с одной сложной концепцией за один раз.

Подсимвольная форма некоторого знания здравого смысла
Многое из того, что знают люди, не представлено в виде «фактов» или «заявлений», которые они могли бы выразить в устной форме. Например, мастер шахмат избежит определенной шахматной позиции, потому что он «чувствует себя слишком разоблаченным», или искусствовед может взглянуть на статую и понять, что это подделка. Это бессознательные и субсимвольные интуиции или тенденции в человеческом мозге. Такие знания информируют, поддерживают и предоставляют контекст для символического, сознательного знания. Как и в связанной с этим проблеме подсимвольных рассуждений, есть надежда, что расположенные ИИ, вычислительный интеллект или статистический ИИ предоставят способы представления такого рода знаний.

планирование
Интеллектуальные агенты должны иметь возможность устанавливать цели и добиваться их. Им нужен способ визуализации будущего — представление состояния мира и возможность предсказать, как их действия изменят его, — и иметь возможность делать выбор, который максимизирует полезность (или «ценность») доступных вариантов ,

В классических задачах планирования агент может предположить, что он является единственной действующей в мире системой, позволяющей агенту быть уверенным в последствиях своих действий. Однако, если агент не является единственным актором, то он требует, чтобы агент мог обосновать неопределенность. Это требует агента, который может не только оценить свою среду и сделать прогнозы, но и оценить свои прогнозы и адаптироваться на основе ее оценки.

Многоагентное планирование использует сотрудничество и конкуренцию многих агентов для достижения заданной цели. Возникающее поведение, такое как это, используется эволюционными алгоритмами и интеллектом рой.

Учусь
Машинное обучение, фундаментальная концепция исследований ИИ с момента создания месторождения, — это изучение компьютерных алгоритмов, которые автоматически улучшаются благодаря опыту.

Неконтролируемое обучение — это способность находить шаблоны в потоке ввода. Подконтрольное обучение включает в себя как классификацию, так и численную регрессию. Классификация используется для определения того, к какой категории принадлежит, после просмотра ряда примеров из нескольких категорий. Регрессия — это попытка создать функцию, которая описывает взаимосвязь между входами и выходами и предсказывает, как выходные данные должны изменяться по мере изменения входных данных. Оба классификатора и регрессионных учащихся можно рассматривать как «аппроксиматоры функций», пытаясь изучить неизвестную (возможно, неявную) функцию; например, классификатор спама можно рассматривать как изучение функции, которая отображает текст письма в одну из двух категорий: «спам» или «не спам». Теория вычислительного обучения может оценивать учащихся сложностью вычислений, сложностью выборки (сколько данных требуется) или другими понятиями оптимизации. При усилении обучения агент вознаграждается за хорошие ответы и наказывается за плохих. Агент использует эту последовательность вознаграждений и наказаний, чтобы сформировать стратегию для работы в своем проблемном пространстве.

Обработка естественного языка
Обработка естественного языка (NLP) дает машинам возможность читать и понимать человеческий язык. Достаточно мощная система обработки естественного языка позволила бы использовать пользовательские интерфейсы на естественном языке и получить знания непосредственно из письменных источников, таких как тексты в новостях. Некоторые простые приложения обработки естественного языка включают в себя поиск информации, интеллектуальный анализ текста, автоответчик и машинный перевод. Многие современные подходы используют частоты совпадения слов для построения синтаксических представлений текста. Стратегии поиска ключевых слов для поиска популярны и масштабируемы, но немыслимы; поисковый запрос для «собаки» может соответствовать только документам с буквальным словом «собака» и пропустить документ со словом «пудель». В стратегиях «Лексическая близость» используются такие слова, как «авария», чтобы оценить настроение документа. Современные статистические подходы НЛП могут сочетать все эти стратегии, а также другие, и часто достигают приемлемой точности на уровне страницы или абзаца, но по-прежнему не имеют смыслового понимания, необходимого для классификации изолированных предложений. Помимо обычных трудностей с кодированием семантических знаний здравого смысла, существующая семантическая НЛП иногда слишком мала, чтобы быть жизнеспособной в бизнес-приложениях. Помимо семантического НЛП, конечной целью «повествования» НЛП является воплощение полного понимания рассуждений здравого смысла.

восприятие
Восприятие машины — это способность использовать входные сигналы от датчиков (например, камеры (видимый спектр или инфракрасный порт), микрофоны, беспроводные сигналы и активные лидарные, сонарные, радарные и тактильные датчики), чтобы вывести аспекты мира. Приложения включают распознавание речи, распознавание лиц и распознавание объектов. Компьютерное зрение — это способность анализировать визуальный ввод. Такой ввод обычно неоднозначен; гигантский пятидесятиметровый пешеход далеко может создавать точно такие же пиксели, как соседний пешеход обычного размера, требующий, чтобы ИИ оценивал относительную правдоподобие и разумность различных интерпретаций, например, используя свою «объектную модель» для оценки что пятидесятиметровых пешеходов не существует.

Движение и манипуляция
AI широко используется в робототехнике. Расширенные роботизированные вооружения и другие промышленные роботы, широко используемые на современных фабриках, могут извлечь из опыта, как эффективно двигаться, несмотря на наличие трения и проскальзывания передач. Современный мобильный робот, получив небольшую, статическую и видимую среду, может легко определить его местоположение и отобразить его среду; однако, динамические среды, такие как (в эндоскопии) внутренность дыхательного тела пациента, создают большую проблему. Планирование движения — это процесс разбивки задачи движения на «примитивы», такие как индивидуальные совместные движения. Такое движение часто включает в себя совместимое движение, процесс, в котором движение требует поддержания физического контакта с объектом. Парадокс Моравека обобщает, что низкоуровневые сенсомоторные навыки, которые люди считают само собой разумеющимися, противоречат друг другу, трудно программировать в робота; парадокс назван в честь Ханса Моравека, который в 1988 году заявил, что «сравнительно легко заставить компьютеры демонстрировать производительность взрослого уровня на тестах интеллекта или играть в шашки, и трудно или невозможно дать им навыки одного года, когда приходит к восприятию и мобильности ». Это объясняется тем, что физическая ловкость, в отличие от шашек, была прямой целью естественного отбора в течение миллионов лет.

Социальная разведка
Парадокс Моравека можно распространить на многие формы социального интеллекта. Распределенная многоагентная координация автономных транспортных средств остается сложной проблемой. Аффективные вычисления — это междисциплинарный зонтик, который включает системы, которые распознают, интерпретируют, обрабатывают или моделируют человеческие аффекты. Умеренные успехи, связанные с аффективными вычислениями, включают анализ текстовых настроений и, в последнее время, анализ мультимодальных влияний (см. Анализ мультимодальных чувств), где AI классифицирует воздействия, отображаемые видеозаписью.

В конечном счете социальные навыки и понимание человеческих эмоций и теории игр были бы ценными для социального агента. Возможность предсказать действия других, понимая их мотивы и эмоциональные состояния, позволит агенту принимать более правильные решения. Некоторые компьютерные системы имитируют человеческие эмоции и выражения, чтобы они стали более чувствительными к эмоциональной динамике взаимодействия человека или иным образом способствовали взаимодействию человека и компьютера. Аналогичным образом, некоторые виртуальные помощники запрограммированы, чтобы говорить разговорно или даже шутить с юмором; это, как правило, дает наивным пользователям нереалистичную концепцию того, как интеллектуальные существующие компьютерные агенты на самом деле.

Общий интеллект
Исторически такие проекты, как база знаний Cyc (1984 год) и массовая японская инициатива «Компьютерные системы пятого поколения» (1982-1992 годы), пытались охватить широту человеческого познания. Эти ранние проекты не смогли избежать ограничений не количественных моделей символической логики и, в ретроспективе, сильно недооценили сложность междоменного ИИ. В настоящее время подавляющее большинство современных исследователей ИИ работают вместо этого на сговорчивых «узких ИИ» (таких как медицинская диагностика или автомобильная навигация). Многие исследователи предсказывают, что такая «узкая ИИ» работает в разных индивидуальных областях, в конечном итоге будет включена в машину с искусственным общим интеллектом (AGI), сочетая большинство узких навыков, упомянутых в этой статье, и в какой-то момент даже превосходит человеческие способности в большинстве или все эти области. Многие достижения имеют общую, междоменную значимость. Один из громких примеров заключается в том, что DeepMind в 2010 году разработал «обобщенный искусственный интеллект», который мог бы изучить множество разнообразных игр Atari самостоятельно, а затем разработал вариант системы, который преуспевает в последовательном обучении. Помимо передачи обучения, гипотетические прорывы AGI могут включать в себя разработку рефлексивных архитектур, которые могут участвовать в теоретико-множественных решениях, и выяснять, как «сорвать» всеобъемлющую базу знаний из всего неструктурированного Интернета. Некоторые утверждают, что какой-то (в настоящее время-неоткрытый) концептуально простой, но математически сложный «Мастер-алгоритм» может привести к AGI. Наконец, несколько «возникающих» подходов очень тщательно анализируют человеческий интеллект и считают, что антропоморфные черты, такие как искусственный мозг или моделируемое развитие ребенка, могут когда-нибудь достигнуть критической точки, в которой возникает общий интеллект.

Многие проблемы в этой статье могут также требовать общего интеллекта, если машины решат проблемы, а также люди. Например, даже конкретные простые задачи, такие как машинный перевод, требуют, чтобы машина читала и записывала на обоих языках (НЛП), следуя аргументам автора (причине), знала, о чем говорят (знания), и верно воспроизводит оригинал автора (социальный интеллект). Проблема, как машинный перевод, считается «AI-complete», потому что все эти проблемы необходимо решать одновременно, чтобы достичь производительности машины на человеческом уровне.