Этика искусственного интеллекта

Этика искусственного интеллекта является частью этики технологии, характерной для роботов и других искусственно разумных существ. Он обычно делится на роботомику, заботу о нравственном поведении людей, когда они разрабатывают, строят, используют и обрабатывают искусственно интеллектуальных существ и механическую этику, которая связана с моральным поведением искусственных моральных агентов (AMA).

Робот-этика
Термин «роботизированная этика» (иногда «робоэтика») относится к морали того, как люди проектируют, строят, используют и обрабатывают роботов и других искусственно разумных существ. Он рассматривает и то, как искусственно разумные существа могут быть использованы для нанесения вреда людям и как их можно использовать для людей.

Права робота
«Права роботов» — это концепция, согласно которой люди должны обладать моральными обязательствами по отношению к своим машинам, подобно правам человека или правам животных. Было высказано предположение о том, что права робота, такие как право на существование и выполнение собственной миссии, могут быть связаны с обязанностью робота служить человеку по аналогии с увязыванием прав человека с человеческими обязанностями перед обществом. Они могут включать право на жизнь и свободу, свободу мысли и выражения и равенство перед законом. Этот вопрос был рассмотрен Институтом будущего и Департаментом торговли и промышленности Великобритании.

Эксперты не согласны с тем, будут ли в ближайшее время или безопасно требоваться конкретные и подробные законы. Гленн Макги сообщает, что к 2020 году могут появиться достаточно гуманоидные роботы. Рэй Курцвейл устанавливает дату в 2029 году. Другая группа ученых, собравшаяся в 2007 году, предположила, что прошло не менее 50 лет до того, как будет существовать достаточно развитая система.

Правила конкурса 2003 года на конкурсе Loebner Prize предусматривали возможность создания у роботов собственных прав:

61. Если в любом конкретном году открытая публикация с открытым исходным кодом, введенная Университетом Суррея или Кембриджским центром, получит Серебряную медаль или Золотую медаль, тогда медаль и денежная премия будут присуждаться органу, ответственному за развитие этой записи. Если такой орган не может быть идентифицирован или если есть разногласия между двумя или более претендентами, медаль и денежное вознаграждение будут удерживаться в доверительном управлении до тех пор, пока Вступление не сможет законно владеть, либо в Соединенных Штатах Америки, либо в место проведения конкурса, денежная премия и золотая медаль.

В октябре 2017 года андроид Софии получил гражданство в Саудовской Аравии, хотя некоторые наблюдатели считают, что это скорее рекламный трюк, чем значимое юридическое признание.

Угроза человеческому достоинству
В 1976 году Иосиф Вайзенбаум утверждал, что технология ИИ не должна использоваться для замены людей на должностях, требующих уважения и ухода, таких как любой из них:

Представитель службы поддержки клиентов (технология ИИ уже используется сегодня для телефонных интерактивных систем голосового ответа)
Терапевт (как было предложено Кеннетом Колби в 1970-х годах)
Младенец для престарелых (как сообщала Памела Маккордк в своей книге «Пятое поколение»)
Солдат
Судья
Полицейский

Вайзенбаум объясняет, что нам требуются аутентичные чувства сопереживания у людей на этих должностях. Если машины заменят их, мы окажемся отчужденными, девальвированными и разочарованными. Искусственный интеллект, если он используется таким образом, представляет собой угрозу человеческому достоинству. Вайзенбаум утверждает, что тот факт, что мы занимаемся возможностью машин на этих позициях, говорит о том, что мы испытали «атрофию человеческого духа, которая исходит из мышления о себе как о компьютерах».

Памела Маккордк отмечает, что, говоря о женщинах и меньшинствах, «я предпочел бы воспользоваться своими возможностями с помощью беспристрастного компьютера», указав, что существуют условия, когда мы предпочли бы, чтобы автоматические судьи и полиция не имели личной повестки дня. Основатель AI Джон МакКарти возражает против морализирующего тона критики Вейзенбаума. «Когда морализатор является одновременно яростным и неопределенным, он предлагает авторитарное насилие», — пишет он.

Билл Хиббард пишет, что «человеческое достоинство требует, чтобы мы стремились устранить наше незнание природы существования, и ИИ необходим для этого стремления».

Прозрачность и открытый источник
Билл Хиббард утверждает, что, поскольку ИИ будет оказывать такое глубокое влияние на человечество, разработчики ИИ являются представителями будущего человечества и, следовательно, имеют этическое обязательство быть прозрачными в своих усилиях. Бен Goertzel и Дэвид Харт создали OpenCog в качестве открытой исходной среды для разработки ИИ. OpenAI — некоммерческая исследовательская компания AI, созданная Элоном Маском, Сэмом Альтманом и другими, для разработки ИИ с открытым исходным кодом, полезной для человечества. Существует множество других разработок с открытым исходным кодом.

Оружие искусственного интеллекта
Некоторые эксперты и ученые поставили под сомнение использование роботов для боевых действий, особенно когда такие роботы получают некоторую степень автономных функций. ВМС США профинансировали отчет, который указывает на то, что по мере усложнения военных роботов следует уделять больше внимания последствиям их способности принимать автономные решения. Один из исследователей утверждает, что автономные роботы могут быть более гуманными, поскольку они могут принимать решения более эффективно.

В течение этого последнего десятилетия были интенсивные исследования в автономной власти с возможностью обучения с использованием моральных обязанностей. «Результаты могут быть использованы при проектировании будущих военных роботов, чтобы контролировать нежелательные тенденции, чтобы возложить ответственность на роботов». С точки зрения сторонников, существует вероятность того, что роботы будут развивать способность принимать свои логические решения о том, кого убивать, и поэтому должна существовать установленная моральная основа, которую ИИ не может переопределить.

Произошел недавний протест в отношении разработки оружия искусственного интеллекта, включавшего идеи захвата человечества роботом. Оружие ИИ представляет собой тип опасности, отличающийся от опасности оружия, управляемого человеком. Многие правительства начали финансировать программы по разработке оружия ИИ. Военно-морские силы Соединенных Штатов недавно объявили о планах по созданию автономного беспилотного оружия, параллельно с аналогичными заявлениями со стороны России и Кореи. Из-за того, что оружие AI становится более опасным, чем оружие, управляемое человеком, Стивен Хокинг и Макс Тегмарк подписали ходатайство «Будущее жизни» о запрете оружия AI. В сообщении, опубликованном Hawking и Tegmark, говорится, что оружие AI представляет собой непосредственную угрозу и что в ближайшем будущем необходимо принять меры для предотвращения катастрофических катастроф.

«Если какая-либо крупная военная мощь продвигается вперед с развитием оружия AI, глобальная гонка вооружений практически неизбежна, и конечная точка этой технологической траектории очевидна: автономное оружие станет завтрашним днем ​​Калашниковых», — говорится в петиции, в которую входит Skype co — основатель Яан Таллинн и профессор лингвистики Массачусетского технологического института Ноам Хомски в качестве дополнительных сторонников против оружия ИИ.

Физик и астроном Королевский сэр Мартин Рис предупреждал о таких катастрофических случаях, как «немые роботы, которые собираются изгоев или сеть, которая развивает собственный разум». Huw Price, коллега Риса в Кембридже, озвучил аналогичное предупреждение о том, что люди могут не выживать, когда интеллект «избегает ограничений биологии». Эти два профессора создали Центр изучения экзистенциального риска в Кембриджском университете в надежде избежать этой угрозы человеческому существованию.

Что касается возможности использования интеллектуально-человеческих систем в военном отношении, проект Open Philanthropy пишет, что эти сценарии «кажутся потенциально столь же важными, как риски, связанные с потерей контроля», но исследовательские организации, изучающие долгосрочные социальные последствия ИИ, потратил относительно мало времени на эту озабоченность: «этот класс сценариев не был основным фокусом для организаций, которые были наиболее активными в этом пространстве, таких как Исследовательский институт машинного интеллекта (МИРИ) и Институт будущего человечества (FHI) , и, по-видимому, в них меньше анализов и дискуссий ».

Этика машины
Машинная этика (или мораль морали) — это область исследований, связанных с проектированием искусственных моральных агентов (AMA), роботов или искусственно интеллектуальных компьютеров, которые ведут себя морально или как бы морально.

Исаак Азимов рассматривал этот вопрос в 1950-х годах в своем «Роботе». По настоянию своего редактора Джона Кэмпбелла-младшего он предложил Три закона робототехники управлять искусственно интеллектуальными системами. Большая часть его работы была затем проведена, проверяя границы его трех законов, чтобы увидеть, где они сломаются, или где они создадут парадоксальное или непредвиденное поведение. Его работа предполагает, что ни один набор фиксированных законов не может достаточно предугадать всех возможных обстоятельств.

В 2009 году во время эксперимента в Лаборатории интеллектуальных систем в Ecole Polytechnique Fédérale of Lausanne в Швейцарии роботы, которые были запрограммированы на сотрудничество друг с другом (в поисках полезного ресурса и избежания ядовитого), в конце концов научились лгать каждому другой в попытке накопить полезный ресурс. Одна из проблем в этом случае, возможно, заключалась в том, что цели были «терминальными» (т.е., напротив, конечные человеческие мотивы обычно имеют качество, требующее бесконечного обучения).

Некоторые эксперты и ученые поставили под сомнение использование роботов для боевых действий, особенно когда такие роботы получают некоторую степень автономных функций. ВМС США профинансировали отчет, который указывает на то, что по мере усложнения военных роботов следует уделять больше внимания последствиям их способности принимать автономные решения. Президент Ассоциации по развитию искусственного интеллекта заказал исследование для изучения этого вопроса. Они указывают на такие программы, как устройство сбора данных, которое может подражать человеческому взаимодействию.

Вернор Винге предположил, что наступит момент, когда некоторые компьютеры умнее людей. Он называет это «Сингулярностью». Он предполагает, что это может быть несколько или, возможно, очень опасно для людей. Это обсуждается философией сингулярности. Исследовательский институт Machine Intelligence предложил создать «Friendly AI», что означает, что достижения, которые уже происходят с AI, должны также включать в себя усилия, направленные на то, чтобы сделать ИИ неотъемлемо дружественным и гуманным.

В 2009 году ученые и технические эксперты приняли участие в конференции, организованной Ассоциацией по развитию искусственного интеллекта, для обсуждения потенциального воздействия роботов и компьютеров и влияния гипотетической возможности того, что они могут стать самодостаточными и способны принимать собственные решения , Они обсудили возможность и степень, в которой компьютеры и роботы могли бы получить любой уровень автономии, и в какой степени они могли бы использовать такие возможности, чтобы потенциально представлять угрозу или опасность. Они отметили, что некоторые машины приобрели различные формы полуавтономности, в том числе возможность самостоятельно находить источники энергии и иметь возможность самостоятельно выбирать цели для нападения с оружием. Они также отметили, что некоторые компьютерные вирусы могут уклониться от ликвидации и достигли «интеллекта тараканов». Они отметили, что самосознание, как показано в научной фантастике, вероятно, маловероятно, но что существуют другие потенциальные опасности и подводные камни.

Тем не менее, есть одна технология, в частности, которая действительно может привести к тому, что роботы с моральной компетентностью станут реальностью. В статье о приобретении моральных ценностей роботами Найеф Аль-Родан упоминает случай нейроморфных чипов, которые направлены на обработку информации аналогично людям, нелинейно и с миллионами взаимосвязанных искусственных нейронов. Роботы, внедренные с нейроморфной технологией, могут изучать и развивать знания по-человечески. Неизбежно возникает вопрос об окружающей среде, в которой такие роботы узнают о мире и чью мораль они наследуют, или если они в конечном итоге также развивают человеческие «слабости»: эгоизм, отношение к выживанию, колебание и т. Д.

В «Моральных машинах»: обучая роботов прямо с неправильной точки зрения, Уэндел Уоллах и Колин Аллен заключают, что попытки научить роботов прямо из-за неправильного поведения, скорее всего, будут способствовать пониманию этики людей, побуждая людей устранять пробелы в современной нормативной теории и обеспечивая платформу для экспериментального исследования. В качестве одного из примеров он ввел нормативных этиков в спорный вопрос, какие конкретные алгоритмы обучения использовать в машинах. Ник Бостром и Элиезер Юдковский выступали за деревья решений (например, ID3) над нейронными сетями и генетическими алгоритмами на том основании, что деревья решений подчиняются современным социальным нормам прозрачности и предсказуемости (например, старинный децизис), а Крис Сантос-Ланг утверждал в противоположном на том основании, что нормы любого возраста должны быть разрешены к изменению и что естественное неспособность полностью удовлетворить эти конкретные нормы имеет важное значение для того, чтобы сделать людей менее уязвимыми для преступных «хакеров».

Непреднамеренные последствия
Многие исследователи утверждали, что в результате «взрыва интеллекта» в 21 веке самосовершенствование ИИ может стать настолько мощнее, чем люди, что мы не сможем остановить его от достижения своих целей. В своей статье «Этические проблемы в искусственном интеллекте» философ Ник Бостром утверждает, что искусственный интеллект способен уничтожить человека. Он утверждает, что общий супер-разведчик будет способен к самостоятельной инициативе и создавать свои собственные планы, и поэтому ее можно более адекватно рассматривать как автономный агент. Поскольку искусственные интеллекты не должны разделять наши человеческие мотивационные тенденции, разработчикам супер-разведки следовало бы указать свои первоначальные мотивы. Теоретически супер-интеллектуальный ИИ мог бы добиться почти любого возможного результата и помешать любой попытке предотвратить реализацию своей главной цели, могут возникнуть многие неконтролируемые непреднамеренные последствия. Он может убить всех других агентов, убедить их изменить свое поведение или заблокировать их попытки вмешательства.

Однако, вместо того, чтобы подавить человечество и привести к нашему разрушению, Бостром также утверждал, что суперразведка может помочь нам решить многие сложные проблемы, такие как болезнь, нищета и разрушение окружающей среды, и может помочь нам «улучшить» себя.

Явная сложность систем ценностей человека делает очень трудным сделать мотивацию ИИ дружественной к человеку. Если моральная философия не дает нам безупречной этической теории, функция полезности ИИ может позволить многим потенциально опасным сценариям, которые соответствуют определенной этической структуре, но не «здравому смыслу». По словам Элиэзера Юдковского, нет оснований полагать, что искусственно разработанный ум имел бы такую ​​адаптацию.

Билл Хиббард предлагает дизайн ИИ, который позволяет избежать нескольких типов непреднамеренного поведения ИИ, включая самообман, непреднамеренные инструментальные действия и коррупцию генератора вознаграждений.

организации
Amazon, Google, Facebook, IBM и Microsoft создали некоммерческое партнерство для разработки передовой практики в области технологий искусственного интеллекта, продвижения понимания общественности и использования в качестве платформы для искусственного интеллекта. Они заявили: «Это партнерство по ИИ будет проводить исследования, организовывать дискуссии, обеспечивать лидерство в мышлении, консультироваться с соответствующими третьими лицами, отвечать на вопросы общественности и средств массовой информации и создавать учебные материалы, которые продвигают понимание технологий ИИ, включая восприятие машины, обучение , и автоматические рассуждения ». Apple присоединилась к другим технологическим компаниям в качестве члена-основателя Партнерства по ИИ в январе 2017 года. Корпоративные члены будут вкладывать финансовые и исследовательские материалы в группу, а также взаимодействуют с научным сообществом, чтобы вовлечь ученых в совет.

В художественной литературе
Фильм «Тринадцатый этаж» предлагает будущее, в котором симулированные миры с живыми обитателями создаются игровыми консолями для развлечения. Фильм «Матрица» предлагает будущее, в котором доминирующим видом на планете Земля являются разумные машины, а человечество обращается с предельным видоизменением. Рассказ «Planck Dive» предполагает будущее, когда человечество превратилось в программное обеспечение, которое можно продублировать и оптимизировать, а соответствующее различие между типами программного обеспечения является разумным и нечувствительным. Та же самая идея может быть найдена в медицинской медицинской голограмме Звездного Вояджера, которая является, по-видимому, разумной копией уменьшенного подмножества сознания его создателя, д-ра Циммермана, который по лучшим мотивам создал систему для предоставления медицинских помощь в случае чрезвычайных ситуаций. В фильмах «Двухсотлетний человек и ИИ» речь идет о возможности разумных роботов, которые могли бы полюбить. Я, Робот, изучил некоторые аспекты трех законов Азимова. Все эти сценарии пытаются предвидеть, возможно, неэтичные последствия создания разумных компьютеров.

Этика искусственного интеллекта является одной из нескольких основных тем в серии игр Mass Effect от BioWare. Он исследует сценарий цивилизации, случайно создающей ИИ, посредством быстрого увеличения вычислительной мощности через нейронную сеть глобального масштаба. Это событие вызвало этический раскол между теми, кто ощущал присущие органические права новому разумному Гефу, и тем, кто продолжал рассматривать их как одноразовые машины и боролся за их уничтожение. Помимо начального конфликта сложность взаимоотношений между машинами и их создателями — еще одна продолжающаяся тема всей истории.

Со временем дебаты, как правило, все меньше и меньше сосредотачивались на возможности и больше на желательности, что подчеркивалось в дебатах «Космист» и «Терран», инициированных Уго Гарисом и Кевином Уориком. Космист, по словам Гюго де Гариса, на самом деле пытается построить более интеллектуальных наследников человеческого рода.

Литература
Стандартная библиография по этике ИИ находится в PhilPapers. Недавняя коллекция — VC Müller (ред.) (2016).