Ética da inteligência artificial

A ética da inteligência artificial é a parte da ética da tecnologia específica para robôs e outros seres artificialmente inteligentes. É tipicamente dividido em roboética, uma preocupação com o comportamento moral dos seres humanos à medida que eles projetam, constroem, usam e tratam seres artificialmente inteligentes, e ética de máquina, que se preocupa com o comportamento moral de agentes morais artificiais (AMAs).

Ética do robô
O termo “robótica ética” (às vezes “roboética”) refere-se à moralidade de como os seres humanos projetam, constroem, usam e tratam robôs e outros seres artificialmente inteligentes. Ele considera tanto como seres artificialmente inteligentes podem ser usados ​​para prejudicar os seres humanos e como eles podem ser usados ​​para beneficiar os seres humanos.

Direitos dos robôs
“Direitos dos robôs” é o conceito de que as pessoas devem ter obrigações morais em relação às suas máquinas, semelhantes aos direitos humanos ou direitos dos animais. Foi sugerido que os direitos dos robôs, como o direito de existir e realizar sua própria missão, poderiam estar ligados ao dever do robô de servir ao ser humano, por analogia com a vinculação dos direitos humanos aos deveres humanos perante a sociedade. Estes poderiam incluir o direito à vida e liberdade, liberdade de pensamento e expressão e igualdade perante a lei. A questão foi considerada pelo Institute for the Future e pelo Departamento de Comércio e Indústria do Reino Unido.

Especialistas discordam se leis específicas e detalhadas serão exigidas em breve ou com segurança no futuro distante. Glenn McGee relata que robôs suficientemente humanóides podem aparecer em 2020. Ray Kurzweil define a data em 2029. Outro grupo de cientistas reunidos em 2007 supôs que pelo menos 50 anos tinham que passar antes que um sistema suficientemente avançado existisse.

As regras para o concurso Loebner Prize 2003 previam a possibilidade de robôs terem seus próprios direitos:

61. Se, em um dado ano, uma Inscrição de fonte aberta publicamente disponível, inscrita pela Universidade de Surrey ou pelo Centro de Cambridge, ganhar a Medalha de Prata ou a Medalha de Ouro, então a Medalha e o Prêmio em Dinheiro serão concedidos ao órgão responsável pela desenvolvimento dessa entrada. Se nenhum desses órgãos puder ser identificado, ou se houver discordância entre dois ou mais demandantes, a Medalha eo Prêmio em Dinheiro serão mantidos em custódia até o momento em que a Inscrição possa legalmente possuir, seja nos Estados Unidos da América ou no país. local do concurso, o prêmio em dinheiro e medalha de ouro em seu próprio direito.

Em outubro de 2017, o andróide Sophia obteve a cidadania na Arábia Saudita, embora alguns observadores considerem que isso é mais um golpe de publicidade do que um reconhecimento legal significativo.

Ameaça à dignidade humana
Joseph Weizenbaum argumentou em 1976 que a tecnologia da IA ​​não deveria ser usada para substituir pessoas em posições que exigem respeito e cuidado, como qualquer uma delas:

Um representante de atendimento ao cliente (a tecnologia AI já é usada atualmente para sistemas interativos de resposta de voz baseados em telefone)
Um terapeuta (como foi proposto por Kenneth Colby nos anos 70)
Uma babá para idosos (como foi relatado por Pamela McCorduck em seu livro The Fifth Generation)
Um soldado
Um juiz
Um policial

Weizenbaum explica que exigimos sentimentos autênticos de empatia de pessoas nessas posições. Se as máquinas as substituirem, nos veremos alienados, desvalorizados e frustrados. A inteligência artificial, se usada dessa maneira, representa uma ameaça à dignidade humana. Weizenbaum argumenta que o fato de estarmos entretendo a possibilidade de máquinas nessas posições sugere que experimentamos uma “atrofia do espírito humano que vem do pensamento de nós mesmos como computadores”.

Pamela McCorduck contesta que, falando por mulheres e minorias “Eu prefiro me arriscar com um computador imparcial”, apontando que há condições em que preferimos ter juízes automatizados e policiais que não têm agenda pessoal. O fundador da AI, John McCarthy, se opõe ao tom moralizador da crítica de Weizenbaum. “Quando a moralização é veemente e vaga, ela convida ao abuso autoritário”, escreve ele.

Bill Hibbard escreve que “a dignidade humana exige que nos esforcemos para remover nossa ignorância da natureza da existência, e a IA é necessária para esse esforço”.

Transparência e código aberto
Bill Hibbard argumenta que, como a IA terá um efeito tão profundo sobre a humanidade, os desenvolvedores de IA são representantes da humanidade futura e, portanto, têm a obrigação ética de serem transparentes em seus esforços. Ben Goertzel e David Hart criaram o OpenCog como uma estrutura de código aberto para o desenvolvimento de IA. A OpenAI é uma empresa de pesquisa de IA, sem fins lucrativos, criada por Elon Musk, Sam Altman e outros para desenvolver uma AI de código aberto benéfica para a humanidade. Existem inúmeros outros desenvolvimentos de IA de código aberto.

Armamento de inteligência artificial
Alguns especialistas e acadêmicos questionaram o uso de robôs para combate militar, especialmente quando esses robôs recebem algum grau de funções autônomas. A Marinha dos EUA financiou um relatório que indica que, à medida que os robôs militares se tornam mais complexos, deve haver maior atenção às implicações de sua capacidade de tomar decisões autônomas. Um pesquisador afirma que os robôs autônomos poderiam ser mais humanos, já que poderiam tomar decisões com mais eficácia.

Nesta última década, tem havido uma pesquisa intensiva em poder autônomo com a capacidade de aprender usando responsabilidades morais atribuídas. “Os resultados podem ser usados ​​ao projetar futuros robôs militares, para controlar tendências indesejadas para atribuir responsabilidade aos robôs.” A partir de uma visão consequencialista, há uma chance de que os robôs desenvolvam a capacidade de tomar suas próprias decisões lógicas sobre quem matar e é por isso que deve haver uma estrutura moral definida que a IA não possa anular.

Houve um recente clamor em relação à engenharia de armas de inteligência artificial que incluiu idéias de uma aquisição de robôs pela humanidade. As armas de IA apresentam um tipo de perigo diferente do das armas controladas por humanos. Muitos governos começaram a financiar programas para desenvolver armas de IA. A Marinha dos Estados Unidos anunciou recentemente planos para desenvolver armas autônomas, paralelamente aos anúncios similares feitos pela Rússia e Coréia, respectivamente. Devido ao potencial das armas de IA tornarem-se mais perigosas do que as armas operadas por humanos, Stephen Hawking e Max Tegmark assinaram uma petição “Future of Life” para proibir armas de IA. A mensagem postada por Hawking e Tegmark afirma que as armas de IA representam um perigo imediato e que é necessária uma ação para evitar desastres catastróficos em um futuro próximo.

“Se qualquer grande potência militar avançar com o desenvolvimento de armas da IA, uma corrida armamentista global é virtualmente inevitável, e o ponto final dessa trajetória tecnológica é óbvio: armas autônomas se tornarão as Kalashnikovs de amanhã”, diz a petição, que inclui a Skype. o fundador Jaan Tallinn e o professor de linguística Noam Chomsky, do MIT, como apoiantes adicionais contra as armas da IA.

O físico e astrônomo real Sir Martin Rees alertou sobre casos catastróficos como “robôs idiotas desgarrados ou uma rede que desenvolve uma mente própria”. Huw Price, um colega de Rees em Cambridge, expressou um aviso semelhante de que os humanos podem não sobreviver quando a inteligência “escapa às restrições da biologia”. Esses dois professores criaram o Centro para o Estudo do Risco Existencial na Universidade de Cambridge, na esperança de evitar essa ameaça à existência humana.

Quanto ao potencial de sistemas militares mais inteligentes do que humanos, o Open Philanthropy Project escreve que esses cenários “parecem potencialmente tão importantes quanto os riscos relacionados à perda de controle”, mas que as organizações de pesquisa que investigam o impacto social de longo prazo da IA gastou relativamente pouco tempo com essa preocupação: “essa classe de cenários não tem sido um foco importante para as organizações mais ativas neste espaço, como o Instituto de Pesquisa em Inteligência de Máquinas (MIRI) e o Instituto do Futuro da Humanidade (FHI) , e parece ter havido menos análise e debate sobre eles “.

Ética da máquina
A ética da máquina (ou moralidade da máquina) é o campo de pesquisa relacionado ao design de agentes morais artificiais (AMAs), robôs ou computadores artificialmente inteligentes que se comportam moralmente ou como se fossem morais.

Isaac Asimov considerou a questão na década de 1950 em seu I, Robot. Por insistência de seu editor John W. Campbell Jr., ele propôs as Três Leis da Robótica para governar sistemas artificialmente inteligentes. Muito do seu trabalho foi então gasto testando os limites de suas três leis para ver onde elas iriam quebrar, ou onde elas criariam um comportamento paradoxal ou imprevisto. Seu trabalho sugere que nenhum conjunto de leis fixas pode antecipar suficientemente todas as circunstâncias possíveis.

Em 2009, durante um experimento no Laboratório de Sistemas Inteligentes da École Polytechnique Fédérale de Lausanne, na Suíça, robôs que foram programados para cooperar uns com os outros (na busca de um recurso benéfico e evitando um veneno) aprenderam a mentir para cada um deles. outro, na tentativa de acumular o recurso benéfico. Um problema neste caso pode ter sido que os objetivos eram “terminais” (isto é, ao contrário, os motivos humanos últimos tipicamente têm uma qualidade de exigir aprendizado sem fim).

Alguns especialistas e acadêmicos questionaram o uso de robôs para combate militar, especialmente quando esses robôs recebem algum grau de funções autônomas. A Marinha dos EUA financiou um relatório que indica que, à medida que os robôs militares se tornam mais complexos, deve haver maior atenção às implicações de sua capacidade de tomar decisões autônomas. O Presidente da Associação para o Avanço da Inteligência Artificial encomendou um estudo para analisar esta questão. Eles apontam para programas como o Dispositivo de Aquisição de Idiomas, que pode emular a interação humana.

Vernor Vinge sugeriu que pode chegar um momento em que alguns computadores são mais inteligentes que os humanos. Ele chama isso de “singularidade”. Ele sugere que pode ser um pouco ou possivelmente muito perigoso para os seres humanos. Isso é discutido por uma filosofia chamada Singularitarianism. O Instituto de Pesquisas em Inteligência em Máquinas sugeriu a necessidade de construir uma “IA Amigável”, o que significa que os avanços que já estão ocorrendo com a IA também devem incluir um esforço para tornar a IA intrinsecamente amigável e humana.

Em 2009, acadêmicos e especialistas técnicos participaram de uma conferência organizada pela Associação para o Avanço da Inteligência Artificial para discutir o impacto potencial de robôs e computadores e o impacto da hipotética possibilidade de que eles pudessem se tornar auto-suficientes e capazes de tomar suas próprias decisões. . Eles discutiram a possibilidade e a extensão em que computadores e robôs poderiam adquirir qualquer nível de autonomia, e até que ponto eles poderiam usar tais habilidades para possivelmente representar qualquer ameaça ou perigo. Eles observaram que algumas máquinas adquiriram várias formas de semi-autonomia, incluindo a possibilidade de encontrar fontes de energia por conta própria e serem capazes de escolher independentemente alvos para atacar com armas. Eles também notaram que alguns vírus de computador podem evitar a eliminação e conseguiram a “inteligência barata”. Eles notaram que a autoconsciência, como descrita na ficção científica, é provavelmente improvável, mas que havia outros riscos e armadilhas potenciais.

No entanto, existe uma tecnologia em particular que poderia realmente trazer a possibilidade de robôs com competência moral para a realidade. Em um artigo sobre a aquisição de valores morais por robôs, Nayef Al-Rodhan menciona o caso dos chips neuromórficos, que visam processar informações de forma similar aos humanos, de forma não-linear e com milhões de neurônios artificiais interconectados. Os robôs incorporados à tecnologia neuromórfica poderiam aprender e desenvolver o conhecimento de uma maneira exclusivamente humana. Inevitavelmente, isso levanta a questão do ambiente em que tais robôs aprenderiam sobre o mundo e cuja moralidade eles herdariam – ou se acabariam desenvolvendo “fraquezas” humanas também: egoísmo, uma atitude pró-sobrevivência, hesitação etc.

Em Moral Machines: Teaching Robots Right from Wrong, Wendell Wallach e Colin Allen concluem que as tentativas de ensinar robôs errados provavelmente irão promover a compreensão da ética humana, motivando os humanos a abordar lacunas na moderna teoria normativa e fornecendo uma plataforma para investigação experimental. Como um exemplo, introduziu os eticistas normativos na questão controversa de quais algoritmos de aprendizagem específicos usar em máquinas. Nick Bostrom e Eliezer Yudkowsky defenderam árvores de decisão (como ID3) sobre redes neurais e algoritmos genéticos, alegando que as árvores de decisão obedecem às normas sociais modernas de transparência e previsibilidade (por exemplo, stare decisis), enquanto Chris Santos-Lang argumenta no contrário direção, sob a alegação de que as normas de qualquer idade devem poder mudar e que a falha natural em satisfazer plenamente essas normas específicas tem sido essencial para tornar os humanos menos vulneráveis ​​a “hackers” criminosos.

Consequências não-intencionais
Muitos pesquisadores argumentaram que, por meio de uma “explosão de inteligência” em algum momento do século 21, uma IA auto-aperfeiçoadora poderia se tornar tão mais poderosa que os humanos que não conseguiríamos impedi-la de atingir seus objetivos. Em seu artigo “Questões Éticas na Inteligência Artificial Avançada”, o filósofo Nick Bostrom argumenta que a inteligência artificial tem a capacidade de provocar a extinção humana. Ele afirma que a superinteligência geral seria capaz de iniciativa independente e de fazer seus próprios planos, e pode, portanto, ser mais apropriadamente imaginada como um agente autônomo. Como os intelectos artificiais não precisam compartilhar nossas tendências motivacionais humanas, caberia aos projetistas da superinteligência especificar suas motivações originais. Em teoria, uma IA superinteligente seria capaz de produzir praticamente qualquer resultado possível e impedir qualquer tentativa de impedir a implementação do seu objetivo principal, podendo surgir muitas consequências não intencionais não controladas. Pode matar todos os outros agentes, persuadi-los a mudar seu comportamento ou bloquear suas tentativas de interferência.

No entanto, em vez de sobrecarregar a raça humana e levar à nossa destruição, Bostrom também afirmou que a superinteligência pode nos ajudar a resolver muitos problemas difíceis, como doenças, pobreza e destruição ambiental, e pode nos ajudar a “melhorar” a nós mesmos.

A enorme complexidade dos sistemas de valores humanos torna muito difícil tornar as motivações da IA ​​human-friendly. A menos que a filosofia moral nos forneça uma teoria ética impecável, a função de utilidade de uma IA poderia permitir muitos cenários potencialmente prejudiciais que se conformam a um determinado quadro ético, mas não ao “senso comum”. De acordo com Eliezer Yudkowsky, há poucas razões para supor que uma mente artificialmente projetada teria essa adaptação.

Bill Hibbard propõe um projeto de IA que evita vários tipos de comportamento não intencional de IA, incluindo auto-ilusão, ações instrumentais não intencionais e corrupção do gerador de recompensas.

Organizações
Amazon, Google, Facebook, IBM e Microsoft estabeleceram uma parceria sem fins lucrativos para formular as melhores práticas em tecnologias de inteligência artificial, promover o entendimento do público e servir como uma plataforma sobre inteligência artificial. Eles afirmaram: “Esta parceria em IA conduzirá pesquisa, organizará discussões, fornecerá liderança de pensamento, consultará terceiros relevantes, responderá a perguntas do público e mídia, e criará material educacional que avança a compreensão de tecnologias de IA incluindo percepção de máquina, aprendendo e raciocínio automatizado “. A Apple se juntou a outras empresas de tecnologia como membro fundador da Partnership on AI em janeiro de 2017. Os membros corporativos farão contribuições financeiras e de pesquisa para o grupo, enquanto se envolvem com a comunidade científica para trazer os acadêmicos para o conselho.

Em ficção
O filme The Thirenthenth Floor sugere um futuro onde mundos simulados com habitantes sencientes são criados por consoles de jogos de computador com o propósito de entretenimento. O filme The Matrix sugere um futuro onde as espécies dominantes no planeta Terra são máquinas sencientes e a humanidade é tratada com o máximo especiesismo. O conto “The Planck Dive” sugere um futuro em que a humanidade se transformou em software que pode ser duplicado e otimizado e a distinção relevante entre tipos de software é senciente e não-senciente. A mesma idéia pode ser encontrada no Holograma Médico de Emergência de Starship Voyager, que é uma cópia aparentemente consciente de um subconjunto reduzido da consciência de seu criador, Dr. Zimmerman, que, pelos melhores motivos, criou o sistema para dar assistência médica. assistência em caso de emergência. Os filmes Homem Bicentenário e IA lidam com a possibilidade de robôs sencientes que possam amar. Eu, Robot, explorei alguns aspectos das três leis de Asimov. Todos esses cenários tentam prever consequências possivelmente antiéticas da criação de computadores sencientes.

A ética da inteligência artificial é um dos vários temas centrais da série de jogos Mass Effect da BioWare. Ele explora o cenário de uma civilização criando acidentalmente AI através de um rápido aumento no poder computacional através de uma rede neural em escala global. Este evento causou um cisma ético entre aqueles que sentiram conceder direitos orgânicos sobre o recém-sensível Geth foi apropriado e aqueles que continuaram a vê-los como máquinas descartáveis ​​e lutaram para destruí-los. Além do conflito inicial, a complexidade da relação entre as máquinas e seus criadores é outro tema contínuo em toda a história.

Com o passar do tempo, os debates tendem a se concentrar cada vez menos na possibilidade e mais na conveniência, como enfatizado nos debates “Cosmistas” e “Terranos” iniciados por Hugo de Garis e Kevin Warwick. Um cosmista, de acordo com Hugo de Garis, está na verdade procurando construir sucessores mais inteligentes para a espécie humana.

Literatura
A bibliografia padrão sobre ética da IA ​​está no PhilPapers. Uma coleção recente é VC Müller (ed.) (2016).