Filosofia da inteligência artificial

A inteligência artificial tem conexões estreitas com a filosofia, porque ambas compartilham vários conceitos e incluem inteligência, ação, consciência, epistemologia e até mesmo livre arbítrio. Além disso, a tecnologia está preocupada com a criação de animais artificiais ou pessoas artificiais (ou, pelo menos, criaturas artificiais), de modo que a disciplina é de considerável interesse para os filósofos. Esses fatores contribuíram para o surgimento da filosofia da inteligência artificial. Alguns estudiosos argumentam que a rejeição da filosofia pela comunidade de IA é prejudicial.

A filosofia da inteligência artificial tenta responder a essas questões da seguinte maneira:

Uma máquina pode agir de forma inteligente? Pode resolver qualquer problema que uma pessoa resolveria pensando?
A inteligência humana e a inteligência das máquinas são as mesmas? O cérebro humano é essencialmente um computador?
Uma máquina pode ter mente, estados mentais e consciência da mesma forma que um ser humano pode? Pode sentir como as coisas são?

Essas três questões refletem os interesses divergentes dos pesquisadores de IA, linguistas, cientistas cognitivos e filósofos, respectivamente. As respostas científicas a essas questões dependem da definição de “inteligência” e “consciência” e exatamente quais “máquinas” estão sendo discutidas.

Proposições importantes na filosofia da IA ​​incluem:

A “convenção polida” de Turing: Se uma máquina se comporta de maneira tão inteligente quanto um ser humano, ela é tão inteligente quanto um ser humano.
A proposta de Dartmouth: “Cada aspecto do aprendizado ou qualquer outra característica da inteligência pode ser descrito de maneira tão precisa que uma máquina pode ser feita para simulá-lo.”
Hipótese do sistema de símbolos físicos de Newell e Simon: “Um sistema de símbolos físicos tem os meios necessários e suficientes de ação inteligente geral”.
A forte hipótese de AI de Searle: “O computador apropriadamente programado com as entradas e saídas corretas teria, desse modo, uma mente exatamente no mesmo sentido em que os seres humanos têm mentes.”
Mecanismo de Hobbes: “Por ‘razão’ … nada mais é que ‘calcular’, que é somar e subtrair, as conseqüências dos nomes gerais acordados para a ‘marcação’ e ‘significância’ de nossos pensamentos …”

Uma máquina pode exibir inteligência geral?
É possível criar uma máquina que possa resolver todos os problemas que os humanos resolvem usando sua inteligência? Essa questão define o escopo de quais máquinas serão capazes de fazer no futuro e orienta a direção da pesquisa de IA. Diz respeito apenas ao comportamento das máquinas e ignora as questões de interesse dos psicólogos, cientistas cognitivos e filósofos; Para responder a essa questão, não importa se uma máquina está realmente pensando (como uma pessoa pensa) ou se está apenas agindo como se estivesse pensando.

A posição básica da maioria dos pesquisadores de IA é resumida nesta declaração, que apareceu na proposta para o workshop de Dartmouth de 1956:

Todos os aspectos da aprendizagem ou qualquer outra característica da inteligência podem ser descritos com tanta precisão que uma máquina pode ser criada para simulá-la.
Argumentos contra a premissa básica devem mostrar que a construção de um sistema operacional de IA é impossível, porque há algum limite prático para as habilidades dos computadores ou que há alguma qualidade especial da mente humana que é necessária para pensar e não pode ser duplicada por um máquina (ou pelos métodos da pesquisa atual da IA). Argumentos a favor da premissa básica devem mostrar que tal sistema é possível.

O primeiro passo para responder à pergunta é definir claramente a “inteligência”.

Inteligência

Teste de Turing
Alan Turing reduziu o problema de definir inteligência para uma simples questão sobre conversação. Ele sugere que: se uma máquina pode responder a qualquer pergunta, usando as mesmas palavras que uma pessoa comum, então podemos chamar essa máquina de inteligente. Uma versão moderna do seu design experimental usaria uma sala de chat online, onde um dos participantes é uma pessoa real e um dos participantes é um programa de computador. O programa passa no teste se ninguém souber qual dos dois participantes é humano. Turing observa que ninguém (exceto filósofos) faz a pergunta “as pessoas podem pensar?” Ele escreve “em vez de discutir continuamente sobre este ponto, é comum ter uma convenção educada que todos pensem”. O teste de Turing estende essa convenção educada para as máquinas:

Se uma máquina age de forma tão inteligente quanto o ser humano, ela é tão inteligente quanto um ser humano.
Uma crítica do teste de Turing é que ele é explicitamente antropomórfico. Se nosso objetivo final é criar máquinas que sejam mais inteligentes que as pessoas, por que devemos insistir que nossas máquinas devem se assemelhar a pessoas? [Esta citação precisa de uma citação] Russell e Norvig escrevem que “textos de engenharia aeronáutica não definem o objetivo de suas campo como ‘fazer máquinas que voam tão exatamente como pombos que eles podem enganar outros pombos’ “.

Definição inteligente de agente

Pesquisas recentes em IA definem inteligência em termos de agentes inteligentes. Um “agente” é algo que percebe e age em um ambiente. Uma “medida de desempenho” define o que conta como sucesso para o agente.

Se um agente atua de modo a maximizar o valor esperado de uma medida de desempenho com base na experiência e conhecimento do passado, ele é inteligente.
Definições como essa tentam capturar a essência da inteligência. Eles têm a vantagem de que, ao contrário do teste de Turing, eles também não testam traços humanos que nós [que?] Não queremos considerar inteligentes, como a capacidade de ser insultado ou a tentação de mentir [discutir duvidoso]. Eles têm a desvantagem de não conseguirem fazer o senso comum [quando definido como] diferenciação entre “coisas que pensam” e “coisas que não”. Por essa definição, até mesmo um termostato tem uma inteligência rudimentar.

Argumentos que uma máquina pode exibir inteligência geral

O cérebro pode ser simulado
Hubert Dreyfus descreve este argumento como afirmando que “se o sistema nervoso obedece às leis da física e da química, as quais temos todos os motivos para supor, então … nós devemos ser capazes de reproduzir o comportamento do sistema nervoso com algum dispositivo físico “. Este argumento, introduzido inicialmente em 1943 e vividamente descrito por Hans Moravec em 1988, é agora associado ao futurista Ray Kurzweil, que estima que o poder do computador será suficiente para uma simulação cerebral completa até 2029. Um tempo não real. simulação de um modelo talamocortical que tem o tamanho do cérebro humano (1011 neurônios) foi realizada em 2005 e demorou 50 dias para simular 1 segundo da dinâmica do cérebro em um cluster de 27 processadores.

Poucos [quantificam] discordam que uma simulação cerebral é possível em teoria, [segundo quem?] Até mesmo críticos de IA como Hubert Dreyfus e John Searle. No entanto, Searle ressalta que, em princípio, qualquer coisa pode ser simulada por um computador; assim, levar a definição ao ponto de ruptura leva à conclusão de que qualquer processo pode tecnicamente ser considerado “computação”. “O que queríamos saber é o que distingue a mente dos termostatos e dos fígados”, escreve ele. Assim, meramente imitar o funcionamento de um cérebro seria, por si só, uma admissão de ignorância em relação à inteligência e à natureza da mente.

O pensamento humano é o processamento de símbolos
Em 1963, Allen Newell e Herbert A. Simon propuseram que a “manipulação de símbolos” era a essência da inteligência humana e da máquina. Eles escreveram:

Um sistema de símbolos físicos possui os meios necessários e suficientes de ação inteligente geral.
Esta afirmação é muito forte: implica tanto que o pensamento humano é um tipo de manipulação de símbolos (porque um sistema de símbolos é necessário para a inteligência) e que as máquinas podem ser inteligentes (porque um sistema de símbolos é suficiente para a inteligência). Outra versão dessa posição foi descrita pelo filósofo Hubert Dreyfus, que a chamou de “suposição psicológica”:

A mente pode ser vista como um dispositivo operando em bits de informação de acordo com regras formais.
Geralmente é feita uma distinção [por quem?] Entre o tipo de símbolos de alto nível que correspondem diretamente a objetos no mundo, como e e os “símbolos” mais complexos que estão presentes em uma máquina como um rede neural. As primeiras pesquisas sobre IA, chamadas de “boa e antiquada inteligência artificial” (GOFAI) por John Haugeland, enfocaram esses tipos de símbolos de alto nível.

Argumentos contra o processamento de símbolos
Estes argumentos mostram que o pensamento humano não consiste (unicamente) na manipulação de símbolos de alto nível. Eles não mostram que a inteligência artificial é impossível, apenas que é necessário mais do que o processamento de símbolos.

Argumentos anti-mecanicistas gödelianos
Em 1931, Kurt Gödel provou, com um teorema da incompletude, que é sempre possível construir uma “declaração de Gödel” que um dado sistema formal consistente de lógica (como um programa de manipulação de símbolos de alto nível) não poderia provar. Apesar de ser uma afirmação verdadeira, a declaração construída de Gödel é improvável no sistema dado. (A verdade da declaração de Gödel construída depende da consistência do sistema dado; aplicar o mesmo processo a um sistema sutilmente inconsistente parecerá bem sucedido, mas na verdade produzirá uma falsa “declaração de Gödel”). Mais especulativamente, Gödel conjeturou. que a mente humana pode determinar corretamente a verdade ou falsidade de qualquer afirmação matemática bem fundamentada (incluindo qualquer possível declaração de Gödel), e que, portanto, o poder da mente humana não é redutível a um mecanismo. O filósofo John Lucas (desde 1961) e Roger Penrose (desde 1989) defenderam este argumento filosófico anti-mecanicista. Os argumentos anti-mecanicistas gödelianos tendem a confiar na alegação aparentemente inócua de que um sistema de matemáticos humanos (ou alguma idealização de matemáticos humanos) é consistente (completamente livre de erros) e acredita plenamente em sua própria consistência (e pode fazer todo inferências que derivam de sua própria consistência, incluindo a crença em sua declaração de Gödel). Isso é provavel- mente impossível para uma máquina de Turing [precisa de clarificação] (e, por uma extensão informal, qualquer tipo conhecido de computador mecânico) fazer; portanto, o Gödelian conclui que o raciocínio humano é poderoso demais para ser capturado em uma máquina [duvidosa – discutir].

No entanto, o consenso moderno na comunidade científica e matemática é que o raciocínio humano atual é inconsistente; que qualquer “versão idealizada” consistente H do raciocínio humano seria logicamente forçada a adotar um ceticismo de mente aberta, saudável, mas contraintuitivo, quanto à consistência de H (caso contrário, H é comprovadamente inconsistente); e que os teoremas de Gödel não levam a nenhum argumento válido de que os humanos tenham capacidade de raciocínio matemático além do que uma máquina poderia duplicar. Esse consenso de que os argumentos anti-mecanicistas gödelianos estão condenados ao fracasso está fortemente exposto na Inteligência Artificial: “qualquer tentativa de utilizar (resultados de incompletude de Gödel) para atacar a tese computacionalista está fadada a ser ilegítima, uma vez que esses resultados são bastante consistentes com o computacionalista”. tese.”

Mais pragmaticamente, Russell e Norvig observam que o argumento de Gödel só se aplica ao que pode teoricamente ser provado, dada uma quantidade infinita de memória e tempo. Na prática, máquinas reais (incluindo seres humanos) têm recursos finitos e terão dificuldade em provar muitos teoremas. Não é necessário provar tudo para ser inteligente [quando definido como?].

Menos formalmente, Douglas Hofstadter, em seu premiado livro Pulitzer Gödel, Escher, Bach: Uma Trança Eterna de Ouro, afirma que essas “afirmações de Gödel” sempre se referem ao próprio sistema, fazendo uma analogia à maneira como o paradoxo de Epimênides usa declarações referem-se a si mesmos, como “esta declaração é falsa” ou “estou mentindo”. Mas, é claro, o paradoxo de Epimênides se aplica a qualquer coisa que faça afirmações, sejam elas máquinas ou humanos, até o próprio Lucas. Considerar:

Lucas não pode afirmar a verdade dessa afirmação.
Essa afirmação é verdadeira, mas não pode ser afirmada por Lucas. Isso mostra que o próprio Lucas está sujeito aos mesmos limites que ele descreve para as máquinas, como todas as pessoas, e, portanto, o argumento de Lucas é inútil.

Depois de concluir que o raciocínio humano não é computável, Penrose prosseguiu especulando de forma controversa que algum tipo de hipotético processo não-computável envolvendo o colapso dos estados quânticos dá aos humanos uma vantagem especial sobre os computadores existentes. Computadores quânticos existentes são capazes apenas de reduzir a complexidade das tarefas computáveis ​​de Turing e ainda estão restritos a tarefas dentro do escopo das máquinas de Turing. Pelos argumentos de Penrose e Lucas, os computadores quânticos existentes não são suficientes [esclarecimentos necessários] [por quê?], Então Penrose busca algum outro processo envolvendo nova física, por exemplo a gravidade quântica que possa manifestar nova física na escala da massa de Planck via espontânea. colapso quântico da função de onda. Esses estados, ele sugeriu, ocorrem tanto dentro dos neurônios quanto abrangendo mais de um neurônio. No entanto, outros cientistas apontam que não há mecanismo orgânico plausível no cérebro para aproveitar qualquer tipo de computação quântica e, além disso, que a escala de tempo da decoerência quântica parece muito rápida para influenciar a ativação dos neurônios.

Dreyfus: a primazia das habilidades inconscientes
Hubert Dreyfus argumentou que a inteligência e a perícia humana dependiam principalmente dos instintos inconscientes, em vez da manipulação simbólica consciente, e argumentavam que essas habilidades inconscientes nunca seriam capturadas em regras formais.

O argumento de Dreyfus havia sido antecipado por Turing em seu artigo de 1950, Computing Machines and Intelligence, onde ele classificava isso como o “argumento da informalidade do comportamento”. Turing argumentou em resposta que, só porque não conhecemos as regras que governam um comportamento complexo, isso não significa que não existam tais regras. Ele escreveu: “não podemos nos convencer tão facilmente da ausência de leis completas de comportamento … A única maneira que conhecemos para encontrar tais leis é a observação científica, e nós certamente não sabemos de nenhuma circunstância sob a qual poderíamos dizer: ‘Nós pesquisaram o suficiente. Não existem tais leis. ‘”

Russell e Norvig apontam que, nos anos desde que Dreyfus publicou sua crítica, houve progresso em descobrir as “regras” que governam o raciocínio inconsciente. O movimento situado na pesquisa robótica tenta capturar nossas habilidades inconscientes na percepção e na atenção. Os paradigmas da inteligência computacional, como as redes neurais, os algoritmos evolutivos e assim por diante, são direcionados principalmente para o raciocínio e a aprendizagem inconscientes simulados. Abordagens estatísticas para IA podem fazer previsões que se aproximam da precisão de palpites intuitivos humanos. A pesquisa sobre o conhecimento do senso comum concentrou-se em reproduzir o “background” ou o contexto do conhecimento. De fato, a pesquisa da IA ​​em geral se distanciou da manipulação de símbolos de alto nível ou “GOFAI”, em direção a novos modelos que visam capturar mais do nosso raciocínio inconsciente [de acordo com quem?]. O historiador e pesquisador de IA Daniel Crevier escreveu que “o tempo provou a exatidão e a percepção de alguns dos comentários de Dreyfus. Se ele os tivesse formulado de forma menos agressiva, as ações construtivas que eles sugeriram poderiam ter sido tomadas muito antes”.

Uma máquina pode ter mente, consciência e estados mentais?
Esta é uma questão filosófica, relacionada ao problema de outras mentes e ao difícil problema da consciência. A questão gira em torno de uma posição definida por John Searle como “IA forte”:

Um sistema de símbolo físico pode ter uma mente e estados mentais.
Searle distinguiu essa posição do que ele chamou de “IA fraca”:

Um sistema de símbolo físico pode agir de maneira inteligente.
Searle introduziu os termos para isolar a IA forte da IA ​​fraca, para que ele pudesse se concentrar no que ele achava ser a questão mais interessante e discutível. Ele argumentou que, mesmo se assumirmos que tínhamos um programa de computador que agia exatamente como uma mente humana, ainda haveria uma questão filosófica difícil que precisava ser respondida.

Nenhuma das duas posições da Searle é de grande interesse para a pesquisa da IA, uma vez que elas não respondem diretamente à questão “pode ​​uma máquina exibir inteligência geral?” (a menos que também possa ser mostrado que a consciência é necessária para a inteligência). Turing escreveu: “Não quero dar a impressão de que não há mistério sobre a consciência … mas não creio que esses mistérios precisem necessariamente ser resolvidos antes que possamos responder à questão [de saber se as máquinas podem pensar]”. Russell e Norvig concordam: “A maioria dos pesquisadores de IA aceita a fraca hipótese da IA ​​e não se importa com a forte hipótese da IA”.

Existem alguns pesquisadores que acreditam que a consciência é um elemento essencial da inteligência, como Igor Aleksander, Stan Franklin, Ron Sun e Pentti Haikonen, embora sua definição de “consciência” se aproxime muito da “inteligência”. (Veja consciência artificial.)

Antes de podermos responder a essa pergunta, devemos ter claro o que entendemos por “mentes”, “estados mentais” e “consciência”.

Consciência, mentes, estados mentais, significando
As palavras “mente” e “consciência” são usadas por diferentes comunidades de diferentes maneiras. Alguns pensadores da nova era, por exemplo, usam a palavra “consciência” para descrever algo semelhante ao “élan vital” de Bergson: um fluido energético invisível que permeia a vida e especialmente a mente. Os escritores de ficção científica usam a palavra para descrever alguma propriedade essencial que nos torna humanos: uma máquina ou alienígena que é “consciente” será apresentado como um personagem totalmente humano, com inteligência, desejos, vontade, discernimento, orgulho e assim por diante. (Os escritores de ficção científica também usam as palavras “senciência”, “sapiência”, “autoconsciência” ou “fantasma” – como na série de mangás e animes Ghost in the Shell – para descrever essa propriedade humana essencial). Para outros [quem?], As palavras “mente” ou “consciência” são usadas como uma espécie de sinônimo secular para a alma.

Para filósofos, neurocientistas e cientistas cognitivos, as palavras são usadas de uma maneira mais precisa e mais mundana: elas se referem à experiência familiar e cotidiana de ter um “pensamento em sua cabeça”, como uma percepção, um sonho, um intenção ou um plano, e à maneira como sabemos algo, ou queremos dizer algo ou entender alguma coisa. “Não é difícil dar uma definição sensata de consciência”, observa o filósofo John Searle. O que é misterioso e fascinante não é tanto o que é, mas como é: como um pedaço de gordura e eletricidade dá origem a essa experiência (familiar) de percepção, significado ou pensamento?

Os filósofos chamam isso de problema difícil da consciência. É a versão mais recente de um problema clássico da filosofia da mente chamado “problema mente-corpo”. Um problema relacionado é o problema de significado ou compreensão (que os filósofos chamam de “intencionalidade”): qual é a conexão entre nossos pensamentos e o que estamos pensando (isto é, objetos e situações fora do mundo)? Uma terceira questão é o problema da experiência (ou “fenomenologia”): se duas pessoas vêem a mesma coisa, elas têm a mesma experiência? Ou existem coisas “dentro da cabeça” (chamadas “qualia”) que podem ser diferentes de pessoa para pessoa?

Sala chinesa de Searle
John Searle nos pede para considerar um experimento mental: suponhamos que tenhamos escrito um programa de computador que passe no teste de Turing e demonstre “ação inteligente geral”. Suponha, especificamente, que o programa possa conversar em chinês fluente. Escreva o programa em cartões 3×5 e dê-os a uma pessoa comum que não fala chinês. Tranque a pessoa em um quarto e peça a ele que siga as instruções nos cartões. Ele copia caracteres chineses e os coloca dentro e fora da sala através de um slot. Do lado de fora, parece que a sala chinesa contém uma pessoa totalmente inteligente que fala chinês. A questão é esta: há alguém (ou alguma coisa) na sala que entenda chinês? Ou seja, há algo que tenha o estado mental de compreensão ou que tenha consciência do que está sendo discutido em chinês? O homem claramente não está ciente. O quarto não pode estar ciente. As cartas certamente não estão cientes. Searle conclui que a sala chinesa, ou qualquer outro sistema de símbolos físicos, não pode ter uma mente.

Searle prossegue argumentando que os estados mentais e a consciência reais requerem (ainda que descritos) “propriedades físico-químicas reais dos cérebros humanos reais”. Ele argumenta que existem “propriedades causais” especiais de cérebros e neurônios que dão origem às mentes: em suas palavras “cérebros causam mentes”.

Gottfried Leibniz fez essencialmente o mesmo argumento que Searle em 1714, usando o experimento mental de expandir o cérebro até que fosse do tamanho de um moinho. Em 1974, Lawrence Davis imaginou a duplicação do cérebro usando linhas telefônicas e escritórios com pessoal, e em 1978 Ned Block imaginou toda a população da China envolvida em tal simulação cerebral. Este experimento mental é chamado de “nação chinesa” ou “academia chinesa”. Ned Block também propôs seu argumento Blockhead, que é uma versão da sala chinesa na qual o programa foi reformulado em um simples conjunto de regras da forma “veja isto, faça aquilo”, removendo todo o mistério do programa.

Respostas para o quarto chinês
As respostas à sala chinesa enfatizam vários pontos diferentes.

Os sistemas respondem e a resposta da mente virtual: Esta resposta argumenta que o sistema, incluindo o homem, o programa, a sala e os cartões, é o que entende chinês. Searle afirma que o homem na sala é a única coisa que poderia “ter uma mente” ou “entender”, mas outros discordam, argumentando que é possível haver duas mentes no mesmo lugar físico, semelhante ao caminho um computador pode simultaneamente “ser” duas máquinas ao mesmo tempo: uma física (como um Macintosh) e uma “virtual” (como um processador de texto).
Respostas de velocidade, poder e complexidade: Vários críticos apontam que o homem na sala provavelmente levaria milhões de anos para responder a uma pergunta simples, e exigiria “armários” de proporções astronômicas. Isso traz a clareza da intuição de Searle em dúvida.
Resposta do robô: Para realmente entender, alguns acreditam que o Salão Chinês precisa de olhos e mãos. Hans Moravec escreve: “Se pudéssemos enxertar um robô em um programa de raciocínio, não precisaríamos mais de uma pessoa para fornecer o significado: ela viria do mundo físico”.
Resposta do simulador cerebral: E se o programa simular a sequência de disparos nervosos nas sinapses de um cérebro real de um verdadeiro falante chinês? O homem na sala estaria simulando um cérebro real. Esta é uma variação da “resposta de sistemas” que parece mais plausível porque “o sistema” agora opera claramente como um cérebro humano, o que fortalece a intuição de que há algo além do homem na sala que poderia entender o chinês.
Outras mentes respondem e os epifenômenos respondem: Várias pessoas notaram que o argumento de Searle é apenas uma versão do problema de outras mentes, aplicado a máquinas. Como é difícil decidir se as pessoas estão “realmente” pensando, não devemos nos surpreender que seja difícil responder à mesma pergunta sobre máquinas.

Está pensando em um tipo de computação?
A teoria computacional da mente ou “computacionalismo” afirma que a relação entre mente e cérebro é semelhante (se não idêntica) à relação entre um programa em execução e um computador. A ideia tem raízes filosóficas em Hobbes (que afirmava que o raciocínio era “nada mais que um cálculo”), Leibniz (que tentou criar um cálculo lógico de todas as idéias humanas), Hume (que achava que a percepção poderia ser reduzida a “impressões atômicas”) mesmo Kant (que analisou toda a experiência como controlada por regras formais). A última versão está associada aos filósofos Hilary Putnam e Jerry Fodor.

Essa questão se baseia em nossas perguntas anteriores: se o cérebro humano é um tipo de computador, então os computadores podem ser inteligentes e conscientes, respondendo tanto às questões práticas quanto filosóficas da inteligência artificial. Em termos da questão prática da IA ​​(“Uma máquina pode exibir inteligência geral?”), Algumas versões do computacionalismo alegam que (como escreveu Hobbes):

Raciocínio não é nada, mas o cálculo
Em outras palavras, nossa inteligência deriva de uma forma de cálculo, semelhante à aritmética. Esta é a hipótese do sistema de símbolos físicos discutida acima, e implica que a inteligência artificial é possível. Em termos da questão filosófica da IA ​​(“Uma máquina pode ter mente, estados mentais e consciência?”), A maioria das versões do computacionalismo afirma que (como Stevan Harnad a caracteriza):

Estados mentais são apenas implementações de programas de computador (à direita)
Esta é a “IA forte” de John Searle discutida acima, e é o verdadeiro alvo do argumento da sala chinesa (de acordo com Harnad).

Outras questões relacionadas
Alan Turing observou que há muitos argumentos da forma “uma máquina nunca fará X”, onde X pode ser muitas coisas, como:

Seja gentil, engenhoso, bonito, amigável, tenha iniciativa, tenha senso de humor, diga o certo do errado, cometa erros, se apaixone, desfrute de morangos e creme, faça alguém se apaixonar por ele, aprenda com a experiência, use palavras corretamente , seja o sujeito de seu próprio pensamento, tenha tanta diversidade de comportamento quanto um homem, faça algo realmente novo.

Uma máquina pode ter emoções?
Se as “emoções” são definidas apenas em termos de seu efeito no comportamento ou em como elas funcionam dentro de um organismo, então as emoções podem ser vistas como um mecanismo que um agente inteligente usa para maximizar a utilidade de suas ações. Dada essa definição de emoção, Hans Moravec acredita que “os robôs em geral serão bastante emocionais em ser pessoas legais”. O medo é uma fonte de urgência. A empatia é um componente necessário da boa interação com o computador humano. Ele diz que os robôs “tentarão agradá-lo de uma maneira aparentemente desinteressada, porque ele vai se emocionar com esse reforço positivo. Você pode interpretar isso como um tipo de amor”. Daniel Crevier escreve que “o argumento de Moravec é que as emoções são apenas dispositivos para canalizar o comportamento em uma direção benéfica para a sobrevivência da própria espécie”.

No entanto, as emoções também podem ser definidas em termos de sua qualidade subjetiva, do que se sente ao ter uma emoção. A questão de se a máquina realmente sente uma emoção, ou se ela simplesmente age como se estivesse sentindo uma emoção, é a questão filosófica: “pode ​​uma máquina ser consciente?” em outra forma.

Uma máquina pode ser autoconsciente?
“Autoconscientização”, como mencionado acima, é às vezes usada por escritores de ficção científica como um nome para a propriedade humana essencial que torna um personagem totalmente humano. Turing retira todas as outras propriedades dos seres humanos e reduz a questão a “pode ​​uma máquina ser o sujeito de seu próprio pensamento?” Pode pensar em si mesmo? Visto desta maneira, um programa pode ser escrito que pode informar sobre seus próprios estados internos, como um depurador. Embora, sem dúvida, a autoconsciência frequentemente pressuponha um pouco mais de capacidade; uma máquina que pode atribuir significado de algum modo não apenas ao seu próprio estado, mas em geral postulando perguntas sem respostas sólidas: a natureza contextual de sua existência agora; como se compara a estados passados ​​ou planos para o futuro, os limites e valor de seu produto de trabalho, como ele percebe que seu desempenho é valorizado ou comparado a outros.

Uma máquina pode ser original ou criativa?
Turing reduz isso à questão de saber se uma máquina pode “nos pegar de surpresa” e argumenta que isso é obviamente verdadeiro, como qualquer programador pode atestar. Ele observa que, com capacidade de armazenamento suficiente, um computador pode se comportar em um número astronômico de maneiras diferentes. Deve ser possível, até mesmo trivial, para um computador que possa representar idéias para combiná-las de novas maneiras. (O Matemático Automatizado de Douglas Lenat, como um exemplo, combinou ideias para descobrir novas verdades matemáticas.)

Em 2009, cientistas da Universidade de Aberystwyth, no País de Gales, e da Universidade de Cambridge, no Reino Unido, projetaram um robô chamado Adam, que eles acreditam ser a primeira máquina a obter novas descobertas científicas de forma independente. Também em 2009, pesquisadores da Cornell desenvolveram Eureqa, um programa de computador que extrapola fórmulas para ajustar os dados inseridos, como encontrar as leis do movimento a partir do movimento de um pêndulo.

Uma máquina pode ser benevolente ou hostil?
Esta questão (como muitas outras na filosofia da inteligência artificial) pode ser apresentada de duas formas. “Hostilidade” pode ser definida em termos de função ou comportamento, caso em que “hostil” se torna sinônimo de “perigoso”. Ou pode ser definido em termos de intenção: pode uma máquina “deliberadamente” tentar prejudicar? A última é a questão “pode ​​uma máquina ter estados conscientes?” (como intenções) de outra forma.

A questão de se as máquinas altamente inteligentes e completamente autónomas seriam perigosas foi examinada em detalhe por futuristas (como o Instituto da Singularidade). (O elemento óbvio de drama também tornou o assunto popular na ficção científica, que considerou muitos cenários possíveis diferentes em que as máquinas inteligentes representam uma ameaça para a humanidade.)

Uma questão é que as máquinas podem adquirir a autonomia e a inteligência necessárias para serem perigosas muito rapidamente. Vernor Vinge sugeriu que, em apenas alguns anos, os computadores se tornarão, de repente, milhares ou milhões de vezes mais inteligentes que os humanos. Ele chama isso de “singularidade”. Ele sugere que pode ser um pouco ou possivelmente muito perigoso para os seres humanos. Isso é discutido por uma filosofia chamada Singularitarianism.

Alguns especialistas e acadêmicos questionaram o uso de robôs para combate militar, especialmente quando esses robôs recebem algum grau de funções autônomas. A Marinha dos EUA financiou um relatório que indica que, à medida que os robôs militares se tornam mais complexos, deve haver maior atenção às implicações de sua capacidade de tomar decisões autônomas.

O Presidente da Associação para o Avanço da Inteligência Artificial encomendou um estudo para analisar esta questão. Eles apontam para programas como o Dispositivo de Aquisição de Idiomas, que pode emular a interação humana.

Alguns sugeriram a necessidade de construir “IA amigável”, o que significa que os avanços que já estão ocorrendo com a IA também devem incluir um esforço para tornar a IA intrinsecamente amigável e humana.

Uma máquina pode ter alma?
Finalmente, aqueles que acreditam na existência de uma alma podem argumentar que “o pensamento é uma função da alma imortal do homem”. Alan Turing chamou isso de “a objeção teológica”. Ele escreve

Na tentativa de construir tais máquinas, não devemos estar usurpando irremediavelmente Seu poder de criar almas, mais do que estamos na procriação de crianças: ao contrário, somos, em ambos os casos, instrumentos de Sua vontade fornecendo mansões para as almas que Ele cria.

Opiniões sobre o papel da filosofia
Alguns estudiosos argumentam que a rejeição da filosofia pela comunidade de IA é prejudicial. Na Enciclopédia de Filosofia de Stanford, alguns filósofos argumentam que o papel da filosofia na IA é desvalorizado.O físico David Deutsch argumenta que, sem uma compreensão da filosofia ou de seus conceitos, o desenvolvimento da IA ​​sofreria de falta de progresso.

Bibliografia & Conferências
A principal bibliografia sobre o assunto, com várias subseções, está no PhilPapers

A principal série de conferências sobre o tema é “Filosofia e Teoria da IA” (PT-AI), dirigida por Vincent C. Müller