Impacto da inteligência artificial

A inteligência artificial (IA) é a inteligência exibida pelas máquinas. Na ciência da computação, uma máquina ideal “inteligente” é um agente racional flexível que percebe seu ambiente e realiza ações que maximizam suas chances de sucesso em algum objetivo ou tarefa. Coloquialmente, o termo inteligência artificial é aplicado quando uma máquina imita as funções “cognitivas” que os humanos associam a outras mentes humanas, tais como: “aprender” e “resolver problemas”. Como as máquinas tornam-se cada vez mais capazes, a tecnologia que uma vez foi pensada para exigir inteligência é removida da definição. Por exemplo, o reconhecimento ótico de caracteres não é mais percebido como um exemplo de “inteligência artificial”, que se tornou uma tecnologia comum. Os avanços tecnológicos ainda classificados como inteligência artificial são sistemas de condução autônomos ou aqueles capazes de jogar xadrez ou ir.

Segundo Takeyas (2007), a IA é um ramo da ciência computacional responsável pelo estudo de modelos computacionais capazes de realizar atividades de seres humanos a partir de duas de suas principais características: raciocínio e comportamento.

Em 1956, John McCarthy cunhou o termo “inteligência artificial” e definiu-o como “a ciência e engenho de fazer máquinas inteligentes, especialmente programas de computador inteligentes”.

Para Nils John Nilsson, existem quatro pilares básicos nos quais a inteligência artificial se baseia:

Procure o estado necessário no conjunto de estados produzidos por ações possíveis.
Algoritmos genéticos (análogos ao processo de evolução das cadeias de DNA).
Redes neurais artificiais (análogas ao funcionamento físico do cérebro de animais e humanos).
Raciocinar através de uma lógica formal análoga ao pensamento abstrato humano.

Existem também diferentes tipos de percepções e ações, que podem ser obtidas e produzidas, respectivamente, por sensores físicos e sensores mecânicos em máquinas, pulsos elétricos ou ópticos em computadores, bem como por entradas e saídas de bit de um software e seu ambiente de software. .

Vários exemplos estão na área de controle de sistemas, planejamento automático, capacidade de responder a diagnósticos e consultas de consumidores, reconhecimento de manuscritos, reconhecimento de fala e reconhecimento de padrões. Atualmente, os sistemas de inteligência artificial fazem parte da rotina em áreas como economia, medicina, engenharia e forças armadas, e têm sido usados ​​em uma variedade de aplicativos de software, jogos de estratégia, como xadrez de computador e outros videogames.

História
Seres artificiais capazes de pensar apareceram como dispositivos narrativos na antiguidade, e têm sido comuns na ficção, como em Frankenstein de Mary Shelley ou RUR de Karel Čapek (Robôs Universais de Rossum). Esses personagens e seus destinos levantaram muitas das mesmas questões agora discutidas na ética da inteligência artificial.

O estudo do raciocínio mecânico ou “formal” começou com filósofos e matemáticos na antiguidade. O estudo da lógica matemática levou diretamente à teoria da computação de Alan Turing, que sugeriu que uma máquina, ao embaralhar símbolos simples como “0” e “1”, poderia simular qualquer ato concebível de dedução matemática. Esse insight, que os computadores digitais podem simular qualquer processo de raciocínio formal, é conhecido como a tese de Church-Turing. Junto com as descobertas simultâneas em neurobiologia, teoria da informação e cibernética, isso levou os pesquisadores a considerar a possibilidade de construir um cérebro eletrônico. Turing propôs que “se um humano não pudesse distinguir entre respostas de uma máquina e de um humano, a máquina poderia ser considerada” inteligente “. O primeiro trabalho que hoje é geralmente reconhecido como IA foi o projeto formal de 1943 de McCullouch e Pitts para os “neurônios artificiais” completos de Turing.

O campo de pesquisa da IA ​​nasceu em uma oficina no Dartmouth College em 1956. Os participantes Allen Newell (CMU), Herbert Simon (CMU), John McCarthy (MIT), Marvin Minsky (MIT) e Arthur Samuel (IBM) tornaram-se os fundadores e líderes da pesquisa de IA. Eles e seus alunos produziram programas que a imprensa descreveu como “surpreendentes”: computadores estavam aprendendo estratégias de damas (c. 1954) (e em 1959 estavam jogando melhor do que a média humana), resolvendo problemas de palavras em álgebra, provando teoremas lógicos Teórico, primeiro executado em 1956) e falando em inglês. Em meados da década de 1960, a pesquisa nos EUA foi fortemente financiada pelo Departamento de Defesa e laboratórios foram estabelecidos em todo o mundo. Os fundadores da AI estavam otimistas em relação ao futuro: Herbert Simon previu, “as máquinas serão capazes, dentro de vinte anos, de fazer qualquer trabalho que um homem possa fazer”. Marvin Minsky concordou, escrevendo: “dentro de uma geração … o problema de criar ‘inteligência artificial’ será substancialmente resolvido”.

Eles não conseguiram reconhecer a dificuldade de algumas das tarefas restantes. O progresso diminuiu e, em 1974, em resposta às críticas de Sir James Lighthill e à contínua pressão do Congresso dos EUA para financiar projetos mais produtivos, os governos dos EUA e do Reino Unido interromperam a pesquisa exploratória em inteligência artificial. Os próximos anos mais tarde seriam chamados de “inverno AI”, um período em que obter financiamento para projetos de IA era difícil.

No início dos anos 80, a pesquisa de IA foi revivida pelo sucesso comercial de sistemas especialistas, uma forma de programa de IA que simulava o conhecimento e as habilidades analíticas de especialistas humanos. Em 1985, o mercado de inteligência artificial havia alcançado mais de um bilhão de dólares. Ao mesmo tempo, o projeto de computador da quinta geração do Japão inspirou os governos dos EUA e da Inglaterra a restaurar o financiamento para pesquisa acadêmica. No entanto, começando com o colapso do mercado de Lisp Machine em 1987, a IA mais uma vez caiu em descrédito, e um segundo hiato de longa duração começou.

No final dos anos 90 e início do século 21, a IA começou a ser usada para logística, mineração de dados, diagnóstico médico e outras áreas. O sucesso foi devido ao aumento do poder computacional (ver a lei de Moore), maior ênfase na resolução de problemas específicos, novos laços entre a AI e outros campos (como estatística, economia e matemática) e um compromisso dos pesquisadores com métodos matemáticos e padrões científicos. O Deep Blue tornou-se o primeiro sistema de xadrez de computador a derrotar o atual campeão mundial de xadrez, Garry Kasparov, em 11 de maio de 1997.

Em 2011, um Jeopardy! quiz show match de exibição, o sistema de perguntas da IBM, Watson, derrotou os dois maiores Jeopardy! campeões, Brad Rutter e Ken Jennings, por uma margem significativa. Computadores mais rápidos, melhorias algorítmicas e acesso a grandes quantidades de dados permitiram avanços no aprendizado e percepção de máquina; Os métodos de aprendizagem profunda, famintos por dados, começaram a dominar os benchmarks de precisão em 2012. O Kinect, que fornece uma interface 3D de corpo-movimento para o Xbox 360 e Xbox One, usa algoritmos que surgiram de extensas pesquisas de inteligência artificial como assistentes pessoais inteligentes em smartphones. Em março de 2016, AlphaGo venceu 4 de 5 jogos do Go em uma partida com o campeão Go Lee Sedol, tornando-se o primeiro sistema de Go-playing de computador a derrotar um jogador profissional de Go sem handicaps. No 2017 Future of Go Summit, o AlphaGo venceu uma partida de três jogos com Ke Jie, que na época ocupava continuamente o primeiro lugar do ranking mundial por dois anos. Isso marcou a conclusão de um marco significativo no desenvolvimento da Inteligência Artificial, já que o Go é um jogo extremamente complexo, mais do que o Xadrez.

De acordo com Jack Clark, da Bloomberg, 2015 foi um ano marcante para a inteligência artificial, com o número de projetos de software que usam AI dentro do Google aumentado de um “uso esporádico” em 2012 para mais de 2.700 projetos. Clark também apresenta dados factuais indicando que as taxas de erro nas tarefas de processamento de imagem caíram significativamente desde 2011. Ele atribui isso a um aumento nas redes neurais acessíveis, devido a um aumento na infraestrutura de computação em nuvem e a um aumento nas ferramentas de pesquisa e conjuntos de dados. Outros exemplos citados incluem o desenvolvimento por parte da Microsoft de um sistema Skype que pode traduzir automaticamente de um idioma para outro e o sistema do Facebook que pode descrever imagens para pessoas cegas. Em uma pesquisa de 2017, uma em cada cinco empresas relatou que “incorporou a AI em algumas ofertas ou processos”. Por volta de 2016, a China acelerou enormemente seu financiamento governamental; dado seu grande suprimento de dados e seu rápido aumento na produção de pesquisas, alguns observadores acreditam que pode estar a caminho de se tornar uma “superpotência AI”.

Noções básicas
Uma IA típica percebe seu ambiente e realiza ações que maximizam sua chance de atingir seus objetivos com sucesso. A função de meta pretendida por um AI pode ser simples (“1 se o AI ganhar um jogo de Go, 0 caso contrário”) ou complexa (“Faça ações matematicamente semelhantes às ações que você ganhou em prêmios no passado”). As metas podem ser explicitamente definidas ou podem ser induzidas. Se o AI for programado para “aprendizado por reforço”, os objetivos podem ser implicitamente induzidos, recompensando alguns tipos de comportamento e punindo outros. Alternativamente, um sistema evolucionário pode induzir objetivos usando uma “função de aptidão” para modificar e replicar preferencialmente sistemas IA de alto escore; isso é semelhante a como os animais evoluíram para, por natureza, desejar certos objetivos, como encontrar comida, ou como os cães podem ser criados por meio de seleção artificial para possuir os traços desejados. Alguns sistemas de inteligência artificial, como o vizinho mais próximo, em vez disso, raciocinam por analogia; Em geral, esses sistemas não recebem metas, exceto na medida em que os objetivos estão de alguma forma implícitos em seus dados de treinamento. Tais sistemas ainda podem ser comparados se o sistema sem objetivo for enquadrado como um sistema cujo “objetivo” é realizar com sucesso sua tarefa de classificação estreita.

AI frequentemente gira em torno do uso de algoritmos. Um algoritmo é um conjunto de instruções não ambíguas que um computador mecânico pode executar. Um algoritmo complexo é frequentemente construído em cima de outros algoritmos mais simples. Um exemplo simples de um algoritmo é a seguinte receita para a reprodução ideal no jogo da velha:

Se alguém tiver uma “ameaça” (isto é, duas seguidas), pegue o quadrado restante. De outra forma,
Se um movimento forks para criar duas ameaças de uma vez, jogue esse movimento. De outra forma,
Pegue a praça central, se estiver livre. De outra forma,
Se o seu adversário jogou em um canto, pegue o canto oposto. De outra forma,
Pegue um canto vazio, se houver um. De outra forma,
Pegue qualquer quadrado vazio.

Muitos algoritmos de IA são capazes de aprender com dados; eles podem aprimorar-se aprendendo novas heurísticas (estratégias ou “regras práticas” que funcionaram bem no passado) ou podem escrever outros algoritmos. Alguns dos “aprendizes” descritos abaixo, incluindo redes Bayesianas, árvores de decisão e vizinho mais próximo, poderiam, teoricamente, se dados infinitos, tempo e memória, aprender a aproximar qualquer função, incluindo qualquer combinação de funções matemáticas que melhor descrevem o mundo inteiro. Esses aprendizes poderiam, portanto, em teoria, derivar todo conhecimento possível, considerando todas as hipóteses possíveis e comparando-as com os dados. Na prática, quase nunca é possível considerar todas as possibilidades, devido ao fenômeno da “explosão combinatória”, em que a quantidade de tempo necessária para resolver um problema cresce exponencialmente. Grande parte da pesquisa em IA envolve descobrir como identificar e evitar considerar grandes extensões de possibilidades que provavelmente não serão frutíferas. Por exemplo, ao visualizar um mapa e procurar a rota de condução mais curta de Denver a Nova York, no Leste, pode-se, na maioria dos casos, pular qualquer caminho por São Francisco ou outras áreas distantes do Ocidente; assim, um AI usando um algoritmo de pathfinding como A * pode evitar a explosão combinatória que aconteceria se cada rota possível tivesse que ser ponderada por sua vez.

A primeira (e mais fácil de entender) abordagem da IA ​​foi o simbolismo (tal como a lógica formal): “Se um adulto saudável tiver febre, então pode ter gripe”. Uma segunda abordagem, mais geral, é a inferência bayesiana: “Se o paciente atual estiver com febre, ajuste a probabilidade de que ele tenha influenza de tal e tal maneira”. A terceira grande abordagem, extremamente popular em aplicações de IA de rotina para negócios, são analogos como SVM e vizinho mais próximo: “Depois de examinar os registros de pacientes passados ​​conhecidos, cuja temperatura, sintomas, idade e outros fatores coincidem com o paciente atual, X% desses pacientes acabou por ter gripe “. Uma quarta abordagem é mais difícil de entender intuitivamente, mas é inspirada em como a maquinaria do cérebro funciona: a abordagem da rede neural artificial usa “neurônios” artificiais que podem aprender comparando-se com a saída desejada e alterando as forças das conexões entre seus neurônios internos. para “reforçar” conexões que pareciam ser úteis. Essas quatro abordagens principais podem se sobrepor entre si e com sistemas evolutivos; por exemplo, as redes neurais podem aprender a fazer inferências, generalizar e fazer analogias. Alguns sistemas usam implícita ou explicitamente várias dessas abordagens, juntamente com muitos outros algoritmos AI e não-AI; A melhor abordagem é muitas vezes diferente dependendo do problema.

Algoritmos de aprendizado funcionam com base em que estratégias, algoritmos e inferências que funcionaram bem no passado provavelmente continuarão funcionando bem no futuro. Essas inferências podem ser óbvias, como “desde que o sol nasceu todas as manhãs nos últimos 10.000 dias, provavelmente também se elevará amanhã de manhã”. Eles podem ser matizados, como “X% das famílias têm espécies separadas geograficamente com variantes de cor, então existe uma chance de Y% de que cisnes negros não descobertos existam”. Os alunos também trabalham com base na “navalha de Occam”: a teoria mais simples que explica os dados é a mais provável. Portanto, para ser bem-sucedido, um aprendiz deve ser projetado de tal forma que prefira teorias mais simples para teorias complexas, exceto nos casos em que a teoria complexa é comprovadamente substancialmente melhor. Concentrando-se em uma teoria ruim, excessivamente complexa, gerrymandered para caber todos os dados de treinamento anteriores é conhecido como overfitting. Muitos sistemas tentam reduzir o overfitting recompensando uma teoria de acordo com o quão bem ela se encaixa nos dados, mas penalizando a teoria de acordo com a complexidade da teoria. Além do overfitting clássico, os alunos também podem decepcionar “aprendendo a lição errada”. Um exemplo de brinquedo é que um classificador de imagens treinado apenas em fotos de cavalos marrons e gatos pretos pode concluir que todos os fragmentos marrons provavelmente são cavalos. Um exemplo do mundo real é que, diferentemente dos humanos, os classificadores de imagens atuais não determinam a relação espacial entre os componentes da imagem; em vez disso, eles aprendem padrões abstratos de pixels que os humanos desconhecem, mas que linearmente se correlacionam com imagens de certos tipos de objetos reais. A sobreposição de tal padrão em uma imagem legítima resulta em uma imagem “contraditória” que o sistema classifica erroneamente.

Em comparação com os humanos, a IA existente carece de várias características do “raciocínio de senso comum” humano; mais notavelmente, os humanos têm mecanismos poderosos para raciocinar sobre “física ingênua”, como espaço, tempo e interações físicas. Isso permite que até mesmo crianças pequenas façam inferências como “Se eu tirar essa caneta de uma mesa, ela cairá no chão”. Os humanos também têm um poderoso mecanismo de “psicologia popular” que os ajuda a interpretar sentenças em linguagem natural, como “Os vereadores recusaram aos manifestantes uma permissão porque defendiam a violência”. (Uma IA genérica tem dificuldade em inferir se os vereadores ou os manifestantes são os que alegam estar defendendo a violência.) Essa falta de “conhecimento comum” significa que a IA freqüentemente comete erros diferentes dos humanos, de maneiras que podem parecer incompreensíveis. Por exemplo, os carros autônomos existentes não podem raciocinar sobre a localização nem as intenções dos pedestres da maneira exata que os humanos fazem, e devem usar modos não-humanos de raciocínio para evitar acidentes.

Problemas
O objetivo geral da pesquisa em inteligência artificial é criar uma tecnologia que permita que computadores e máquinas funcionem de maneira inteligente. O problema geral de simular (ou criar) inteligência foi dividido em subproblemas. Estes consistem em características particulares ou capacidades que os pesquisadores esperam que um sistema inteligente exiba. Os traços descritos abaixo receberam mais atenção.

Raciocínio, resolução de problemas
Os primeiros pesquisadores desenvolveram algoritmos que imitavam o raciocínio passo-a-passo que os humanos usam quando resolvem quebra-cabeças ou fazem deduções lógicas. No final dos anos 80 e 90, a pesquisa de IA desenvolveu métodos para lidar com informações incertas ou incompletas, empregando conceitos de probabilidade e economia.

Esses algoritmos mostraram-se insuficientes para resolver grandes problemas de raciocínio, porque experimentaram uma “explosão combinatória”: eles se tornaram exponencialmente mais lentos à medida que os problemas aumentavam. De fato, até mesmo os humanos raramente usam a dedução passo a passo que a pesquisa inicial de IA foi capaz de modelar. Eles resolvem a maioria dos seus problemas usando julgamentos rápidos e intuitivos.

Representação de conhecimento
A representação do conhecimento e a engenharia do conhecimento são centrais para a pesquisa clássica em IA. Alguns “sistemas especialistas” tentam reunir conhecimento explícito possuído por especialistas em algum domínio restrito. Além disso, alguns projetos tentam reunir o “conhecimento de senso comum” conhecido por uma pessoa comum em um banco de dados contendo amplo conhecimento sobre o mundo. Entre as coisas que uma base abrangente de conhecimento do senso comum conteria estão: objetos, propriedades, categorias e relações entre objetos; situações, eventos, estados e tempo; causas e efeitos; conhecimento sobre conhecimento (o que sabemos sobre o que outras pessoas sabem); e muitos outros domínios menos pesquisados. Uma representação de “o que existe” é uma ontologia: o conjunto de objetos, relações, conceitos e propriedades formalmente descritos para que os agentes de software possam interpretá-los. As semânticas dessas são capturadas como conceitos lógicos de descrição, funções e indivíduos, e normalmente implementadas como classes, propriedades e indivíduos na Linguagem de Ontologia da Web. As ontologias mais gerais são chamadas de ontologias superiores, que tentam fornecer uma base para todos os outros conhecimentos, agindo como mediadores entre ontologias de domínio que cobrem conhecimentos específicos sobre um determinado domínio de conhecimento (campo de interesse ou área de interesse). Essas representações formais de conhecimento podem ser usadas na indexação e recuperação baseada em conteúdo, interpretação de cena, suporte a decisões clínicas, descoberta de conhecimento (inferências de mineração “interessantes” e acionáveis ​​de grandes bancos de dados) e outras áreas.

Entre os problemas mais difíceis na representação do conhecimento estão:

Raciocínio padrão e o problema de qualificação
Muitas das coisas que as pessoas sabem tomam a forma de “suposições de trabalho”. Por exemplo, se um pássaro aparece conversando, as pessoas normalmente imaginam um animal que é do tamanho de um punho, canta e voa. Nenhuma dessas coisas são verdadeiras sobre todos os pássaros. John McCarthy identificou esse problema em 1969 como o problema da qualificação: para qualquer regra de senso comum que os pesquisadores de IA importem, tende a haver um grande número de exceções. Quase nada é simplesmente verdadeiro ou falso da maneira que a lógica abstrata exige. A pesquisa de IA explorou várias soluções para esse problema.

A amplitude do conhecimento de senso comum
O número de fatos atômicos que a pessoa média conhece é muito grande. Projetos de pesquisa que tentam construir uma base de conhecimento completa do conhecimento de senso comum (por exemplo, Cyc) requerem enormes quantidades de laboriosa engenharia ontológica – eles devem ser construídos, à mão, um conceito complicado de cada vez.

A forma subsimbólica de algum conhecimento de senso comum
Muito do que as pessoas sabem não é representado como “fatos” ou “declarações” que eles poderiam expressar verbalmente. Por exemplo, um mestre de xadrez evita uma determinada posição de xadrez porque “se sente muito exposto” ou um crítico de arte pode dar uma olhada em uma estátua e perceber que ela é uma farsa. Estas são intuições ou tendências inconscientes e sub-simbólicas no cérebro humano. Conhecimento como este informa, apoia e fornece um contexto para o conhecimento simbólico e consciente. Tal como acontece com o problema relacionado do raciocínio sub-simbólico, espera-se que AI, inteligência computacional ou AI estatística situadas forneçam maneiras de representar esse tipo de conhecimento.

Planejamento
Agentes inteligentes devem ser capazes de estabelecer metas e alcançá-las. Eles precisam de uma maneira de visualizar o futuro – uma representação do estado do mundo e serem capazes de fazer previsões sobre como suas ações irão mudá-lo – e serem capazes de fazer escolhas que maximizem a utilidade (ou “valor”) das escolhas disponíveis. .

Nos problemas clássicos de planejamento, o agente pode assumir que é o único sistema atuando no mundo, permitindo que o agente tenha certeza das conseqüências de suas ações. No entanto, se o agente não for o único ator, ele exigirá que o agente possa argumentar sob incerteza. Isso exige um agente que não apenas avalie seu ambiente e faça previsões, mas também avalie suas previsões e se adapte com base em sua avaliação.

O planejamento multiagente usa a cooperação e a concorrência de muitos agentes para atingir um determinado objetivo. Um comportamento emergente como esse é usado por algoritmos evolutivos e inteligência de enxame.

Aprendendo
Aprendizado de máquina, um conceito fundamental de pesquisa de IA desde o início do campo, é o estudo de algoritmos de computador que melhoram automaticamente através da experiência.

O aprendizado não supervisionado é a capacidade de encontrar padrões em um fluxo de entrada. O aprendizado supervisionado inclui classificação e regressão numérica. A classificação é usada para determinar em qual categoria algo pertence, depois de ver vários exemplos de coisas de várias categorias. Regressão é a tentativa de produzir uma função que descreve a relação entre entradas e saídas e prevê como as saídas devem mudar à medida que as entradas mudam. Tanto os classificadores quanto os aprendizes de regressão podem ser vistos como “aproximadores de função” tentando aprender uma função desconhecida (possivelmente implícita); Por exemplo, um classificador de spam pode ser visto como um aprendizado de uma função que mapeia o texto de um email para uma das duas categorias, “spam” ou “não spam”. A teoria da aprendizagem computacional pode avaliar os alunos por complexidade computacional, pela complexidade da amostra (quantos dados são necessários) ou por outras noções de otimização. No aprendizado por reforço, o agente é recompensado por boas respostas e punido por maus. O agente usa essa sequência de recompensas e punições para formar uma estratégia para operar em seu espaço de problema.

Processamento de linguagem natural
O processamento de linguagem natural (PNL) dá às máquinas a capacidade de ler e entender a linguagem humana. Um sistema de processamento de linguagem natural suficientemente poderoso possibilitaria interfaces com o usuário de linguagem natural e a aquisição de conhecimento diretamente de fontes escritas por humanos, como textos de notícias. Algumas aplicações diretas do processamento de linguagem natural incluem recuperação de informações, mineração de texto, resposta a perguntas e tradução automática. Muitas abordagens atuais usam freqüências de co-ocorrência de palavras para construir representações sintáticas de texto. As estratégias de “localização de palavras-chave” para pesquisa são populares e escaláveis, mas são mudas; uma consulta de pesquisa para “cachorro” só pode corresponder a documentos com a palavra literal “dog” e perder um documento com a palavra “poodle”. As estratégias de “afinidade lexical” usam a ocorrência de palavras como “acidente” para avaliar o sentimento de um documento. As modernas abordagens estatísticas da PNL podem combinar todas essas estratégias, assim como outras, e geralmente atingem uma precisão aceitável no nível da página ou do parágrafo, mas continuam a não ter a compreensão semântica necessária para classificar bem as frases isoladas. Além das dificuldades usuais de codificar o conhecimento semântico de senso comum, o PNL semântico existente às vezes escala muito pouco para ser viável em aplicativos de negócios. Além da PNL semântica, o objetivo final da PNL “narrativa” é incorporar um entendimento completo do raciocínio do senso comum.

Percepção
A percepção da máquina é a capacidade de usar a entrada de sensores (como câmeras (espectro visível ou infravermelho), microfones, sinais sem fio e sensores ativos de lidar, sonar, radar e tátil) para deduzir aspectos do mundo. As aplicações incluem reconhecimento de fala, reconhecimento facial e reconhecimento de objetos. Visão computacional é a capacidade de analisar a entrada visual. Essa entrada é geralmente ambígua; um pedestre gigante de cinquenta metros de altura pode produzir exatamente os mesmos pixels de um pedestre de tamanho normal próximo, exigindo que a IA julgue a probabilidade relativa e a razoabilidade de diferentes interpretações, por exemplo, usando seu “modelo de objeto” para avaliar que pedestres de cinquenta metros não existem.

Movimento e manipulação
AI é muito usado em robótica. Braços robóticos avançados e outros robôs industriais, amplamente usados ​​em fábricas modernas, podem aprender com a experiência como se movimentar eficientemente apesar da presença de fricção e deslizamento de engrenagem. Um robô móvel moderno, quando recebe um ambiente pequeno, estático e visível, pode determinar facilmente sua localização e mapear seu ambiente; entretanto, ambientes dinâmicos, como (na endoscopia) o interior do corpo respirando de um paciente, representam um desafio maior. O planejamento de movimento é o processo de decompor uma tarefa de movimento em “primitivos”, como movimentos conjuntos individuais. Tal movimento envolve frequentemente movimento complacente, um processo onde o movimento requer a manutenção do contato físico com um objeto. O paradoxo de Moravec generaliza que habilidades sensório-motoras de baixo nível que os humanos tomam como garantidas são, contra intuitivamente, difíceis de programar em um robô; o paradoxo leva o nome de Hans Moravec, que afirmou em 1988 que “é comparativamente fácil fazer computadores exibirem desempenho em nível adulto em testes de inteligência ou jogar damas, e difícil ou impossível lhes dar as habilidades de uma criança de um ano quando chega à percepção e mobilidade “. Isto é atribuído ao fato de que, ao contrário dos verificadores, a destreza física tem sido alvo direto da seleção natural por milhões de anos.

Inteligência social
O paradoxo de Moravec pode ser estendido a muitas formas de inteligência social. A coordenação distribuída de vários agentes de veículos autônomos continua sendo um problema difícil. A computação afetiva é um guarda-chuva interdisciplinar que compreende sistemas que reconhecem, interpretam, processam ou simulam afetos humanos. Sucessos moderados relacionados à computação afetiva incluem análise de sentimento textual e, mais recentemente, análise de afeto multimodal (ver análise de sentimento multimodal), em que a IA classifica os efeitos exibidos por um sujeito gravado em vídeo.

A longo prazo, as habilidades sociais e a compreensão da emoção humana e da teoria dos jogos seriam valiosas para um agente social. Ser capaz de prever as ações dos outros, compreendendo seus motivos e estados emocionais, permitiria que um agente tomasse melhores decisões. Alguns sistemas de computador imitam as emoções e expressões humanas para parecer mais sensíveis à dinâmica emocional da interação humana ou, de outro modo, facilitar a interação humano-computador. Da mesma forma, alguns assistentes virtuais são programados para falar em conversação ou mesmo para brincadeiras humorísticas; isso tende a dar aos usuários ingênuos uma concepção irrealista de como os agentes de computadores existentes são realmente inteligentes.

Inteligência geral
Historicamente, projetos como a base de conhecimento Cyc (1984-) e a maciça iniciativa japonesa de Sistemas de Computação de Quinta Geração (1982-1992) tentaram cobrir a amplitude da cognição humana. Esses primeiros projetos não conseguiram escapar das limitações dos modelos lógicos simbólicos não quantitativos e, em retrospecto, subestimaram enormemente a dificuldade da IA ​​entre domínios. Atualmente, a grande maioria dos pesquisadores atuais de IA trabalha em vez disso em aplicações “estreitas” (“AI”) tratáveis ​​(como diagnóstico médico ou navegação automotiva). Muitos pesquisadores prevêem que esse “IA estreito” funcionará em diferentes domínios individuais e eventualmente será incorporado a uma máquina com inteligência artificial geral (AGI), combinando a maioria das habilidades limitadas mencionadas neste artigo e em algum ponto até mesmo excedendo a habilidade humana na maioria ou todas essas áreas. Muitos avanços têm significância geral entre domínios. Um exemplo de alto perfil é que a DeepMind nos anos 2010 desenvolveu uma “inteligência artificial generalizada” que poderia aprender muitos jogos diversos da Atari por conta própria, e mais tarde desenvolveu uma variante do sistema que teve sucesso na aprendizagem sequencial. Além de transferir o aprendizado, as inovações hipotéticas da AGI poderiam incluir o desenvolvimento de arquiteturas reflexivas que possam envolver-se em metareasoning da teoria da decisão e descobrir como “absorver” uma base de conhecimento abrangente de toda a Web não estruturada. Alguns argumentam que algum tipo de (atualmente não descoberto) conceitualmente direto, mas matematicamente difícil, “Algoritmo Mestre” poderia levar a AGI. Finalmente, algumas abordagens “emergentes” procuram simular a inteligência humana de forma extremamente próxima, e acreditam que características antropomórficas como um cérebro artificial ou desenvolvimento infantil simulado podem algum dia atingir um ponto crítico em que a inteligência geral emerge.

Muitos dos problemas neste artigo também podem exigir inteligência geral, se as máquinas resolverem os problemas da mesma forma que as pessoas. Por exemplo, mesmo tarefas simples e diretas, como tradução automática, exigem que uma máquina leia e escreva em ambas as linguagens (NLP), siga o argumento do autor (razão), saiba do que está sendo falado (conhecimento) e reproduza fielmente o original do autor. intenção (inteligência social). Um problema como a tradução automática é considerado “AI-complete”, porque todos esses problemas precisam ser resolvidos simultaneamente para alcançar o desempenho da máquina em nível humano.