Impacto de la inteligencia artificial.

La inteligencia artificial (IA) es la inteligencia mostrada por las máquinas. En informática, una máquina “inteligente” ideal es un agente racional flexible que percibe su entorno y realiza acciones que maximizan sus posibilidades de éxito en algún objetivo o tarea. Coloquialmente, el término inteligencia artificial se aplica cuando una máquina imita las funciones “cognitivas” que los humanos asocian con otras mentes humanas, como “aprender” y “resolver problemas”. dos A medida que las máquinas se vuelven cada vez más capaces, la tecnología que antes se pensaba que requería inteligencia se elimina de la definición. Por ejemplo, el reconocimiento óptico de caracteres ya no se percibe como un ejemplo de “inteligencia artificial” que se ha convertido en una tecnología común. Los avances tecnológicos aún clasificados como inteligencia artificial son sistemas de conducción autónomos o aquellos capaces de jugar al ajedrez o al Go.

Según Takeyas (2007), AI es una rama de la ciencia computacional responsable de estudiar modelos computacionales capaces de realizar actividades de seres humanos basadas en dos de sus características principales: el razonamiento y el comportamiento.

En 1956, John McCarthy acuñó el término “inteligencia artificial” y lo definió como “la ciencia y el ingenio de hacer máquinas inteligentes, especialmente programas informáticos inteligentes”.

Para Nils John Nilsson hay cuatro pilares básicos en los que se basa la inteligencia artificial:

Busque el estado requerido en el conjunto de estados producidos por posibles acciones.
Algoritmos genéticos (análogos al proceso de evolución de las cadenas de ADN).
Redes neuronales artificiales (análogas al funcionamiento físico del cerebro de los animales y los humanos).
Razonar a través de una lógica formal análoga al pensamiento abstracto humano.

También hay diferentes tipos de percepciones y acciones, que pueden obtenerse y producirse, respectivamente, mediante sensores físicos y sensores mecánicos en máquinas, pulsos eléctricos u ópticos en computadoras, así como mediante entradas y salidas de bits de un software y su entorno de software. .

Varios ejemplos se encuentran en el área de control de sistemas, planificación automática, la capacidad de responder a diagnósticos y consultas de los consumidores, reconocimiento de escritura a mano, reconocimiento de voz y reconocimiento de patrones. Los sistemas de inteligencia artificial actualmente forman parte de la rutina en campos como la economía, la medicina, la ingeniería y el ejército, y se han utilizado en una variedad de aplicaciones de software, juegos de estrategia, como ajedrez informático y otros videojuegos.

Historia
Los seres artificiales con capacidad de pensamiento aparecieron como dispositivos narrativos en la antigüedad, y han sido comunes en la ficción, como en Frankenstein de Mary Shelley o RUR (Robots universales de Rossum) de Mary Shelley. Estos personajes y sus destinos plantearon muchos de los mismos problemas que ahora se discuten en la ética de la inteligencia artificial.

El estudio del razonamiento mecánico o “formal” comenzó con filósofos y matemáticos en la antigüedad. El estudio de la lógica matemática condujo directamente a la teoría de la computación de Alan Turing, que sugería que una máquina, al mezclar símbolos tan simples como “0” y “1”, podría simular cualquier acto concebible de deducción matemática. Esta idea, que las computadoras digitales pueden simular cualquier proceso de razonamiento formal, se conoce como la tesis de Church-Turing. Junto con los descubrimientos concurrentes en neurobiología, teoría de la información y cibernética, esto llevó a los investigadores a considerar la posibilidad de construir un cerebro electrónico. Turing propuso que “si un humano no podía distinguir entre las respuestas de una máquina y un humano, la máquina podría considerarse” inteligente “. El primer trabajo que ahora se reconoce generalmente como IA fue el diseño formal de McCullouch y Pitts de 1943 para las “neuronas artificiales” completas de Turing.

El campo de la investigación de la IA nació en un taller en el Dartmouth College en 1956. Los asistentes Allen Newell (CMU), Herbert Simon (CMU), John McCarthy (MIT), Marvin Minsky (MIT) y Arthur Samuel (IBM) se convirtieron en los fundadores y Líderes de la investigación en IA. Ellos y sus alumnos produjeron programas que la prensa describió como “asombrosos”: las computadoras estaban aprendiendo estrategias de verificación (c. 1954) (y, para 1959, estaban jugando mejor que el humano promedio), resolviendo problemas de palabras en álgebra, probando teoremas lógicos (lógica Teórico, primera carrera c. 1956) y habla inglés. A mediados de la década de 1960, la investigación en los Estados Unidos estaba fuertemente financiada por el Departamento de Defensa y se habían establecido laboratorios en todo el mundo. Los fundadores de AI se mostraron optimistas sobre el futuro: Herbert Simon predijo que “las máquinas serán capaces, dentro de veinte años, de hacer cualquier trabajo que un hombre pueda hacer”. Marvin Minsky estuvo de acuerdo, escribiendo, “dentro de una generación … el problema de crear ‘inteligencia artificial’ se resolverá sustancialmente”.

No pudieron reconocer la dificultad de algunas de las tareas restantes. El progreso se desaceleró y en 1974, en respuesta a las críticas de Sir James Lighthill y la continua presión del Congreso de los EE. UU. Para financiar proyectos más productivos, tanto los gobiernos de los EE. UU. Como los británicos interrumpieron la investigación exploratoria en Amnistía Internacional. Los próximos años se llamarán más tarde “invierno de AI”, un período en el que obtener financiamiento para proyectos de AI fue difícil.

A principios de la década de 1980, la investigación de la IA fue revivida por el éxito comercial de los sistemas expertos, una forma de programa de inteligencia artificial que simulaba el conocimiento y las habilidades analíticas de los expertos humanos. Para 1985, el mercado de la IA había alcanzado más de mil millones de dólares. Al mismo tiempo, el proyecto informático de quinta generación de Japón inspiró a los gobiernos de EE. UU. Y Gran Bretaña a restaurar la financiación para la investigación académica. Sin embargo, a partir del colapso del mercado de la máquina Lisp en 1987, la IA volvió a caer en desprestigio, y comenzó una segunda pausa de mayor duración.

A fines de la década de 1990 y principios del siglo XXI, la IA comenzó a utilizarse para logística, minería de datos, diagnóstico médico y otras áreas. El éxito se debió al aumento del poder computacional (consulte la ley de Moore), a un mayor énfasis en la resolución de problemas específicos, a los nuevos vínculos entre la IA y otros campos (como estadística, economía y matemáticas) y al compromiso de los investigadores con los métodos matemáticos y los estándares científicos. El 11 de mayo de 1997, Deep Blue se convirtió en el primer sistema de ajedrez por computadora para vencer al campeón mundial de ajedrez, Garry Kasparov.

En 2011, un peligro! ¡El concurso de exhibición de concursos, el sistema de respuesta de preguntas de IBM, Watson, derrotó a los dos más grandes de Jeopardy! Los campeones, Brad Rutter y Ken Jennings, por un margen significativo. Las computadoras más rápidas, las mejoras algorítmicas y el acceso a grandes cantidades de datos permitieron avances en el aprendizaje automático y la percepción; los métodos de aprendizaje profundo que utilizan muchos datos empezaron a dominar los puntos de referencia de precisión alrededor de 2012. El Kinect, que proporciona una interfaz cuerpo-movimiento 3D para la Xbox 360 y la Xbox One, utiliza algoritmos que surgieron de una extensa investigación de IA, al igual que los asistentes personales inteligentes en los teléfonos inteligentes. En marzo de 2016, AlphaGo ganó 4 de 5 juegos de Go en un partido con el campeón de Go Lee Sedol, convirtiéndose en el primer sistema de Go-playing de computadora para vencer a un jugador de Go profesional sin desventajas. En la Cumbre de Future of Go 2017, AlphaGo ganó un partido de tres juegos con Ke Jie, quien en ese momento era el número 1 del mundo en forma continua durante dos años. Esto marcó la finalización de un hito significativo en el desarrollo de la Inteligencia Artificial como Go es un juego extremadamente complejo, más que el Ajedrez.

Según Jack Clark, de Bloomberg, 2015 fue un año histórico para la inteligencia artificial, ya que la cantidad de proyectos de software que utilizan AI dentro de Google aumentó de un “uso esporádico” en 2012 a más de 2,700 proyectos. Clark también presenta datos fácticos que indican que las tasas de error en las tareas de procesamiento de imágenes han disminuido significativamente desde 2011. Lo atribuye a un aumento en las redes neuronales asequibles, debido al aumento en la infraestructura de computación en la nube y al aumento en las herramientas de investigación y conjuntos de datos. Otros ejemplos citados incluyen el desarrollo de Microsoft de un sistema de Skype que puede traducirse automáticamente de un idioma a otro y el sistema de Facebook que puede describir imágenes a personas ciegas. En una encuesta de 2017, una de cada cinco empresas informó que había “incorporado AI en algunas ofertas o procesos”. Alrededor de 2016, China aceleró en gran medida su financiación gubernamental; Dada su gran cantidad de datos y el rápido aumento de sus resultados de investigación, algunos observadores creen que podría estar en camino de convertirse en un “superpoder de la IA”.

Lo esencial
Una IA típica percibe su entorno y realiza acciones que maximizan sus posibilidades de alcanzar sus objetivos con éxito. La función de la meta prevista de una IA puede ser simple (“1 si la IA gana un juego de Ir, 0 de lo contrario”) o compleja (“Hacer acciones matemáticamente similares a las acciones que obtuvieron recompensas en el pasado”). Las metas pueden definirse explícitamente o pueden inducirse. Si la IA está programada para un “aprendizaje de refuerzo”, las metas pueden inducirse implícitamente recompensando algunos tipos de comportamiento y castigando a otros. Alternativamente, un sistema evolutivo puede inducir objetivos utilizando una “función de aptitud” para mutar y replicar preferentemente los sistemas de IA con puntuaciones altas; esto es similar a cómo los animales evolucionaron para desear de forma innata ciertos objetivos, como encontrar comida, o cómo los perros pueden criarse mediante selección artificial para poseer los rasgos deseados. Algunos sistemas de inteligencia artificial, como el vecino más cercano, en cambio razonan por analogía; estos sistemas generalmente no tienen objetivos, excepto en la medida en que los objetivos están implícitos en sus datos de entrenamiento. Dichos sistemas aún pueden ser evaluados si el sistema no objetivo está enmarcado como un sistema cuyo “objetivo” es lograr con éxito su tarea de clasificación limitada.

La IA a menudo gira en torno al uso de algoritmos. Un algoritmo es un conjunto de instrucciones inequívocas que una computadora mecánica puede ejecutar. Un algoritmo complejo a menudo se construye sobre otros algoritmos más simples. Un ejemplo simple de un algoritmo es la siguiente receta para un juego óptimo en tic-tac-toe:

Si alguien tiene una “amenaza” (es decir, dos en una fila), tome la casilla restante. De otra manera,
Si un movimiento se “bifurca” para crear dos amenazas a la vez, juegue ese movimiento. De otra manera,
tomar la plaza central si está libre. De otra manera,
Si tu oponente ha jugado en una esquina, toma la esquina opuesta. De otra manera,
tomar una esquina vacía si existe. De otra manera,
tomar cualquier plaza vacía.

Muchos algoritmos de AI son capaces de aprender de los datos; pueden mejorar ellos mismos aprendiendo nuevas heurísticas (estrategias, o “reglas básicas”, que han funcionado bien en el pasado), o pueden escribir otros algoritmos. Algunos de los “aprendices” que se describen a continuación, incluidas las redes bayesianas, los árboles de decisión y el vecino más cercano, podrían, teóricamente, obtener datos, tiempo y memoria infinitos, aprender a aproximar cualquier función, incluida la combinación de funciones matemáticas que describa mejor el mundo entero. Por lo tanto, estos aprendices podrían, en teoría, derivar todo el conocimiento posible, considerando cada hipótesis posible y comparándola con los datos. En la práctica, casi nunca es posible considerar todas las posibilidades, debido al fenómeno de la “explosión combinatoria”, donde la cantidad de tiempo necesaria para resolver un problema crece de manera exponencial. Gran parte de la investigación en IA implica descubrir cómo identificar y evitar considerar amplias franjas de posibilidades que probablemente no serán fructíferas. Por ejemplo, al ver un mapa y buscar la ruta de viaje más corta desde Denver a Nueva York en el este, en la mayoría de los casos se puede evitar mirar cualquier camino a través de San Francisco u otras áreas lejanas al oeste; por lo tanto, una IA que maneja un algoritmo de búsqueda de caminos como A * puede evitar la explosión combinatoria que se produciría si todas las rutas posibles tuvieran que ser consideradas a su vez.

El enfoque más temprano (y más fácil de entender) de la IA fue el simbolismo (como la lógica formal): “Si un adulto sano tiene fiebre, es posible que tenga influenza”. Un segundo enfoque, más general, es la inferencia bayesiana: “Si el paciente actual tiene fiebre, ajuste la probabilidad de que tenga influenza de tal o cual manera”. El tercer enfoque importante, extremadamente popular en las aplicaciones de inteligencia de negocios de rutina, son los analizadores como SVM y el vecino más cercano: “Después de examinar los registros de pacientes anteriores conocidos cuya temperatura, síntomas, edad y otros factores coinciden principalmente con el paciente actual, X% de esos pacientes resultaron tener influenza “. Un cuarto enfoque es más difícil de entender intuitivamente, pero está inspirado en cómo funciona la maquinaria del cerebro: el enfoque de red neuronal artificial utiliza “neuronas” artificiales que pueden aprenderse comparándose con la salida deseada y alterando las fortalezas de las conexiones entre sus neuronas internas Para “reforzar” las conexiones que parecían ser útiles. Estos cuatro enfoques principales pueden superponerse entre sí y con los sistemas evolutivos; por ejemplo, las redes neuronales pueden aprender a hacer inferencias, generalizar y hacer analogías. Algunos sistemas utilizan implícita o explícitamente múltiples de estos enfoques, junto con muchos otros algoritmos de AI y no AI; El mejor enfoque es a menudo diferente dependiendo del problema.

Los algoritmos de aprendizaje funcionan sobre la base de que las estrategias, los algoritmos y las inferencias que funcionaron bien en el pasado probablemente continuarán funcionando bien en el futuro. Estas inferencias pueden ser obvias, como “ya que el sol salió cada mañana durante los últimos 10,000 días, probablemente también saldrá mañana por la mañana”. Pueden ser matizados, como “X% de las familias tienen especies separadas geográficamente con variantes de color, por lo que existe un Y% de probabilidad de que existan cisnes negros sin descubrir”. Los estudiantes también trabajan sobre la base de la “navaja de Occam”: la teoría más simple que explica los datos es la más probable. Por lo tanto, para tener éxito, un aprendiz debe diseñarse de tal manera que prefiera teorías más simples a teorías complejas, excepto en los casos en que la teoría compleja se demuestra sustancialmente mejor. Decidirse por una teoría mala y demasiado compleja que se adapta a todos los datos de entrenamiento anteriores se conoce como sobreajuste. Muchos sistemas intentan reducir el sobreajuste adaptando una teoría de acuerdo con lo bien que se ajusta a los datos, pero penalizando la teoría de acuerdo con lo compleja que es la teoría. Además del sobreajuste clásico, los aprendices también pueden decepcionar al “aprender la lección incorrecta”. Un ejemplo de juguete es que un clasificador de imágenes entrenado solo en imágenes de caballos marrones y gatos negros podría concluir que es probable que todos los parches marrones sean caballos. Un ejemplo del mundo real es que, a diferencia de los humanos, los clasificadores de imagen actuales no determinan la relación espacial entre los componentes de la imagen; en su lugar, aprenden patrones abstractos de píxeles que los humanos desconocen, pero que se correlacionan linealmente con imágenes de ciertos tipos de objetos reales. La superposición débil de dicho patrón en una imagen legítima da como resultado una imagen “contradictoria” que el sistema clasifica erróneamente.

En comparación con los humanos, la IA existente carece de varias características del “razonamiento de sentido común” humano; En particular, los humanos tienen poderosos mecanismos para razonar acerca de la “física ingenua”, como el espacio, el tiempo y las interacciones físicas. Esto permite que incluso los niños pequeños puedan hacer inferencias fácilmente como “Si saco este bolígrafo de una mesa, caerá al suelo”. Los humanos también tienen un poderoso mecanismo de “psicología popular” que les ayuda a interpretar oraciones en lenguaje natural como “Los concejales de la ciudad rechazaron el permiso de los manifestantes porque abogaban por la violencia”. (Una IA genérica tiene dificultades para inferir si los concejales o los manifestantes son los que presuntamente defienden la violencia). Esta falta de “conocimiento común” significa que la IA a menudo comete errores diferentes que los humanos, en formas que pueden parecer incomprensibles. Por ejemplo, los autos autosuficientes existentes no pueden razonar sobre la ubicación ni las intenciones de los peatones de la manera exacta en que lo hacen los humanos, y en su lugar deben usar modos de razonamiento no humanos para evitar accidentes.

Problemas
El objetivo general de investigación de la inteligencia artificial es crear tecnología que permita que las computadoras y las máquinas funcionen de manera inteligente. El problema general de simular (o crear) la inteligencia se ha dividido en sub-problemas. Estos consisten en rasgos o capacidades particulares que los investigadores esperan que muestre un sistema inteligente. Los rasgos que se describen a continuación han recibido la mayor atención.

Razonamiento, resolución de problemas.
Los primeros investigadores desarrollaron algoritmos que imitaban paso a paso el razonamiento que los humanos usan cuando resuelven acertijos o hacen deducciones lógicas. A fines de los años 80 y 90, la investigación de AI había desarrollado métodos para tratar con información incierta o incompleta, empleando conceptos de probabilidad y economía.

Estos algoritmos demostraron ser insuficientes para resolver grandes problemas de razonamiento, porque experimentaron una “explosión combinatoria”: se volvieron exponencialmente más lentos a medida que los problemas aumentaban. De hecho, incluso los humanos rara vez usan la deducción paso a paso que la investigación temprana de IA pudo modelar. Resuelven la mayoría de sus problemas usando juicios rápidos e intuitivos.

Representación del conocimiento
La representación del conocimiento y la ingeniería del conocimiento son fundamentales para la investigación clásica de la IA. Algunos “sistemas expertos” intentan reunir el conocimiento explícito que poseen los expertos en algún dominio estrecho. Además, algunos proyectos intentan reunir el “conocimiento del sentido común” conocido por la persona promedio en una base de datos que contiene un amplio conocimiento sobre el mundo. Entre las cosas que una base de conocimiento comprensiva de sentido común contendría están: objetos, propiedades, categorías y relaciones entre objetos; situaciones, eventos, estados y tiempo; causas y efectos; conocimiento sobre el conocimiento (lo que sabemos sobre lo que otras personas saben); y muchos otros dominios menos investigados. Una representación de “lo que existe” es una ontología: el conjunto de objetos, relaciones, conceptos y propiedades formalmente descritos para que los agentes de software puedan interpretarlos. La semántica de estos se captura como conceptos, roles e individuos de lógica de descripción, y se implementa normalmente como clases, propiedades e individuos en el lenguaje de ontología web. Las ontologías más generales se denominan ontologías superiores, que intentan proporcionar una base para todos los demás conocimientos al actuar como mediadores entre las ontologías de dominio que cubren conocimientos específicos sobre un dominio de conocimiento particular (campo de interés o área de interés). Estas representaciones de conocimiento formales se pueden utilizar en la indización y recuperación basadas en contenido, la interpretación de escenas, el apoyo a la decisión clínica, el descubrimiento de conocimientos (minería “interesante” y las inferencias procesables de grandes bases de datos), y otras áreas.

Entre los problemas más difíciles en la representación del conocimiento se encuentran:

Razonamiento por defecto y el problema de calificación.
Muchas de las cosas que la gente sabe toman la forma de “suposiciones de trabajo”. Por ejemplo, si un pájaro aparece en una conversación, la gente suele imaginarse a un animal que tiene el tamaño de un puño, canta y vuela. Ninguna de estas cosas es verdad sobre todas las aves. John McCarthy identificó este problema en 1969 como el problema de calificación: para cualquier regla de sentido común que los investigadores de AI quieran representar, suele haber un gran número de excepciones. Casi nada es simplemente verdadero o falso en la forma en que lo requiere la lógica abstracta. La investigación de AI ha explorado una serie de soluciones a este problema.

La amplitud del conocimiento del sentido común.
El número de hechos atómicos que la persona promedio conoce es muy grande. Los proyectos de investigación que intentan construir una base de conocimientos completa de conocimiento de sentido común (por ejemplo, Cyc) requieren enormes cantidades de ingeniería ontológica laboriosa; deben construirse, a mano, un concepto complicado a la vez.

La forma subsimbólica de algunos conocimientos de sentido común.
Gran parte de lo que la gente sabe no se representa como “hechos” o “declaraciones” que podrían expresar verbalmente. Por ejemplo, un maestro de ajedrez evitará una posición de ajedrez en particular porque “se siente demasiado expuesto” o un crítico de arte puede echar un vistazo a una estatua y darse cuenta de que es una falsificación. Estas son intuiciones o tendencias no conscientes y sub-simbólicas en el cerebro humano. El conocimiento como este informa, apoya y proporciona un contexto para el conocimiento simbólico y consciente. Al igual que con el problema relacionado del razonamiento sub-simbólico, se espera que la IA situada, la inteligencia computacional o la IA estadística proporcionen formas de representar este tipo de conocimiento.

Planificación
Los agentes inteligentes deben ser capaces de establecer metas y alcanzarlas. Necesitan una forma de visualizar el futuro: una representación del estado del mundo y ser capaces de hacer predicciones sobre cómo sus acciones lo cambiarán, y ser capaces de tomar decisiones que maximicen la utilidad (o “valor”) de las opciones disponibles. .

En los problemas de planificación clásicos, el agente puede asumir que es el único sistema que actúa en el mundo, lo que permite que el agente esté seguro de las consecuencias de sus acciones. Sin embargo, si el agente no es el único actor, entonces requiere que el agente pueda razonar bajo incertidumbre. Esto requiere un agente que no solo pueda evaluar su entorno y hacer predicciones, sino también evaluar sus predicciones y adaptarse según su evaluación.

La planificación multiagente utiliza la cooperación y la competencia de muchos agentes para lograr un objetivo determinado. Comportamientos emergentes como este son utilizados por algoritmos evolutivos e inteligencia de enjambres.

Aprendizaje
El aprendizaje automático, un concepto fundamental de la investigación en IA desde el inicio del campo, es el estudio de algoritmos informáticos que mejoran automáticamente a través de la experiencia.

El aprendizaje no supervisado es la capacidad de encontrar patrones en un flujo de información. El aprendizaje supervisado incluye tanto la clasificación como la regresión numérica. La clasificación se usa para determinar a qué categoría pertenece algo, después de ver una serie de ejemplos de cosas de varias categorías. La regresión es el intento de producir una función que describe la relación entre entradas y salidas y predice cómo deben cambiar las salidas a medida que cambian las entradas. Tanto los clasificadores como los estudiantes de regresión se pueden ver como “aproximadores de funciones” que intentan aprender una función desconocida (posiblemente implícita); por ejemplo, un clasificador de spam se puede ver como aprender una función que se asigna del texto de un correo electrónico a una de dos categorías, “spam” o “no spam”. La teoría del aprendizaje computacional puede evaluar a los alumnos por la complejidad computacional, por la complejidad de la muestra (cuántos datos se requieren), o por otras nociones de optimización. En el aprendizaje por refuerzo, el agente es recompensado por las buenas respuestas y castigado por las malas. El agente utiliza esta secuencia de recompensas y castigos para formar una estrategia para operar en su espacio problemático.

Procesamiento natural del lenguaje
El procesamiento del lenguaje natural (PNL) brinda a las máquinas la capacidad de leer y comprender el lenguaje humano. Un sistema de procesamiento de lenguaje natural suficientemente poderoso permitiría interfaces de usuario en lenguaje natural y la adquisición de conocimiento directamente de fuentes escritas por humanos, como textos de noticias. Algunas aplicaciones directas del procesamiento del lenguaje natural incluyen recuperación de información, extracción de texto, respuesta a preguntas y traducción automática. Muchos enfoques actuales utilizan frecuencias de co-ocurrencia de palabras para construir representaciones sintácticas de texto. Las estrategias de búsqueda de “localización de palabras clave” son populares y escalables pero tontas; una consulta de búsqueda para “perro” solo puede hacer coincidir documentos con la palabra literal “perro” y perder un documento con la palabra “caniche”. Las estrategias de “afinidad léxica” utilizan la aparición de palabras como “accidente” para evaluar el sentimiento de un documento. Los enfoques estadísticos modernos de PNL pueden combinar todas estas estrategias y otras, y con frecuencia logran una precisión aceptable a nivel de página o párrafo, pero siguen careciendo de la comprensión semántica requerida para clasificar bien las oraciones aisladas. Además de las dificultades habituales para codificar el conocimiento del sentido común semántico, la PNL semántica existente a veces se escala demasiado mal para ser viable en aplicaciones empresariales. Más allá de la PNL semántica, el objetivo final de la PNL “narrativa” es incorporar una comprensión completa del razonamiento de sentido común.

Percepción
La percepción de la máquina es la capacidad de utilizar la entrada de sensores (como cámaras (espectro visible o infrarrojo), micrófonos, señales inalámbricas y sensores lidar, sonar, radares y táctiles activos) para deducir aspectos del mundo. Las aplicaciones incluyen reconocimiento de voz, reconocimiento facial y reconocimiento de objetos. La visión artificial es la capacidad de analizar la entrada visual. Tal entrada suele ser ambigua; un peatón gigante de cincuenta metros de altura puede producir exactamente los mismos píxeles que un peatón de tamaño normal cercano, lo que requiere que la IA juzgue la probabilidad relativa y la razonabilidad de diferentes interpretaciones, por ejemplo, utilizando su “modelo de objeto” para evaluar Que no existan peatones de cincuenta metros.

Movimiento y manipulacion
La IA es muy utilizada en robótica. Los brazos robóticos avanzados y otros robots industriales, ampliamente utilizados en fábricas modernas, pueden aprender de la experiencia cómo moverse de manera eficiente a pesar de la presencia de fricción y deslizamiento de engranajes. Un robot móvil moderno, cuando se le proporciona un entorno pequeño, estático y visible, puede determinar fácilmente su ubicación y mapear su entorno; sin embargo, los entornos dinámicos, como (en la endoscopia) el interior del cuerpo respiratorio del paciente, plantean un desafío mayor. La planificación del movimiento es el proceso de descomponer una tarea de movimiento en “primitivas”, como los movimientos conjuntos individuales. Tal movimiento a menudo involucra movimiento obediente, un proceso donde el movimiento requiere mantener contacto físico con un objeto. La paradoja de Moravec generaliza que las habilidades sensoriomotoras de bajo nivel que los humanos dan por sentado son, contraintuitivamente, difíciles de programar en un robot; la paradoja lleva el nombre de Hans Moravec, quien afirmó en 1988 que “es comparativamente fácil hacer que las computadoras exhiban un rendimiento de nivel adulto en pruebas de inteligencia o jugar a las damas, y es difícil o imposible darles las habilidades de un niño de un año cuando Se trata de la percepción y la movilidad “. Esto se atribuye al hecho de que, a diferencia de los inspectores, la destreza física ha sido un objetivo directo de la selección natural durante millones de años.

Inteligencia social
La paradoja de Moravec se puede extender a muchas formas de inteligencia social. La coordinación multiagente distribuida de vehículos autónomos sigue siendo un problema difícil. La computación afectiva es un paraguas interdisciplinario que comprende sistemas que reconocen, interpretan, procesan o simulan efectos humanos. Los éxitos moderados relacionados con la computación afectiva incluyen el análisis del sentimiento textual y, más recientemente, el análisis del afecto multimodal (consulte el análisis del sentimiento multimodal), en el que AI clasifica los afectos mostrados por un sujeto grabado en video.

A largo plazo, las habilidades sociales y la comprensión de las emociones humanas y la teoría de juegos serían valiosas para un agente social. Ser capaz de predecir las acciones de otros mediante la comprensión de sus motivos y estados emocionales permitiría a un agente tomar mejores decisiones. Algunos sistemas informáticos imitan la emoción y las expresiones humanas para que parezcan más sensibles a la dinámica emocional de la interacción humana, o para facilitar la interacción persona-computadora. De manera similar, algunos asistentes virtuales están programados para hablar conversacionalmente o incluso para bromear con humor; esto tiende a dar a los usuarios ingenuos una concepción poco realista de cuán inteligentes son realmente los agentes informáticos existentes.

Inteligencia general
Históricamente, proyectos como la base de conocimientos Cyc (1984–) y la iniciativa masiva japonesa de sistemas de computación de quinta generación (1982–1992) intentaron cubrir la amplitud de la cognición humana. Estos primeros proyectos no lograron escapar a las limitaciones de los modelos lógicos simbólicos no cuantitativos y, en retrospectiva, subestimaron enormemente la dificultad de la IA entre dominios. Hoy en día, la gran mayoría de los investigadores actuales de la IA trabajan en su lugar en aplicaciones de “IA estrecha” (como el diagnóstico médico o la navegación en automóviles). Muchos investigadores predicen que dicho trabajo de “IA estrecha” en diferentes dominios individuales se incorporará en una máquina con inteligencia general artificial (AGI), combinando la mayoría de las habilidades limitadas mencionadas en este artículo y, en algún momento, incluso superando la capacidad humana en la mayoría o Todas estas áreas. Muchos avances tienen una importancia general, de dominio cruzado. Un ejemplo de alto perfil es que DeepMind en la década de 2010 desarrolló una “inteligencia artificial generalizada” que podía aprender muchos juegos de Atari diversos por sí misma, y ​​luego desarrolló una variante del sistema que tiene éxito en el aprendizaje secuencial. Además del aprendizaje por transferencia, los avances hipotéticos de la AGI podrían incluir el desarrollo de arquitecturas reflexivas que puedan involucrarse en el metareasoning de la teoría de la decisión, y descubrir cómo “absorber” una base de conocimiento integral de toda la Web no estructurada. Algunos argumentan que algún tipo de “algoritmo maestro” (actualmente no descubierto) conceptualmente sencillo, pero matemáticamente difícil, podría llevar a un AGI. Finalmente, algunos enfoques “emergentes” buscan simular la inteligencia humana de manera extremadamente cercana, y creen que las características antropomórficas como un cerebro artificial o el desarrollo de un niño simulado pueden algún día alcanzar un punto crítico donde emerge la inteligencia general.

Muchos de los problemas en este artículo también pueden requerir inteligencia general, si las máquinas deben resolver los problemas como lo hacen las personas. Por ejemplo, incluso las tareas sencillas específicas, como la traducción automática, requieren que la máquina lea y escriba en ambos idiomas (PNL), siga el argumento del autor (razón), sepa de qué se habla (conocimiento) y reproduzca fielmente el original del autor. intención (inteligencia social). Un problema como la traducción automática se considera “AI-completo”, porque todos estos problemas deben resolverse simultáneamente para alcanzar el rendimiento de la máquina a nivel humano.