Filosofía de la inteligencia artificial.

La inteligencia artificial tiene conexiones cercanas con la filosofía porque ambos comparten varios conceptos e incluyen inteligencia, acción, conciencia, epistemología e incluso libre albedrío. Además, la tecnología está relacionada con la creación de animales artificiales o personas artificiales (o, al menos, criaturas artificiales), por lo que la disciplina es de gran interés para los filósofos. Estos factores contribuyeron al surgimiento de la filosofía de la inteligencia artificial. Algunos estudiosos argumentan que el despido de la filosofía por parte de la comunidad de AI es perjudicial.

La filosofía de la inteligencia artificial intenta responder a las siguientes preguntas:

¿Puede una máquina actuar inteligentemente? ¿Puede resolver cualquier problema que una persona resolvería pensando?
¿Son la inteligencia humana y la inteligencia de la máquina lo mismo? ¿Es el cerebro humano esencialmente una computadora?
¿Puede una máquina tener una mente, estados mentales y conciencia de la misma manera que un ser humano puede? ¿Se puede sentir cómo son las cosas?

Estas tres preguntas reflejan los intereses divergentes de los investigadores de IA, lingüistas, científicos cognitivos y filósofos, respectivamente. Las respuestas científicas a estas preguntas dependen de la definición de «inteligencia» y «conciencia» y exactamente qué «máquinas» están en discusión.

Las proposiciones importantes en la filosofía de la IA incluyen:

La «convención cortés» de Turing: si una máquina se comporta tan inteligentemente como un ser humano, entonces es tan inteligente como un ser humano.
La propuesta de Dartmouth: «Todos los aspectos del aprendizaje o cualquier otra característica de la inteligencia pueden describirse de manera tan precisa que se puede crear una máquina para simularla».
Hipótesis del sistema de símbolos físicos de Newell y Simon: «Un sistema de símbolos físicos tiene los medios necesarios y suficientes para una acción inteligente general».
La sólida hipótesis de AI de Searle: «La computadora debidamente programada con las entradas y salidas correctas tendría una mente exactamente igual que los seres humanos».
El mecanismo de Hobbes: «Por ‘razón’ … no es más que ‘cálculo’, es decir, sumar y restar, de las consecuencias de los nombres generales acordados para ‘marcar’ y ‘significar’ nuestros pensamientos …»

¿Puede una máquina mostrar inteligencia general?
¿Es posible crear una máquina que pueda resolver todos los problemas que los humanos resuelven usando su inteligencia? Esta pregunta define el alcance de lo que las máquinas podrán hacer en el futuro y guía la dirección de la investigación de la IA. Solo se refiere al comportamiento de las máquinas e ignora los temas de interés para psicólogos, científicos cognitivos y filósofos; Para responder a esta pregunta, no importa si una máquina está realmente pensando (como piensa una persona) o simplemente actúa como si estuviera pensando.

La posición básica de la mayoría de los investigadores de IA se resume en esta declaración, que apareció en la propuesta para el taller de Dartmouth de 1956:

Todos los aspectos del aprendizaje o cualquier otra característica de la inteligencia se pueden describir de manera tan precisa que se puede hacer que una máquina simule eso.
Los argumentos en contra de la premisa básica deben mostrar que construir un sistema de AI funcional es imposible, porque existe un límite práctico para las habilidades de las computadoras o que existe una cualidad especial de la mente humana que es necesaria para pensar y que, sin embargo, no puede ser duplicada por un Máquina (o por los métodos de investigación actuales de la IA). Los argumentos a favor de la premisa básica deben mostrar que tal sistema es posible.

El primer paso para responder a la pregunta es definir claramente «inteligencia».

Inteligencia

prueba de Turing
Alan Turing redujo el problema de definir la inteligencia a una pregunta simple sobre la conversación. Él sugiere que: si una máquina puede responder cualquier pregunta que se le haga, usando las mismas palabras que una persona común y corriente, entonces podemos llamar inteligente a esa máquina. Una versión moderna de su diseño experimental usaría una sala de chat en línea, donde uno de los participantes es una persona real y uno de los participantes es un programa de computadora. El programa pasa la prueba si nadie puede decir cuál de los dos participantes es humano. Turing señala que nadie (excepto los filósofos) se pregunta «¿puede pensar la gente?» Él escribe «en lugar de discutir continuamente sobre este punto, es usual tener una convención educada que todos piensan». La prueba de Turing extiende esta convención cortés a las máquinas:

Si una máquina actúa tan inteligentemente como un ser humano, entonces es tan inteligente como un ser humano.
Una crítica de la prueba de Turing es que es explícitamente antropomórfica. Si nuestro objetivo final es crear máquinas que sean más inteligentes que las personas, ¿por qué deberíamos insistir en que nuestras máquinas deben parecerse mucho a las personas? [Esta cita necesita una cita] Russell y Norvig escriben que «los textos de ingeniería aeronáutica no definen el objetivo de su campo como ‘hacer máquinas que vuelan tan exactamente como palomas que pueden engañar a otras palomas’ «.

Definición de agente inteligente

La investigación reciente de AI define la inteligencia en términos de agentes inteligentes. Un «agente» es algo que percibe y actúa en un entorno. Una «medida de rendimiento» define lo que cuenta como éxito para el agente.

Si un agente actúa para maximizar el valor esperado de una medida de desempeño basada en la experiencia y el conocimiento pasados, entonces es inteligente.
Definiciones como esta intentan captar la esencia de la inteligencia. Tienen la ventaja de que, a diferencia de la prueba de Turing, no prueban también los rasgos humanos que nosotros [¿quién?] No queremos considerar inteligentes, como la capacidad de ser insultado o la tentación de mentir [dudoso – discutir]. Tienen la desventaja de que no logran hacer el sentido común [cuando se define como?] Diferenciación entre «cosas que piensan» y «cosas que no». Según esta definición, incluso un termostato tiene una inteligencia rudimentaria.

Argumentos de que una máquina puede mostrar inteligencia general.

El cerebro puede ser simulado
Hubert Dreyfus describe este argumento como afirmativo de que «si el sistema nervioso obedece a las leyes de la física y la química, lo cual tenemos todos los motivos para suponer que sí, entonces … deberíamos poder reproducir el comportamiento del Sistema nervioso con algún dispositivo físico «. Este argumento, introducido por primera vez en 1943 y descrito vívidamente por Hans Moravec en 1988, ahora está asociado con el futurista Ray Kurzweil, quien estima que la potencia de la computadora será suficiente para una simulación cerebral completa para el año 2029. Un tiempo no real la simulación de un modelo tálamocortical que tiene el tamaño del cerebro humano (1011 neuronas) se realizó en 2005 y se tardó 50 días en simular 1 segundo de dinámica cerebral en un grupo de 27 procesadores.

Pocos [cuantifican] no están de acuerdo en que una simulación cerebral es posible en teoría, [¿de acuerdo con quién?], Incluso críticos de la IA como Hubert Dreyfus y John Searle. Sin embargo, Searle señala que, en principio, cualquier cosa puede ser simulada por una computadora; por lo tanto, llevar la definición a su punto de ruptura lleva a la conclusión de que cualquier proceso puede considerarse técnicamente como «cálculo». «Lo que queríamos saber es qué distingue la mente de los termostatos y los hígados», escribe. Por lo tanto, simplemente imitar el funcionamiento de un cerebro sería en sí mismo una admisión de ignorancia con respecto a la inteligencia y la naturaleza de la mente.

El pensamiento humano es el procesamiento de símbolos.
En 1963, Allen Newell y Herbert A. Simon propusieron que la «manipulación de símbolos» era la esencia de la inteligencia humana y de la máquina. Ellos escribieron:

Un sistema de símbolos físicos tiene los medios necesarios y suficientes de acción inteligente general.
Esta afirmación es muy fuerte: implica que el pensamiento humano es un tipo de manipulación de símbolos (porque un sistema de símbolos es necesario para la inteligencia) y que las máquinas pueden ser inteligentes (porque un sistema de símbolos es suficiente para la inteligencia). Otra versión de esta posición fue descrita por el filósofo Hubert Dreyfus, quien la llamó «la suposición psicológica»:

La mente puede verse como un dispositivo que opera con bits de información de acuerdo con reglas formales.
Generalmente se hace una distinción [¿por quién?] Entre el tipo de símbolos de alto nivel que se corresponden directamente con los objetos en el mundo, como y y los «símbolos» más complejos que están presentes en una máquina como una red neuronal. Las primeras investigaciones sobre la IA, llamadas «buena inteligencia artificial pasada de moda» (GOFAI) por John Haugeland, se centraron en este tipo de símbolos de alto nivel.

Argumentos contra el procesamiento de símbolos
Estos argumentos muestran que el pensamiento humano no consiste (únicamente) en la manipulación de símbolos de alto nivel. No muestran que la inteligencia artificial sea imposible, solo que se requiere más que el procesamiento de símbolos.

Argumentos anti-mecanicistas gödelianos.
En 1931, Kurt Gödel demostró con un teorema incompleto que siempre es posible construir una «declaración de Gödel» que un determinado sistema de lógica formal consistente (como un programa de manipulación de símbolos de alto nivel) no pudiera probar. A pesar de ser una declaración verdadera, la declaración Gödel construida no es demostrable en el sistema dado. (La verdad de la declaración de Gödel construida depende de la consistencia del sistema dado; aplicar el mismo proceso a un sistema sutilmente inconsistente parecerá tener éxito, pero en realidad producirá una «declaración de Gödel» falsa). Más especulativamente, Gödel conjeturó que la mente humana puede determinar correctamente la verdad o falsedad de cualquier afirmación matemática bien fundamentada (incluida cualquier posible afirmación de Gödel), y que, por lo tanto, el poder de la mente humana no se puede reducir a un mecanismo. El filósofo John Lucas (desde 1961) y Roger Penrose (desde 1989) han defendido este argumento filosófico anti-mecanicista. Los argumentos anti-mecanicistas gödelianos tienden a basarse en la afirmación de apariencia inocua de que un sistema de matemáticos humanos (o alguna idealización de matemáticos humanos) es consistente (completamente libre de errores) y cree completamente en su propia consistencia (y puede hacer todo lógico inferencias que siguen de su propia consistencia, incluida la creencia en su declaración de Gödel). Esto es probablemente imposible para una máquina de Turing [aclaración necesaria] (y, por una extensión informal, cualquier tipo de computadora mecánica conocida) para hacer; por lo tanto, el Gödelian concluye que el razonamiento humano es demasiado poderoso para ser capturado en una máquina [dudoso – discutir].

Sin embargo, el consenso moderno en la comunidad científica y matemática es que el razonamiento humano real es inconsistente; que cualquier H «versión idealizada» consistente del razonamiento humano se vería obligada lógicamente a adoptar un escepticismo de mentalidad abierta, contraintuitivo y saludable sobre la consistencia de H (de lo contrario, H es probablemente inconsistente); y que los teoremas de Gödel no llevan a ningún argumento válido de que los humanos tengan capacidades de razonamiento matemático más allá de lo que una máquina podría duplicar. Este consenso de que los argumentos anti-mecanicistas de Gödelian están condenados al fracaso se presenta con fuerza en la Inteligencia Artificial: «cualquier intento de utilizar (los resultados incompletos de Gödel) para atacar la tesis computacionalista será ilegítimo, ya que estos resultados son bastante consistentes con el computacionalista. tesis.»

Más pragmáticamente, Russell y Norvig señalan que el argumento de Gödel solo se aplica a lo que, en teoría, puede probarse, dada una cantidad infinita de memoria y tiempo. En la práctica, las máquinas reales (incluidos los humanos) tienen recursos finitos y tendrán dificultades para probar muchos teoremas. No es necesario probar todo para ser inteligente [cuando se define como?].

De manera menos formal, Douglas Hofstadter, en su libro ganador del premio Pulitzer Gödel, Escher, Bach: An Eternal Golden Braid, afirma que estas «declaraciones de Gödel» siempre se refieren al sistema en sí, haciendo una analogía a la forma en que la paradoja de Epiménides usa declaraciones que referirse a sí mismos, como «esta declaración es falsa» o «estoy mintiendo». Pero, por supuesto, la paradoja de Epimenides se aplica a cualquier cosa que haga afirmaciones, ya sean máquinas o humanos, incluso el propio Lucas. Considerar:

Lucas no puede afirmar la verdad de esta afirmación.
Esta afirmación es cierta pero no puede ser afirmada por Lucas. Esto muestra que el mismo Lucas está sujeto a los mismos límites que describe para las máquinas, como lo son todas las personas, y por lo tanto el argumento de Lucas no tiene sentido.

Después de concluir que el razonamiento humano no es computable, Penrose especuló controversialmente que algún tipo de procesos hipotéticos no computables que involucran el colapso de los estados mecánicos cuánticos le dan a los humanos una ventaja especial sobre las computadoras existentes. Las computadoras cuánticas existentes solo son capaces de reducir la complejidad de las tareas computables de Turing y todavía están restringidas a tareas dentro del alcance de las máquinas de Turing. [Aclaración necesaria]. Por los argumentos de Penrose y Lucas, las computadoras cuánticas existentes no son suficientes [aclaración necesaria] [¿por qué?], Por lo que Penrose busca algún otro proceso que involucre nueva física, por ejemplo la gravedad cuántica que pueda manifestar nuevas físicas a la escala de la masa de Planck a través de la espontánea Colapso cuántico de la función de onda. Estos estados, sugirió, ocurren tanto dentro de las neuronas como también abarcando más de una neurona. Sin embargo, otros científicos señalan que no existe un mecanismo orgánico plausible en el cerebro para aprovechar cualquier tipo de cálculo cuántico y, además, que la escala de tiempo de la decoherencia parece demasiado rápida para influir en el disparo de las neuronas.

Dreyfus: la primacía de las habilidades inconscientes.
Hubert Dreyfus argumentó que la inteligencia y la experiencia humanas dependían principalmente de instintos inconscientes en lugar de la manipulación simbólica consciente, y argumentó que estas habilidades inconscientes nunca serían capturadas en reglas formales.

El argumento de Dreyfus había sido anticipado por Turing en su artículo de 1950 Computing machinery and intelligence, donde había clasificado esto como el «argumento de la informalidad del comportamiento». Turing argumentó en respuesta que, simplemente porque no conocemos las reglas que gobiernan un comportamiento complejo, esto no significa que no existan tales reglas. Escribió: «no podemos convencernos tan fácilmente de la ausencia de leyes completas de comportamiento … La única manera que conocemos para encontrar tales leyes es la observación científica, y ciertamente no conocemos ninguna circunstancia en la que podamos decir: ‘Nosotros He buscado lo suficiente. No existen tales leyes ‘».

Russell y Norvig señalan que, en los años transcurridos desde que Dreyfus publicó su crítica, se ha avanzado hacia el descubrimiento de las «reglas» que rigen el razonamiento inconsciente. El movimiento situado en la investigación robótica intenta capturar nuestras habilidades inconscientes en la percepción y la atención. Los paradigmas de la inteligencia computacional, como las redes neuronales, los algoritmos evolutivos, etc., se dirigen principalmente al razonamiento y aprendizaje inconscientes simulados. Los enfoques estadísticos de la IA pueden hacer predicciones que se aproximan a la precisión de las conjeturas intuitivas humanas. La investigación en el conocimiento del sentido común se ha centrado en reproducir el «fondo» o el contexto del conocimiento. De hecho, la investigación de la IA en general se ha alejado de la manipulación de símbolos de alto nivel o «GOFAI», hacia nuevos modelos que pretenden capturar más de nuestro razonamiento inconsciente [¿de acuerdo con quién?]. El historiador e investigador de inteligencia artificial Daniel Crevier escribió que «el tiempo ha demostrado la precisión y la percepción de algunos de los comentarios de Dreyfus. Si los hubiera formulado de manera menos agresiva, las acciones constructivas que sugirieron podrían haberse tomado mucho antes».

¿Puede una máquina tener mente, conciencia y estados mentales?
Esta es una pregunta filosófica, relacionada con el problema de otras mentes y el difícil problema de la conciencia. La pregunta gira en torno a una posición definida por John Searle como «IA fuerte»:

Un sistema de símbolos físicos puede tener una mente y estados mentales.
Searle distinguió esta posición de lo que llamó «IA débil»:

Un sistema de símbolos físicos puede actuar inteligentemente.
Searle introdujo los términos para aislar a la IA fuerte de la IA débil para que pudiera concentrarse en lo que él pensaba que era el tema más interesante y discutible. Argumentó que incluso si asumimos que teníamos un programa de computadora que actuaba exactamente como una mente humana, todavía habría una pregunta filosófica difícil que debía ser respondida.

Ninguna de las dos posiciones de Searle son de gran preocupación para la investigación de AI, ya que no responden directamente a la pregunta «¿puede una máquina mostrar inteligencia general?» (a menos que también se pueda demostrar que la conciencia es necesaria para la inteligencia). Turing escribió: «No deseo dar la impresión de que creo que no hay ningún misterio sobre la conciencia … pero no creo que estos misterios deban resolverse necesariamente antes de que podamos responder la pregunta [de si las máquinas pueden pensar]». Russell y Norvig están de acuerdo: «La mayoría de los investigadores de la IA dan por sentado la débil hipótesis de la IA, y no les importa la fuerte hipótesis de la IA».

Hay algunos investigadores que creen que la conciencia es un elemento esencial en la inteligencia, como Igor Aleksander, Stan Franklin, Ron Sun y Pentti Haikonen, aunque su definición de «conciencia» se acerca mucho a la «inteligencia». (Ver conciencia artificial.)

Antes de que podamos responder a esta pregunta, debemos tener claro qué entendemos por «mentes», «estados mentales» y «conciencia».

Conciencia, mentes, estados mentales, sentido.
Las palabras «mente» y «conciencia» son utilizadas por diferentes comunidades de diferentes maneras. Algunos pensadores de la nueva era, por ejemplo, usan la palabra «conciencia» para describir algo similar al «élan vital» de Bergson: un fluido invisible, energético que impregna la vida y especialmente la mente. Los escritores de ciencia ficción usan la palabra para describir alguna propiedad esencial que nos hace humanos: una máquina o alienígena que es «consciente» se presentará como un personaje completamente humano, con inteligencia, deseos, voluntad, perspicacia, orgullo, etc. (Los escritores de ciencia ficción también usan las palabras «sensibilidad», «sapiencia», «autoconciencia» o «fantasma», como en la serie de manga y anime de Ghost in the Shell, para describir esta propiedad humana esencial). Para otros [¿quién?], Las palabras «mente» o «conciencia» se usan como una especie de sinónimo secular para el alma.

Para los filósofos, los neurocientíficos y los científicos cognitivos, las palabras se usan de una manera más precisa y más mundana: se refieren a la experiencia cotidiana y familiar de tener un «pensamiento en tu cabeza», como una percepción, un sueño, un sueño. intención o un plan, y de la forma en que sabemos algo, o significamos algo o entendemos algo. «No es difícil dar una definición de conciencia de sentido común», observa el filósofo John Searle. Lo que es misterioso y fascinante no es tanto lo que es sino cómo es: ¿cómo un bulto de tejido graso y electricidad da lugar a esta experiencia (familiar) de percepción, significado o pensamiento?

Los filósofos llaman a esto el difícil problema de la conciencia. Es la última versión de un problema clásico en la filosofía de la mente llamado «problema mente-cuerpo». Un problema relacionado es el problema del significado o la comprensión (que los filósofos llaman «intencionalidad»): ¿cuál es la conexión entre nuestros pensamientos y qué estamos pensando (es decir, los objetos y las situaciones en el mundo)? Un tercer problema es el problema de la experiencia (o «fenomenología»): si dos personas ven lo mismo, ¿tienen la misma experiencia? ¿O hay cosas «dentro de su cabeza» (llamadas «qualia») que pueden ser diferentes de una persona a otra?

Habitación china de searle
John Searle nos pide que consideremos un experimento mental: supongamos que hemos escrito un programa de computadora que pasa la prueba de Turing y demuestra «acción general inteligente». Supongamos, específicamente, que el programa puede conversar en chino fluido. Escriba el programa en tarjetas de 3×5 y entréguelas a una persona común que no hable chino. Asegure a la persona en una habitación y haga que siga las instrucciones de las tarjetas. Copiará los caracteres chinos y los pasará dentro y fuera de la sala a través de una ranura. Desde el exterior, parecerá que la sala china contiene una persona totalmente inteligente que habla chino. La pregunta es esta: ¿hay alguien (o algo) en la habitación que entienda chino? Es decir, ¿hay algo que tenga el estado mental de comprensión o que tenga conciencia de lo que se discute en chino? El hombre claramente no es consciente. La habitación no puede ser consciente. Las cartas ciertamente no son conscientes. Searle concluye que la sala china, o cualquier otro sistema de símbolos físicos, no puede tener una mente.

Searle continúa argumentando que los estados mentales y la conciencia reales requieren (aún por describirse) las «propiedades físico-químicas reales de los cerebros humanos reales». Argumenta que hay «propiedades causales» especiales de los cerebros y las neuronas que dan origen a las mentes: en sus palabras «los cerebros causan las mentes».

Gottfried Leibniz hizo esencialmente el mismo argumento que Searle en 1714, utilizando el experimento mental de expandir el cerebro hasta que tenía el tamaño de un molino. En 1974, Lawrence Davis imaginó duplicar el cerebro utilizando líneas telefónicas y oficinas atendidas por personas, y en 1978 Ned Block imaginó a toda la población de China involucrada en tal simulación cerebral. Este experimento mental se llama «la nación china» o «el gimnasio chino». Ned Block también propuso su argumento Blockhead, que es una versión de la sala china en la que el programa ha sido re-factorizado en un conjunto simple de reglas de la forma «vea esto, haga eso», eliminando todo misterio del programa.

Respuestas a la sala china.
Las respuestas a la sala china enfatizan varios puntos diferentes.

La respuesta del sistema y la respuesta de la mente virtual: esta respuesta sostiene que el sistema, incluido el hombre, el programa, la sala y las tarjetas, es lo que entiende el chino. Searle afirma que el hombre en la habitación es lo único que podría «tener una mente» o «entender», pero otros no están de acuerdo, argumentando que es posible que haya dos mentes en el mismo lugar físico, similar al modo una computadora puede simultáneamente «ser» dos máquinas a la vez: una física (como una Macintosh) y una «virtual» (como un procesador de textos).
Respuestas de velocidad, potencia y complejidad: varios críticos señalan que el hombre de la habitación probablemente tardaría millones de años en responder a una pregunta simple y requeriría «archivadores» de proporciones astronómicas. Esto pone en duda la claridad de la intuición de Searle.
Respuesta del robot: para comprender realmente, algunos creen que la sala china necesita ojos y manos. Hans Moravec escribe: «Si pudiéramos injertar a un robot en un programa de razonamiento, ya no necesitaríamos a una persona que proporcione el significado: vendría del mundo físico».
Respuesta del simulador de cerebro: ¿Qué sucede si el programa simula la secuencia de disparos de nervios en las sinapsis de un cerebro real de un hablante chino real? El hombre en la habitación estaría simulando un cerebro real. Esta es una variación de la «respuesta de los sistemas» que parece más plausible porque «el sistema» ahora funciona claramente como un cerebro humano, lo que refuerza la intuición de que hay algo más que el hombre en la sala que podría entender chino.
Otras mentes responden y los epifenómenos responden: varias personas han notado que el argumento de Searle es solo una versión del problema de otras mentes, aplicado a las máquinas. Dado que es difícil decidir si la gente está «realmente» pensando, no debería sorprendernos que sea difícil responder la misma pregunta sobre las máquinas.

¿Pensar es una especie de computación?
La teoría de la computación de la mente o «computacionalismo» afirma que la relación entre la mente y el cerebro es similar (si no idéntica) a la relación entre un programa en ejecución y una computadora. La idea tiene raíces filosóficas en Hobbes (quien sostenía que el razonamiento era «nada más que un cálculo»), Leibniz (que intentó crear un cálculo lógico de todas las ideas humanas), Hume (que pensaba que la percepción podía reducirse a «impresiones atómicas») y incluso Kant (quien analizó toda la experiencia como controlada por reglas formales). La última versión está asociada con los filósofos Hilary Putnam y Jerry Fodor.

Esta pregunta se refiere a nuestras preguntas anteriores: si el cerebro humano es un tipo de computadora, las computadoras pueden ser inteligentes y conscientes, respondiendo tanto a las preguntas prácticas como a las filosóficas de la IA. En términos de la pregunta práctica de la IA («¿Puede una máquina mostrar inteligencia general?»), Algunas versiones del computacionalismo afirman que (como escribió Hobbes):

El razonamiento no es más que un cálculo de cuentas
En otras palabras, nuestra inteligencia se deriva de una forma de cálculo, similar a la aritmética. Esta es la hipótesis del sistema de símbolos físicos discutida anteriormente, e implica que la inteligencia artificial es posible. En términos de la pregunta filosófica de la IA («¿Puede una máquina tener mente, estados mentales y conciencia?»), La mayoría de las versiones del computacionalismo afirman que (como lo caracteriza Stevan Harnad):

Los estados mentales son solo implementaciones de los programas de computadora (el derecho)
Esta es la «IA fuerte» de John Searle discutida anteriormente, y es el verdadero objetivo del argumento de la sala china (según Harnad).

Otras preguntas relacionadas
Alan Turing señaló que hay muchos argumentos de la forma «una máquina nunca hará X», donde X puede ser muchas cosas, como:

Sea amable, ingenioso, bello, amigable, tenga iniciativa, tenga sentido del humor, corrija el error, cometa errores, se enamore, disfrute las fresas y la crema, haga que alguien se enamore de él, aprenda de la experiencia, use las palabras correctamente , sea el sujeto de su propio pensamiento, tenga tanta diversidad de comportamiento como un hombre, haga algo realmente nuevo.

¿Puede una máquina tener emociones?
Si las «emociones» se definen solo en términos de su efecto en el comportamiento o en cómo funcionan dentro de un organismo, entonces las emociones se pueden ver como un mecanismo que un agente inteligente utiliza para maximizar la utilidad de sus acciones. Dada esta definición de emoción, Hans Moravec cree que «los robots en general serán bastante emocionales acerca de ser buenas personas». El miedo es una fuente de urgencia. La empatía es un componente necesario de la buena interacción de la computadora humana. Él dice que los robots «tratarán de complacerte de una manera aparentemente desinteresada porque se sentirá emocionado con este refuerzo positivo. Puedes interpretar esto como un tipo de amor». Daniel Crevier escribe: «El punto de Moravec es que las emociones son simplemente dispositivos para canalizar el comportamiento en una dirección beneficiosa para la supervivencia de la especie».

Sin embargo, las emociones también pueden definirse en términos de su calidad subjetiva, de lo que se siente tener una emoción. La pregunta de si la máquina realmente siente una emoción, o si simplemente actúa como si estuviera sintiendo una emoción es la pregunta filosófica, «¿puede una máquina ser consciente?» en otra forma.

¿Puede una máquina ser consciente de sí misma?
La autoconciencia, como se señaló anteriormente, a veces es utilizada por los escritores de ciencia ficción como un nombre para la propiedad humana esencial que hace que un personaje sea completamente humano. Turing elimina todas las demás propiedades de los seres humanos y reduce la pregunta a «¿puede una máquina ser el tema de su propio pensamiento?» ¿Puede pensar en sí mismo? Visto de esta manera, se puede escribir un programa que informe sobre sus propios estados internos, como un depurador. Aunque podría decirse que la autoconciencia a menudo supone un poco más de capacidad; una máquina que puede atribuir significado de alguna manera no solo a su propio estado, sino en general, postulando preguntas sin respuestas sólidas: la naturaleza contextual de su existencia ahora; cómo se compara con estados pasados ​​o planes para el futuro, los límites y el valor de su producto de trabajo, cómo percibe su desempeño para ser valorado o comparado con otros.

¿Puede una máquina ser original o creativa?
Turing reduce esto a la pregunta de si una máquina puede «tomarnos por sorpresa» y argumenta que esto es obviamente cierto, como lo puede afirmar cualquier programador. Señala que, con suficiente capacidad de almacenamiento, una computadora puede comportarse en un número astronómico de diferentes maneras. Debe ser posible, incluso trivial, para una computadora que pueda representar ideas para combinarlas de nuevas maneras. (El matemático automatizado de Douglas Lenat, como ejemplo, combinó ideas para descubrir nuevas verdades matemáticas).

En 2009, los científicos de la Universidad de Aberystwyth en Gales y la Universidad de Cambridge del Reino Unido diseñaron un robot llamado Adam que creen que es la primera máquina en producir independientemente nuevos descubrimientos científicos. También en 2009, los investigadores de Cornell desarrollaron Eureqa, un programa de computadora que extrapola fórmulas para ajustarse a los datos ingresados, como encontrar las leyes del movimiento a partir del movimiento de un péndulo.

¿Puede una máquina ser benevolente u hostil?
Esta pregunta (como muchas otras en la filosofía de la inteligencia artificial) se puede presentar en dos formas. «Hostilidad» puede definirse en términos de función o comportamiento, en cuyo caso «hostil» se convierte en sinónimo de «peligroso». O puede definirse en términos de intención: ¿puede una máquina «deliberadamente» hacer daño? La última es la pregunta «¿puede una máquina tener estados conscientes?» (como las intenciones) en otra forma.

La pregunta de si las máquinas altamente inteligentes y completamente autónomas serían peligrosas ha sido examinada en detalle por los futuristas (como el Instituto Singularity). (El elemento obvio del drama también ha hecho que el tema sea popular en la ciencia ficción, que ha considerado muchos escenarios diferentes posibles donde las máquinas inteligentes representan una amenaza para la humanidad).

Un problema es que las máquinas pueden adquirir la autonomía y la inteligencia necesarias para ser peligrosas muy rápidamente. Vernor Vinge ha sugerido que, en unos pocos años, las computadoras se convertirán de repente en miles o millones de veces más inteligentes que los humanos. Él llama a esto «la singularidad». Él sugiere que puede ser algo o posiblemente muy peligroso para los humanos. Esto es discutido por una filosofía llamada Singularitarianism.

Algunos expertos y académicos han cuestionado el uso de robots para el combate militar, especialmente cuando a estos robots se les otorga cierto grado de funciones autónomas. La Marina de los Estados Unidos ha financiado un informe que indica que a medida que los robots militares se vuelven más complejos, debería prestarse mayor atención a las implicaciones de su capacidad para tomar decisiones autónomas.

El presidente de la Asociación para el Avance de la Inteligencia Artificial ha encargado un estudio para analizar este problema. Apuntan a programas como el dispositivo de adquisición de lenguaje que puede emular la interacción humana.

Algunos han sugerido la necesidad de crear «AI amigable», lo que significa que los avances que ya están ocurriendo con la IA también deben incluir un esfuerzo para hacer que la IA sea intrínsecamente amigable y humana.

¿Puede una máquina tener un alma?
Finalmente, aquellos que creen en la existencia de un alma pueden argumentar que «Pensar es una función del alma inmortal del hombre». Alan Turing llamó a esto «la objeción teológica». El escribe

Al intentar construir tales máquinas, no deberíamos estar usurpando irreverentemente su poder de crear almas, como tampoco lo estamos en la procreación de niños: más bien, en ambos casos, somos instrumentos de su voluntad que proveen mansiones para las almas que Él crea.

Opiniones sobre el papel de la filosofía.
Algunos estudiosos argumentan que el despido de la filosofía por parte de la comunidad de AI es perjudicial. En la Enciclopedia de Filosofía de Stanford, algunos filósofos sostienen que el papel de la filosofía en la IA es poco apreciado.El físico David Deutsch sostiene que sin una comprensión de la filosofía o sus conceptos, el desarrollo de la IA sufriría una falta de progreso.

Bibliografía y conferencias
La bibliografía principal sobre el tema, con varias subsecciones, se encuentra en PhilPapers.

La serie de conferencias principal sobre el tema es «Filosofía y teoría de la IA» (PT-AI), dirigida por Vincent C. Müller.