Categories: InformáticaSociedad

Ética de la inteligencia artificial.

La ética de la inteligencia artificial es parte de la ética de la tecnología específica de los robots y otros seres artificialmente inteligentes. Por lo general, se divide en roboética, una preocupación por el comportamiento moral de los humanos mientras diseñan, construyen, usan y tratan seres artificialmente inteligentes, y la ética de la máquina, que se ocupa del comportamiento moral de los agentes morales artificiales (AMA).

Ética del robot
El término «ética del robot» (a veces «roboética») se refiere a la moralidad de cómo los humanos diseñan, construyen, usan y tratan a los robots y otros seres artificialmente inteligentes. Considera cómo se pueden usar seres artificialmente inteligentes para dañar a los humanos y cómo se pueden usar para beneficiar a los humanos.

Derechos de robot
«Derechos de robots» es el concepto de que las personas deben tener obligaciones morales hacia sus máquinas, similares a los derechos humanos o derechos de los animales. Se ha sugerido que los derechos de los robots, como el derecho a existir y realizar su propia misión, podrían vincularse con el deber de los robots de servir al ser humano, por analogía con la vinculación de los derechos humanos con los deberes humanos ante la sociedad. Estos podrían incluir el derecho a la vida y la libertad, la libertad de pensamiento y expresión y la igualdad ante la ley. La cuestión ha sido considerada por el Instituto para el Futuro y por el Departamento de Comercio e Industria del Reino Unido.

Los expertos no están de acuerdo si las leyes específicas y detalladas se requerirán pronto o de manera segura en un futuro lejano. Glenn McGee informa que pueden aparecer robots suficientemente humanoides para 2020. Ray Kurzweil establece la fecha en 2029. Otro grupo de científicos reunidos en 2007 supuso que debían transcurrir al menos 50 años antes de que existiera un sistema lo suficientemente avanzado.

Las reglas para la competencia del Premio Loebner 2003 previeron la posibilidad de que los robots tengan sus propios derechos:

61. Si, en un año dado, una Entrada de código abierto disponible al público ingresada por la Universidad de Surrey o el Centro de Cambridge gana la Medalla de Plata o la Medalla de Oro, entonces la Medalla y el Premio en efectivo se otorgarán al organismo responsable de la desarrollo de esa entrada. Si no se puede identificar dicho organismo, o si hay desacuerdo entre dos o más reclamantes, la Medalla y el Premio en efectivo se mantendrán en fideicomiso hasta el momento en que la Participación pueda poseer legalmente, ya sea en los Estados Unidos de América o en el Reino Unido. sede del concurso, el premio en efectivo y la medalla de oro por derecho propio.

En octubre de 2017, se concedió la ciudadanía a Android Sophia en Arabia Saudita, aunque algunos observadores consideraron que esto era más un truco publicitario que un reconocimiento legal significativo.

Amenaza a la dignidad humana
Joseph Weizenbaum argumentó en 1976 que la tecnología de inteligencia artificial no debe usarse para reemplazar a personas en puestos que requieren respeto y cuidado, como cualquiera de estos:

Un representante de servicio al cliente (la tecnología AI ya se usa hoy en día para los sistemas de respuesta de voz interactivos basados ​​en teléfono)
Un terapeuta (como propuso Kenneth Colby en la década de 1970)
Una niñera para los ancianos (como lo informó Pamela McCorduck en su libro The Fifth Generation)
Un soldado
Un juez
Un oficial de policía

Weizenbaum explica que requerimos sentimientos auténticos de empatía de las personas en estas posiciones. Si las máquinas los reemplazan, nos encontraremos alienados, devaluados y frustrados. La inteligencia artificial, si se usa de esta manera, representa una amenaza para la dignidad humana. Weizenbaum argumenta que el hecho de que estemos contemplando la posibilidad de máquinas en estas posiciones sugiere que hemos experimentado una «atrofia del espíritu humano que viene de pensar en nosotros mismos como computadoras».

Pamela McCorduck responde que, hablando por las mujeres y las minorías «Prefiero arriesgarme con una computadora imparcial», señalando que existen condiciones en las que preferiríamos contar con jueces y policías automáticos que no tienen una agenda personal en absoluto. El fundador de AI, John McCarthy, se opone al tono moralizador de la crítica de Weizenbaum. «Cuando la moralización es vehemente y vaga, invita a los abusos autoritarios», escribe.

Bill Hibbard escribe que «la dignidad humana requiere que nos esforcemos por eliminar nuestra ignorancia de la naturaleza de la existencia, y la inteligencia artificial es necesaria para ese esfuerzo».

Transparencia y código abierto.
Bill Hibbard sostiene que dado que la IA tendrá un efecto tan profundo en la humanidad, los desarrolladores de la IA son representantes de la humanidad futura y, por lo tanto, tienen la obligación ética de ser transparentes en sus esfuerzos. Ben Goertzel y David Hart crearon OpenCog como un marco de código abierto para el desarrollo de AI. OpenAI es una empresa de investigación de inteligencia artificial sin fines de lucro creada por Elon Musk, Sam Altman y otros para desarrollar una inteligencia de código abierto beneficiosa para la humanidad. Hay muchos otros desarrollos de AI de código abierto.

Armas de inteligencia artificial.
Algunos expertos y académicos han cuestionado el uso de robots para el combate militar, especialmente cuando a estos robots se les otorga cierto grado de funciones autónomas. La Marina de los Estados Unidos ha financiado un informe que indica que a medida que los robots militares se vuelven más complejos, debería prestarse mayor atención a las implicaciones de su capacidad para tomar decisiones autónomas. Un investigador afirma que los robots autónomos podrían ser más humanos, ya que podrían tomar decisiones de manera más efectiva.

En esta última década, se ha realizado una investigación intensiva en el poder autónomo con la capacidad de aprender usando las responsabilidades morales asignadas. «Los resultados pueden usarse al diseñar futuros robots militares, para controlar las tendencias no deseadas para asignar responsabilidades a los robots». Desde un punto de vista consecuencialista, existe la posibilidad de que los robots desarrollen la capacidad de tomar sus propias decisiones lógicas sobre a quién matar y esa es la razón por la que debería haber un marco moral establecido que la IA no pueda anular.

Ha habido una protesta reciente con respecto a la ingeniería de armas de inteligencia artificial que ha incluido ideas de un robot que se apodera de la humanidad. Las armas de IA presentan un tipo de peligro diferente al de las armas controladas por humanos. Muchos gobiernos han comenzado a financiar programas para desarrollar armamento de IA. La Armada de los Estados Unidos anunció recientemente planes para desarrollar armas autónomas con aviones no tripulados, en paralelo con anuncios similares de Rusia y Corea, respectivamente. Debido al potencial de que las armas de AI se vuelvan más peligrosas que las armas operadas por humanos, Stephen Hawking y Max Tegmark firmaron una petición de «Futuro de la vida» para prohibir las armas de AI. El mensaje publicado por Hawking y Tegmark afirma que las armas de AI representan un peligro inmediato y que se requieren medidas para evitar desastres catastróficos en el futuro cercano.

«Si cualquier potencia militar importante avanza con el desarrollo de armas de AI, una carrera de armamentos global es prácticamente inevitable, y el punto final de esta trayectoria tecnológica es obvio: las armas autónomas se convertirán en los Kalashnikovs del mañana», dice la petición, que incluye a Skype co El fundador Jaan Tallinn y el profesor de lingüística del MIT Noam Chomsky como partidarios adicionales contra el armamento de la IA.

El físico y astrónomo Royal Sir Martin Rees ha advertido sobre casos catastróficos como «robots tontos que se están volviendo ilegales o una red que desarrolla una mente propia». Huw Price, un colega de Rees en Cambridge, ha expresado una advertencia similar de que los humanos podrían no sobrevivir cuando la inteligencia «escapa a las limitaciones de la biología». Estos dos profesores crearon el Centro para el Estudio del Riesgo Existencial en la Universidad de Cambridge con la esperanza de evitar esta amenaza a la existencia humana.

Related Post

Con respecto al potencial para que los sistemas más inteligentes que los humanos se empleen militarmente, el Open Philanthropy Project escribe que estos escenarios «parecen potencialmente tan importantes como los riesgos relacionados con la pérdida de control», pero que las organizaciones de investigación que investigan el impacto social a largo plazo de AI tienen dedicó relativamente poco tiempo a esta preocupación: «esta clase de escenarios no ha sido un foco importante para las organizaciones que han estado más activas en este espacio, como el Instituto de Investigación de Inteligencia de la Máquina (MIRI) y el Instituto de Futuro de la Humanidad (FHI) , y parece que ha habido menos análisis y debate sobre ellos «.

Ética de la máquina
La ética de la máquina (o moralidad de la máquina) es el campo de investigación relacionado con el diseño de Agentes de Moral Artificial (AMA), robots o computadoras artificialmente inteligentes que se comportan moralmente o como si fueran morales.

Isaac Asimov consideró el tema en la década de 1950 en su I, Robot. Ante la insistencia de su editor John W. Campbell Jr., propuso las Tres Leyes de la Robótica para gobernar sistemas artificialmente inteligentes. Gran parte de su trabajo se dedicó a probar los límites de sus tres leyes para ver dónde se derrumbarían o dónde crearían un comportamiento paradójico o imprevisto. Su trabajo sugiere que ningún conjunto de leyes fijas puede anticipar suficientemente todas las circunstancias posibles.

En 2009, durante un experimento en el Laboratorio de Sistemas Inteligentes en la Ecole Polytechnique Fédérale de Lausanne en Suiza, los robots que estaban programados para cooperar entre sí (en la búsqueda de un recurso beneficioso y evitando uno venenoso) finalmente aprendieron a mentir a cada uno. otro en un intento de acaparar el recurso beneficioso. Un problema en este caso puede haber sido que los objetivos eran «terminales» (es decir, en contraste, los motivos humanos últimos suelen tener la cualidad de requerir un aprendizaje interminable).

Algunos expertos y académicos han cuestionado el uso de robots para el combate militar, especialmente cuando a estos robots se les otorga cierto grado de funciones autónomas. La Marina de los Estados Unidos ha financiado un informe que indica que a medida que los robots militares se vuelven más complejos, debería prestarse mayor atención a las implicaciones de su capacidad para tomar decisiones autónomas. El presidente de la Asociación para el Avance de la Inteligencia Artificial ha encargado un estudio para analizar este problema. Apuntan a programas como el dispositivo de adquisición de lenguaje que puede emular la interacción humana.

Vernor Vinge ha sugerido que puede llegar un momento en que algunas computadoras sean más inteligentes que los humanos. Él llama a esto «la singularidad». Él sugiere que puede ser algo o posiblemente muy peligroso para los humanos. Esto es discutido por una filosofía llamada Singularitarianism. El Instituto de Investigación de Inteligencia de la Máquina ha sugerido la necesidad de crear una «AI amigable», lo que significa que los avances que ya están ocurriendo con la IA también deberían incluir un esfuerzo para hacer que la IA sea intrínsecamente amigable y humana.

En 2009, académicos y expertos técnicos asistieron a una conferencia organizada por la Asociación para el Avance de la Inteligencia Artificial para discutir el impacto potencial de los robots y las computadoras y el impacto de la posibilidad hipotética de que pudieran ser autosuficientes y capaces de tomar sus propias decisiones. . Discutieron la posibilidad y la medida en que las computadoras y los robots podrían adquirir cualquier nivel de autonomía y en qué medida podrían usar esas habilidades para posiblemente representar una amenaza o peligro. Notaron que algunas máquinas han adquirido varias formas de semi-autonomía, incluyendo la posibilidad de encontrar fuentes de energía por sí mismas y la posibilidad de elegir objetivos de forma independiente para atacar con armas. También señalaron que algunos virus informáticos pueden evadir la eliminación y han logrado la «inteligencia de las cucarachas». Notaron que la autoconciencia como se muestra en la ciencia ficción es probablemente improbable, pero que había otros peligros y peligros potenciales.

Sin embargo, hay una tecnología en particular que realmente podría traer la posibilidad de robots con competencia moral a la realidad. En un artículo sobre la adquisición de valores morales por parte de robots, Nayef Al-Rodhan menciona el caso de chips neuromórficos, que tienen como objetivo procesar información de manera similar a los humanos, no linealmente y con millones de neuronas artificiales interconectadas. Los robots integrados en la tecnología neuromórfica podrían aprender y desarrollar el conocimiento de una manera exclusivamente humana. Inevitablemente, esto plantea la cuestión del entorno en el que tales robots aprenderían sobre el mundo y de cuya moralidad heredarían, o si terminan desarrollando también «debilidades» humanas: egoísmo, una actitud pro-supervivencia, vacilación, etc.

En Moral Machines: Teaching Robots Right of Wrong, Wendell Wallach y Colin Allen concluyen que los intentos de enseñar Robots desde el mal probablemente avanzarán en la comprensión de la ética humana al motivar a los humanos a abordar los vacíos en la teoría normativa moderna y al proporcionar una plataforma para la investigación experimental. Como ejemplo, ha introducido a los expertos en ética normativa el tema controvertido de qué algoritmos de aprendizaje específicos usar en las máquinas. Nick Bostrom y Eliezer Yudkowsky han defendido los árboles de decisión (como ID3) sobre las redes neuronales y los algoritmos genéticos sobre la base de que los árboles de decisión obedecen a las normas sociales modernas de transparencia y previsibilidad (p. Ej., Stare decisis), mientras que Chris Santos-Lang argumentó lo contrario. dirección sobre la base de que se debe permitir que las normas de cualquier edad cambien y que el fracaso natural para satisfacer plenamente estas normas particulares ha sido esencial para hacer que los humanos sean menos vulnerables a los «piratas informáticos» criminales.

Consecuencias no deseadas
Muchos investigadores han argumentado que, por medio de una «explosión de inteligencia» en algún momento del siglo XXI, una IA que se mejora a sí misma podría volverse mucho más poderosa que los humanos, de modo que no podríamos impedir que logre sus objetivos. En su artículo «Cuestiones éticas en la inteligencia artificial avanzada», el filósofo Nick Bostrom sostiene que la inteligencia artificial tiene la capacidad de provocar la extinción humana. Afirma que la superinteligencia general sería capaz de una iniciativa independiente y de hacer sus propios planes, y por lo tanto puede considerarse más apropiadamente como un agente autónomo. Dado que los intelectos artificiales no necesitan compartir nuestras tendencias motivacionales humanas, sería responsabilidad de los diseñadores de la superinteligencia especificar sus motivaciones originales. En teoría, una inteligencia artificial súper inteligente podría lograr casi cualquier resultado posible y frustrar cualquier intento de impedir la implementación de su objetivo principal, ya que podrían surgir muchas consecuencias involuntarias no controladas. Podría matar a todos los demás agentes, persuadirlos para que cambien su comportamiento o bloquear sus intentos de interferencia.

Sin embargo, en lugar de abrumar a la raza humana y llevar a nuestra destrucción, Bostrom también afirmó que la superinteligencia puede ayudarnos a resolver muchos problemas difíciles como la enfermedad, la pobreza y la destrucción del medio ambiente, y podría ayudarnos a «mejorar» a nosotros mismos.

La gran complejidad de los sistemas de valores humanos hace que sea muy difícil hacer que las motivaciones de AI sean amigables para el ser humano. A menos que la filosofía moral nos proporcione una teoría ética impecable, la función de utilidad de una IA podría permitir muchos escenarios potencialmente dañinos que se ajustan a un marco ético dado pero no al «sentido común». Según Eliezer Yudkowsky, hay pocas razones para suponer que una mente diseñada artificialmente tendría tal adaptación.

Bill Hibbard propone un diseño de IA que evite varios tipos de comportamiento no intencionado de la IA, incluido el autoengaño, las acciones instrumentales involuntarias y la corrupción del generador de recompensas.

Organizaciones
Amazon, Google, Facebook, IBM y Microsoft han establecido una asociación sin fines de lucro para formular las mejores prácticas en tecnologías de inteligencia artificial, mejorar la comprensión del público y servir como plataforma sobre inteligencia artificial. Ellos declararon: «Esta asociación sobre IA llevará a cabo investigaciones, organizará discusiones, proporcionará liderazgo de pensamiento, consultará con terceros relevantes, responderá a las preguntas del público y los medios de comunicación, y creará material educativo que avance en la comprensión de las tecnologías de IA, incluida la percepción de la máquina, el aprendizaje. , y razonamiento automatizado «. Apple se unió a otras compañías tecnológicas como miembro fundador de la Alianza para la IA en enero de 2017. Los miembros corporativos realizarán contribuciones financieras y de investigación al grupo, mientras se involucran con la comunidad científica para incorporar a los académicos al consejo.

En ficción
La película The Thirteenth Floor sugiere un futuro donde los mundos simulados con habitantes sensibles son creados por consolas de juegos de computadora con el propósito de entretenimiento. La película The Matrix sugiere un futuro en el que las especies dominantes en el planeta Tierra son máquinas sensibles y la humanidad es tratada con el máximo de Especiesismo. El cuento «The Planck Dive» sugiere un futuro en el que la humanidad se ha convertido en un software que puede duplicarse y optimizarse, y la distinción relevante entre los tipos de software es sensible y no sensible. La misma idea se puede encontrar en el Holograma de Emergencias Médicas de Starship Voyager, que es una copia aparentemente sensible de un subconjunto reducido de la conciencia de su creador, el Dr. Zimmerman, quien, por los mejores motivos, ha creado el sistema para brindar asistencia médica. Asistencia en caso de emergencias. Las películas Bicentennial Man y AI tratan con la posibilidad de robots inteligentes que podrían amar. Yo, Robot exploré algunos aspectos de las tres leyes de Asimov. Todos estos escenarios intentan prever posibles consecuencias poco éticas de la creación de computadoras inteligentes.

La ética de la inteligencia artificial es uno de los temas centrales de la serie de juegos Mass Effect de BioWare. Explora el escenario de una civilización que crea accidentalmente AI a través de un rápido aumento en el poder computacional a través de una red neuronal de escala global. Este evento causó un cisma ético entre aquellos que sentían que otorgar derechos orgánicos al recién sintetizado Geth era apropiado y aquellos que continuaban viéndolos como maquinaria desechable y luchaban para destruirlos. Más allá del conflicto inicial, la complejidad de la relación entre las máquinas y sus creadores es otro tema continuo a lo largo de la historia.

Con el tiempo, los debates han tendido a centrarse cada vez menos en la posibilidad y más en la conveniencia, como se destaca en los debates «Cosmist» y «Terran» iniciados por Hugo de Garis y Kevin Warwick. Un cosmista, según Hugo de Garis, en realidad está buscando construir sucesores más inteligentes para la especie humana.

Literatura
La bibliografía estándar sobre ética de la IA está en PhilPapers. Una colección reciente es VC Müller (ed.) (2016).

Share