(Catholic Stand/InfoCatólica) En Laudato Si y muchos de sus otros comentarios públicos, el Papa Francisco ha expresado su preocupación por los rápidos avances en la tecnología y las implicaciones para la sociedad. Ahora, algunas voces seculares se suman, entre ellos el cofundador de Tesla, Elon Musk , el físico teórico Stephen Hawking y el empresario Bill Gates se hacen eco de los riesgos del rápido crecimiento del uso de la Inteligencia Artificial.
John McCarthy, profesor de ciencias de la computación de Stanford, acuñó el término «Inteligencia Artificial» en un taller conducido por IBM en 1956. Definió AI como la «ciencia e ingeniería de hacer máquinas inteligentes, especialmente programas informáticos inteligentes». Sin embargo, con el tiempo los ingenieros han ido más allá de simplemente programar computadoras para resolver problemas específicos. Se dieron cuenta, como lo expresó Bernard Marr de la revista Forbes , que «sería mucho más eficiente codificarlos [computadoras] para pensar como seres humanos, y luego enchufarlos a internet para darles acceso a toda la información en el mundo».
Las habilidades cada vez más humanas de AI son a la vez emocionantes e inquietantes. La rapidez con la que AI se está incorporando al hogar y al lugar de trabajo significa que casi todos en el mundo utilizan, a diario, las comodidades que la IA hace posible. Sin embargo, el rápido desarrollo de la tecnología se ha producido esencialmente sin las pautas éticas y morales correspondientes para controlarlo. Esta es una omisión que la industria de la tecnología, los grupos provida y el Vaticano están tratando de rectificar. Creen que la preservación de la sociedad humana depende de su éxito.
Ética de los robots
A partir de tales preocupaciones, está surgiendo un nuevo campo de estudio llamado ética de robots (o «roboética»).
El objetivo de la roboética es garantizar que las máquinas con inteligencia artificial (AI) se comporten de manera que prioricen la seguridad humana por encima de las tareas asignadas y su propia seguridad, y que también estén de acuerdo con los preceptos aceptados de la moralidad humana.
John Markoff, del New York Times, informó sobre tres programas que se lanzaron en 2016 para estudiar roboética.
Bajo la administración de Obama, el Consejo Nacional de Ciencia y Tecnología (NSTC) publicó un informe titulado «Preparándose para el Futuro de la Inteligencia Artificial» que discutió el impacto y los posibles resultados de la IA. La Universidad Carnegie Mellon creó el centro de investigación «K & L Gates Endowment for Ethics and Computational Technologies» para estudiar la ética de la Inteligencia Artificial. Los gigantes tecnológicos Microsoft, Amazon, Facebook, Google e IBM formaron la Alianza en IA para «estudiar y formular mejores prácticas, mejorar la comprensión pública de la IA y servir como una plataforma abierta para la discusión y el compromiso sobre AI y sus influencias en las personas y la sociedad».
Efectos de la inteligencia artificial en la fuerza de trabajo
En diciembre de 2016, la Academia Pontificia de las Ciencias celebró su propio coloquio, titulado «Poder y límites de la inteligencia artificial». Según Catholic News Agency, los oradores incluyeron a el físico Stephen Hawking, a Demis Hassabis de Google, y a Yann LeCun de Facebook. El tema predominante fue cómo la creciente presencia de IA en la industria eventualmente conducirá al reemplazo de la mayoría de los humanos en la fuerza de trabajo.
Como explicó Patrick Doherty de catholicinsight.com, aunque el uso de la automatización en la industria no es nada nuevo, lo nuevo es que los robots reemplazarán no solo los llamados trabajos de cuello azul sino también los de cuello blanco. Un estudio de 2016 de Citi y Oxford estimó que «el 47% de los empleos en los Estados Unidos serán reemplazados por la automatización de computadoras». Sin embargo, otros países serán más afectados, con un 87% de empleos proyectados en Etiopía, un 77% en China y un 65% en Argentina».
Obviamente, esta tendencia plantea importantes preocupaciones humanitarias. Se teme que los beneficios financieros de la automatización beneficien solo a un pequeño grupo de accionistas y a unos pocos empleados bien educados y altamente calificados. La mayoría de los trabajadores, la clase media y, especialmente, los pobres, perderán sus empleos ante las máquinas y no tendrán la educación ni las habilidades laborales suficientes para encontrar otro empleo.
A menos que se canalice para el beneficio público, la AI pronto planteará importantes preocupaciones para la economía y la estabilidad de la sociedad. Vivimos en un período de transición drástico en el que se pierden millones de empleos con los dispositivos computarizados, con el consiguiente aumento de la disparidad de ingresos y la falta de conocimiento. Con la AI en manos de las empresas, los ingresos de la inteligencia ya no se pueden redistribuir de manera equitativa. (Academia Pontificia de las Ciencias, Declaración final del taller)
El «acertijo de Terminator»
Hay un segundo uso más ominoso de AI que está atrayendo la atención del Vaticano, las Naciones Unidas y grupos provida en todo el mundo. Ese es el desarrollo de armas autónomas por los militares en los Estados Unidos y en países de todo el mundo.
Casi fuera de los círculos de la defensa, el Pentágono gasta miles de millones de dólares para desarrollar lo que llama armas autónomas y semiautónomas y para construir un arsenal repleto con el tipo de armamento que existía solo en películas de Hollywood y ciencia ficción, provocando alarma entre científicos y activistas preocupado por las implicaciones de una carrera armamentista de robots. (Rosenberg y Markoff, «Terminator acertijo del Pentágono: robots que podrían matarse por sí mismos», New York Times , 2016).
A diferencia de los drones que dependen de comandos emitidos desde la distancia por un soldado humano, las armas autónomas dependen completamente del software de la computadora para dirigirlos. Estas armas tienen la ventaja de ser mucho más rápidas y mucho más precisas que las armas convencionales, al tiempo que reducen la necesidad de exponer a los soldados a los peligros del campo de batalla.
Sin embargo, existe una considerable preocupación de que la falta de control humano podría resultar en que las armas se vuelvan rebeldes. Funcionarios del Pentágono se apresuraron a descartar esta especulación por infundada. Afirman que sus armas autónomas siempre requerirán «un hombre en el circuito» a la hora de tener que tomar decisiones de vida o muerte.
Citado por Rosenberg y Markoff, el subsecretario de Defensa Robert O. Work declaró: «Hay tanto miedo por ahí sobre los robots asesinos y Skynet, (de las películas de Terminator ). Esa no es la forma en que lo visualizamos en absoluto».
¿Una carrera armamentista virtualmente inevitable?
No obstante, la oposición internacional al desarrollo de armas autónomas está creciendo. Curiosamente, algunas de las objeciones más fuertes provienen de científicos involucrados en la investigación de IA. Una carta abierta presentada en la Conferencia Internacional Conjunta sobre Inteligencia Artificial (IJCAI) 2015 por el Future of Life Institute instó a los gobiernos mundiales a abandonar la idea y así evitar la carrera armamentista global «prácticamente inevitable».
A diferencia de las armas nucleares, [las armas autónomas] no requieren materias primas costosas o difíciles de obtener, por lo que se convertirán en [lugar común] para que todas las potencias militares importantes las produzcan en masa. Solo será cuestión de tiempo hasta que aparezcan en manos de terroristas. Las armas autónomas son ideales para tareas como asesinatos, naciones desestabilizadoras, sojuzgar poblaciones y matar selectivamente a un grupo étnico en particular. Por lo tanto, creemos que una carrera armamentista militar no sería beneficiosa para la humanidad.
Como dijo el arzobispo Silvano Tomasi, ex observador permanente de la Santa Sede ante las Naciones Unidas : «La tecnología ... tiene muchos usos beneficiosos e incluso la idea de que una nación mantenga a sus soldados fuera de peligro es digna de alabanza, pero cuando las naciones están usando ... tecnología para atacar y matar a los seres humanos, están obligados a sopesar las decisiones de una manera que solo un ser humano puede».
«Ética de la máquina»
La Roboética no solo se aplica a la forma en que la humanidad usa los robots. También existe lo que se llama «ética de la máquina», que se refiere «al comportamiento de los propios robots, ya sean o no considerados agentes morales artificiales y, en última instancia, con derechos de robot».
Hasta ahora, la limitación singular de los robots es que no poseen la capacidad humana de tomar decisiones basadas en una evaluación de lo correcto y lo incorrecto. Sin embargo, esto puede no ser cierto en el futuro ya que el Instituto Británico de Estándares (BSI) emitió recientemente pautas para ayudar a los diseñadores a crear «robots éticamente sólidos». Por ejemplo, los robots no deben diseñarse única o principalmente para matar o dañar a los humanos; los humanos, no los robots, son los agentes responsables; debería ser posible descubrir quién es responsable de cualquier robot y su comportamiento. (BS-8611 Robots y dispositivos robóticos)
Puede parecer extraño que sea necesario aclarar sobre quién, creador o creación, se debe colocar la responsabilidad de las acciones de un robot. Pero hay quienes están dispuestos a discutir, si un robot puede ser considerado responsable de una acción, entonces debería ser posible atribuirle un grado de personalidad, y, por lo tanto, derechos personales, también a ellos.
Por lo tanto, si no lo fueran ya, las distinciones que separan al hombre y la máquina se volverían cada vez más borrosas.
Ciudadana Sophia
En octubre, se hizo historia en la Iniciativa de Inversión Futura cuando Sofía, un robot creado por Hanson Robotics, obtuvo la ciudadanía oficial del país anfitrión, Arabia Saudita.
La ironía de esto no pasó desapercibida para la comunidad internacional. Los críticos señalaron cómo a un robot se le otorgó un privilegio que le fue negado a la mayoría de los trabajadores extranjeros en la población saudita. Los grupos de mujeres se opusieron al hecho de que Sophia disfrutaba de muchos privilegios prohibidos a sus contrapartes humanas, como aparecer en público sin un hijab y sin estar acompañada por un tutor masculino.
Si bien esto no era más que un truco publicitario, dio un vistazo de lo que le espera a la humanidad si el progreso de la Inteligencia Artificial no se cuestiona. Sin embargo, como escribe el Papa Francisco en Laudato Si , «tenemos la libertad necesaria para limitar y dirigir la tecnología; podemos ponerlo al servicio de otro tipo de progreso, uno que sea más saludable, más humano, más social, más integral».
Nadie está sugiriendo un regreso a la Edad de Piedra, pero sí necesitamos reducir la velocidad y mirar la realidad de una manera diferente, para apropiarse del progreso positivo y sostenible que se ha logrado, pero también para recuperar los valores y las grandes metas eliminadas. por nuestras ilusiones desenfrenadas de grandeza.