¿Hay sabiduría que guía el desarrollo de la inteligencia artificial?

Incluso voces seculares alertan de los riesgos

¿Hay sabiduría que guía el desarrollo de la inteligencia artificial?

Una reflexión de Mary Pesarchick ante del desarrollo tecnológico de esta herramienta. Sus ventajas y peligros.

(Catholic Stand/InfoCatólica) En Laudato Si y muchos de sus otros comentarios públicos, el Papa Francisco ha expresado su preocupación por los rápidos avances en la tecnología y las implicaciones para la sociedad. Ahora, algunas voces seculares se suman, entre ellos el cofundador de Tesla, Elon Musk , el físico teórico Stephen Hawking y el empresario Bill Gates se hacen eco de los riesgos del rápido crecimiento del uso de la Inteligencia Artificial.

John McCarthy, profesor de ciencias de la computación de Stanford, acuñó el término «Inteligencia Artificial» en un taller conducido por IBM en 1956. Definió AI como la «ciencia e ingeniería de hacer máquinas inteligentes, especialmente programas informáticos inteligentes». Sin embargo, con el tiempo los ingenieros han ido más allá de simplemente programar computadoras para resolver problemas específicos. Se dieron cuenta, como lo expresó Bernard Marr de la revista Forbes , que «sería mucho más eficiente codificarlos [computadoras] para pensar como seres humanos, y luego enchufarlos a internet para darles acceso a toda la información en el mundo».

Las habilidades cada vez más humanas de AI son a la vez emocionantes e inquietantes. La rapidez con la que AI se está incorporando al hogar y al lugar de trabajo significa que casi todos en el mundo utilizan, a diario, las comodidades que la IA hace posible. Sin embargo, el rápido desarrollo de la tecnología se ha producido esencialmente sin las pautas éticas y morales correspondientes para controlarlo. Esta es una omisión que la industria de la tecnología, los grupos provida y el Vaticano están tratando de rectificar. Creen que la preservación de la sociedad humana depende de su éxito.

Ética de los robots

A partir de tales preocupaciones, está surgiendo un nuevo campo de estudio llamado ética de robots (o «roboética»).

El objetivo de la roboética es garantizar que las máquinas con inteligencia artificial (AI) se comporten de manera que prioricen la seguridad humana por encima de las tareas asignadas y su propia seguridad, y que también estén de acuerdo con los preceptos aceptados de la moralidad humana.

John Markoff, del New York Times, informó sobre tres programas que se lanzaron en 2016 para estudiar roboética.

Bajo la administración de Obama, el Consejo Nacional de Ciencia y Tecnología (NSTC) publicó un informe titulado «Preparándose para el Futuro de la Inteligencia Artificial» que discutió el impacto y los posibles resultados de la IA. La Universidad Carnegie Mellon creó el centro de investigación «K & L Gates Endowment for Ethics and Computational Technologies» para estudiar la ética de la Inteligencia Artificial. Los gigantes tecnológicos Microsoft, Amazon, Facebook, Google e IBM formaron la Alianza en IA para «estudiar y formular mejores prácticas, mejorar la comprensión pública de la IA y servir como una plataforma abierta para la discusión y el compromiso sobre AI y sus influencias en las personas y la sociedad».

Efectos de la inteligencia artificial en la fuerza de trabajo

En diciembre de 2016, la Academia Pontificia de las Ciencias celebró su propio coloquio, titulado «Poder y límites de la inteligencia artificial». Según Catholic News Agency, los oradores incluyeron a el físico Stephen Hawking, a Demis Hassabis de Google, y a Yann LeCun de Facebook. El tema predominante fue cómo la creciente presencia de IA en la industria eventualmente conducirá al reemplazo de la mayoría de los humanos en la fuerza de trabajo.

Como explicó Patrick Doherty de catholicinsight.com, aunque el uso de la automatización en la industria no es nada nuevo, lo nuevo es que los robots reemplazarán no solo los llamados trabajos de cuello azul sino también los de cuello blanco. Un estudio de 2016 de Citi y Oxford estimó que «el 47% de los empleos en los Estados Unidos serán reemplazados por la automatización de computadoras». Sin embargo, otros países serán más afectados, con un 87% de empleos proyectados en Etiopía, un 77% en China y un 65% en Argentina».

Obviamente, esta tendencia plantea importantes preocupaciones humanitarias. Se teme que los beneficios financieros de la automatización beneficien solo a un pequeño grupo de accionistas y a unos pocos empleados bien educados y altamente calificados. La mayoría de los trabajadores, la clase media y, especialmente, los pobres, perderán sus empleos ante las máquinas y no tendrán la educación ni las habilidades laborales suficientes para encontrar otro empleo.

A menos que se canalice para el beneficio público, la AI pronto planteará importantes preocupaciones para la economía y la estabilidad de la sociedad. Vivimos en un período de transición drástico en el que se pierden millones de empleos con los dispositivos computarizados, con el consiguiente aumento de la disparidad de ingresos y la falta de conocimiento. Con la AI en manos de las empresas, los ingresos de la inteligencia ya no se pueden redistribuir de manera equitativa. (Academia Pontificia de las Ciencias, Declaración final del taller)

El «acertijo de Terminator»

Hay un segundo uso más ominoso de AI que está atrayendo la atención del Vaticano, las Naciones Unidas y grupos provida en todo el mundo. Ese es el desarrollo de armas autónomas por los militares en los Estados Unidos y en países de todo el mundo.

Terminator

Casi fuera de los círculos de la defensa, el Pentágono gasta miles de millones de dólares para desarrollar lo que llama armas autónomas y semiautónomas y para construir un arsenal repleto con el tipo de armamento que existía solo en películas de Hollywood y ciencia ficción, provocando alarma entre científicos y activistas preocupado por las implicaciones de una carrera armamentista de robots. (Rosenberg y Markoff, «Terminator acertijo del Pentágono: robots que podrían matarse por sí mismos», New York Times , 2016).

A diferencia de los drones que dependen de comandos emitidos desde la distancia por un soldado humano, las armas autónomas dependen completamente del software de la computadora para dirigirlos. Estas armas tienen la ventaja de ser mucho más rápidas y mucho más precisas que las armas convencionales, al tiempo que reducen la necesidad de exponer a los soldados a los peligros del campo de batalla.

Sin embargo, existe una considerable preocupación de que la falta de control humano podría resultar en que las armas se vuelvan rebeldes. Funcionarios del Pentágono se apresuraron a descartar esta especulación por infundada. Afirman que sus armas autónomas siempre requerirán «un hombre en el circuito» a la hora de tener que tomar decisiones de vida o muerte.

Citado por Rosenberg y Markoff, el subsecretario de Defensa Robert O. Work declaró: «Hay tanto miedo por ahí sobre los robots asesinos y Skynet, (de las películas de Terminator ). Esa no es la forma en que lo visualizamos en absoluto».

¿Una carrera armamentista virtualmente inevitable?

No obstante, la oposición internacional al desarrollo de armas autónomas está creciendo. Curiosamente, algunas de las objeciones más fuertes provienen de científicos involucrados en la investigación de IA. Una carta abierta presentada en la Conferencia Internacional Conjunta sobre Inteligencia Artificial (IJCAI) 2015 por el Future of Life Institute instó a los gobiernos mundiales a abandonar la idea y así evitar la carrera armamentista global «prácticamente inevitable».

A diferencia de las armas nucleares, [las armas autónomas] no requieren materias primas costosas o difíciles de obtener, por lo que se convertirán en [lugar común] para que todas las potencias militares importantes las produzcan en masa. Solo será cuestión de tiempo hasta que aparezcan en manos de terroristas. Las armas autónomas son ideales para tareas como asesinatos, naciones desestabilizadoras, sojuzgar poblaciones y matar selectivamente a un grupo étnico en particular. Por lo tanto, creemos que una carrera armamentista militar no sería beneficiosa para la humanidad.

Como dijo el arzobispo Silvano Tomasi, ex observador permanente de la Santa Sede ante las Naciones Unidas : «La tecnología ... tiene muchos usos beneficiosos e incluso la idea de que una nación mantenga a sus soldados fuera de peligro es digna de alabanza, pero cuando las naciones están usando ... tecnología para atacar y matar a los seres humanos, están obligados a sopesar las decisiones de una manera que solo un ser humano puede».

«Ética de la máquina»

La Roboética no solo se aplica a la forma en que la humanidad usa los robots. También existe lo que se llama «ética de la máquina», que se refiere «al comportamiento de los propios robots, ya sean o no considerados agentes morales artificiales y, en última instancia, con derechos de robot».

Película Yo Robot

Hasta ahora, la limitación singular de los robots es que no poseen la capacidad humana de tomar decisiones basadas en una evaluación de lo correcto y lo incorrecto. Sin embargo, esto puede no ser cierto en el futuro ya que el Instituto Británico de Estándares (BSI) emitió recientemente pautas para ayudar a los diseñadores a crear «robots éticamente sólidos». Por ejemplo, los robots no deben diseñarse única o principalmente para matar o dañar a los humanos; los humanos, no los robots, son los agentes responsables; debería ser posible descubrir quién es responsable de cualquier robot y su comportamiento. (BS-8611 Robots y dispositivos robóticos)

Puede parecer extraño que sea necesario aclarar sobre quién, creador o creación, se debe colocar la responsabilidad de las acciones de un robot. Pero hay quienes están dispuestos a discutir, si un robot puede ser considerado responsable de una acción, entonces debería ser posible atribuirle un grado de personalidad, y, por lo tanto, derechos personales, también a ellos.

Por lo tanto, si no lo fueran ya, las distinciones que separan al hombre y la máquina se volverían cada vez más borrosas.

Ciudadana Sophia

En octubre, se hizo historia en la Iniciativa de Inversión Futura cuando Sofía, un robot creado por Hanson Robotics, obtuvo la ciudadanía oficial del país anfitrión, Arabia Saudita.

La ironía de esto no pasó desapercibida para la comunidad internacional. Los críticos señalaron cómo a un robot se le otorgó un privilegio que le fue negado a la mayoría de los trabajadores extranjeros en la población saudita. Los grupos de mujeres se opusieron al hecho de que Sophia disfrutaba de muchos privilegios prohibidos a sus contrapartes humanas, como aparecer en público sin un hijab y sin estar acompañada por un tutor masculino.

Si bien esto no era más que un truco publicitario, dio un vistazo de lo que le espera a la humanidad si el progreso de la Inteligencia Artificial no se cuestiona. Sin embargo, como escribe el Papa Francisco en Laudato Si , «tenemos la libertad necesaria para limitar y dirigir la tecnología; podemos ponerlo al servicio de otro tipo de progreso, uno que sea más saludable, más humano, más social, más integral».

Nadie está sugiriendo un regreso a la Edad de Piedra, pero sí necesitamos reducir la velocidad y mirar la realidad de una manera diferente, para apropiarse del progreso positivo y sostenible que se ha logrado, pero también para recuperar los valores y las grandes metas eliminadas. por nuestras ilusiones desenfrenadas de grandeza. 

7 comentarios

Manoletina
Ya, ya lo decía yo, que todo esto no es una noticia muuuuy friki y paranoica. Nooo!!!! La Virgen ya anunció en el quinto misterio de Fátima y su cuarta aparición en Aquita todas estas cosas. Cuando los robots se hibridicen con los bitcoins y puedan gastar su propio dinero, ya veréis, ya como todo lo profetizado en el Apocalipsis sobre el bitcoin se cumplirá. El tiempo está cerca. Ya no me llamaréis loca!!!! muaja ja!!!!
10/12/17 10:13 PM
Pepe Jacobo
Bueno, algunas de las consideraciones acerca de la fuerza de trabajo o la autonomia de las armas es solo dar un paso mas. Ya existen los misiles inteligentes o los drones y desde que se combate con proyectiles es mas facil separarse emocionalmente del objeto... Aunque a decir verdad cuando habia que matar a espada cara a cara tampoco se le hacia mucho asco al asunto.
En cuanto a la etiqueta Inteligencia Artificial, es mucho marketing. No estamos creando intelugencias generales sino algo mucho mas especifico. Programas que hacen una determinada tarea solo que no ha hecho falta conocer el algoritmo que la realiza sino que lo ha buscado siguiendo las ordenes del programador. No hay que alarmarse, no es una inteligencia de verdad.
10/12/17 10:17 PM
Francisco Javier
Vaya no solo la ecologia y la buena onda si no que tambien la robotica le preocupa al papa Francisco ¡ pero por Dios ! ¡preocupese de las cosas que le deberian a interesar a los cristianos como la crisis de fe, de valores, o de parar sus arremetidas contra los catolicos fieles!
10/12/17 10:59 PM
José
Lo de que las máquinas destruyen puestos de trabajo es muy cierto, pero también los crean, ¿cuantos millones de personas viven de manejar máquinas?, ¿cuantos de fabricarlas o hacer el mantenimiento?, ¿cuantas actividades económicas no existirían si no hubieran máquinas?, ¿cuanto se reduciría la actividad económica sin ellas?, ¿quien es el más perjudicado cuando hay poca actividad económica, el rico o el pobre? Respecto del progreso cientificotécnico en general es indudable que aumenta el poder de la humanidad y los individuos y puesto que demasiadas veces no somos éticos tambien el peligro de causar daño, ahora bien, necesitamos el progreso para sobrevivir, si ahora descubriesemos que se acerca un meteorito mediano en rumbo de colisión a la tierra -y no es imposible, aunque la probabilidad sea baja-, ¿como subsistiría la humanidad?, dependiendo del tamaño, no podríamos subsistir, necesitamos progresar sin descanso porque de ello depende el futuro de la humanidad, aunque sea un camino lleno de riesgos
10/12/17 11:48 PM
Victor de Argentina
China declaro que quiere ser la potencia mundial en inteligencia artificial para 2030, y lo demuestra con su presupuesto.
No se si tendre mucha imaginacion conspiranoica pero siempre me imagine la bestia del apocalipsis como un gran estado represor, tipo union sovietica comunista pero potenciada por 100, un gran sistema del cual no puedes escapar.
Creo que la tecnologia esta poniendo los medios para que esto sea posible.
Vigilancia y control automatico de la poblacion, dinero electronico y registro de las transaccionea comerciales, codigos de barras el famoso 666, control de la natalidad, prohibicion de asociaciones... y la parte de "cobro vida" la relaciono con la inteligencia artificial.
Gracias y saludos.
11/12/17 11:23 AM
José
Son simulaciones de inteligencia. Actuarán como tales e imitarán muy bien todo tipo de trabajos, pero por desgracia también los de matar gente o cosas peores. El Progreso como tal no es cierto hasta que pasa un tiempo y se valoran sus efectos.
11/12/17 7:31 PM
Marco
Si la inteligencia humana puede ser sustituida por la "inteligencia " maquinal qué poca inteligencia es.
Como se ha dicho, una máquina podrá simular muy bien. Pero no deja de ser una máquina, una cosa, un objeto inerte.
Ahora bien, eso no puede decirse en absoluto de los que arman y programan y usan esas cosas.
Hay que dar gloria a Dios por la inteligencia (verdadera) con que ha dotado a su criatura para escudriñar los cielos y la tierra y sometedlo todo a su imperio para servir a los hombres.
12/12/17 12:15 AM

Dejar un comentario



Los comentarios están limitados a 1.500 caracteres. Faltan caracteres.

No se aceptan los comentarios ajenos al tema, sin sentido, repetidos o que contengan publicidad o spam. Tampoco comentarios insultantes, blasfemos o que inciten a la violencia, discriminación o a cualesquiera otros actos contrarios a la legislación española, así como aquéllos que contengan ataques o insultos a los otros comentaristas, a los bloggers o al Director.

Los comentarios no reflejan la opinión de InfoCatólica, sino la de los comentaristas. InfoCatólica se reserva el derecho a eliminar los comentarios que considere que no se ajusten a estas normas.

Los comentarios aparecerán tras una validación manual previa, lo que puede demorar su aparición.