(KathPress/InfoCatólica) Una conferencia celebrada en el Senado italiano reunió a expertos, organizaciones no gubernamentales y representantes eclesiales para advertir sobre el avance de sistemas de armas autónomas y letales, impulsados por los progresos de la inteligencia artificial. Los participantes reclamaron un veto internacional con fuerza jurídica, al tiempo que colocaron en el centro la cuestión moral decisiva: si es lícito permitir que una máquina adopte decisiones sobre la vida y la muerte, según informó Vatican News el viernes.
El encuentro se enmarcó en la campaña internacional «Stop Killer Robots» y subrayó que los sistemas capaces de seleccionar y atacar objetivos sin un control humano determinante abren un horizonte de graves amenazas. En ese contexto se citó al arzobispo Vincenzo Paglia, presidente emérito de la Pontificia Academia para la Vida, con una advertencia directa: «Debemos impedir que la tecnología escape al control moral y jurídico del ser humano». En la misma línea, se sostuvo que estos sistemas constituyen una seria amenaza para el derecho internacional humanitario y para los derechos humanos.
Paglia aludió además al riesgo de una escalada nuclear vinculada al uso de la inteligencia artificial. A su juicio, la regulación de las armas autónomas interpela a la conciencia colectiva y exige una respuesta política global, en la que las naciones asuman responsabilidades antes de que el desarrollo técnico imponga hechos consumados.
Desde la propia campaña «Stop Killer Robots», Nicole van Rooijen, directora ejecutiva, describió la situación como una de las pruebas más profundas para la civilización contemporánea. Señaló que la campaña agrupa, según sus propios datos, a unas 270 ONG en todo el mundo. Para van Rooijen, entregar a algoritmos decisiones de vida o muerte supone una ruptura ética inadmisible. Subrayó, además, un problema de fondo que agrava la cuestión: la responsabilidad. Si una máquina comete un crimen de guerra, se corre el riesgo de que, en la práctica, se imponga la impunidad jurídica.
En la misma sesión intervino Riccardo Noury, portavoz de Amnistía Internacional Italia, quien se refirió al empleo de sistemas apoyados en inteligencia artificial en conflictos actuales, citando como ejemplo la Franja de Gaza. Advirtió de que, sin reglas internacionales claras, podría extenderse el uso indiscriminado de estas tecnologías con consecuencias graves para la población civil. En ese sentido lanzó una advertencia tajante: «El derecho internacional está bajo ataque», y reclamó un marco normativo vinculante.
La preocupación expresada no se limitó a escenarios bélicos clásicos. También se indicó que el empleo de sistemas autónomos en ámbitos como la vigilancia fronteriza o la seguridad interior entraña riesgos importantes para los derechos humanos, por la posibilidad de usos abusivos y por el debilitamiento de controles efectivos sobre decisiones de alto impacto.
Otro punto destacado fue la insuficiencia del marco jurídico existente para encarar un salto tecnológico de esta magnitud. Tommaso Natoli, de la Cruz Roja Italiana, recordó que principios esenciales —como la distinción entre civiles y combatientes— no pueden quedar garantizados por sistemas autónomos. A su vez, Fabrizio Battistelli, del instituto de investigación «Archivio Disarmo», afirmó que el derecho internacional humanitario, por sí solo, no basta, y pidió un acuerdo preventivo en el marco de las Naciones Unidas. Según se indicó, esas iniciativas se encuentran actualmente bloqueadas por Estados Unidos y Rusia.
La conferencia concluyó con un llamamiento a incrementar la presión política. Francesco Vignarca, de la red «Rete Italiana Pace e Disarmo», pidió evitar una «deshumanización de la guerra» provocada por la inteligencia artificial. En su planteamiento, el objetivo debe ser que toda utilización de la tecnología quede estrictamente vinculada a la dignidad humana y a la paz, evitando que la lógica automática y despersonalizada termine por imponer su ley en el campo más dramático de todos: el que decide sobre la vida y la muerte.






