La Santa Sede impulsa el debate sobre la IA y la protección de los niños
Ponentes de la rueda de prensa de presentación del evento «Risks and Opportunities of AI for Children: A Common Commitment for Safeguarding Children».

La Iglesia reflexiona sobre la protección de los menores en la era digital

La Santa Sede impulsa el debate sobre la IA y la protección de los niños

Expertos y representantes de la Iglesia, la ciencia y la sociedad civil se reúnen en la Casina Pío IV del Vaticano para abordar los riesgos y oportunidades de la inteligencia artificial en la infancia. El evento, organizado por la Pontificia Academia de las Ciencias, busca fortalecer la ética en el desarrollo tecnológico y promover la cooperación internacional en la protección de los menores.

(Vatican.news/InfoCatólica) Fortalecer las normativas gubernamentales desde un punto de vista ético, poniendo en el centro la seguridad, privacidad y dignidad de los niños, y asegurando que sus voces sean escuchadas en los debates sobre inteligencia artificial. Con estos objetivos, se ha presentado este miércoles en la Sala de Prensa de la Santa Sede el congreso «Risks and Opportunities of AI for Children: A Common Commitment for Safeguarding Children», organizado por la Pontificia Academia de las Ciencias en colaboración con la World Childhood Foundation y el Institute of Anthropology (IADC) de la Pontificia Universidad Gregoriana.

El evento, que se desarrollará hasta el 22 de marzo en la Casina Pío IV, en el Vaticano, ha contado con la participación del cardenal Peter Turkson, canciller de la Pontificia Academia de las Ciencias y de la Pontificia Academia de las Ciencias Sociales; el profesor Joachim von Braun, presidente de la Academia; el profesor Hans Zollner, director del IADC; y Britta Holmberg, vicepresidenta de la World Childhood Foundation.

La IA no debe quedar en manos de unos pocos

En su intervención, el cardenal Turkson subrayó la necesidad de que la inteligencia artificial no quede exclusivamente «en manos de los privados» y pidió una mayor implicación de los gobiernos en su regulación. Destacó el compromiso de la Santa Sede y del Papa Francisco con las nuevas tecnologías, insistiendo en la urgencia de establecer una «algorética», es decir, una ética para los algoritmos que rigen la IA.

Además, hizo un llamamiento a desarrollar modelos de regulación en colaboración con las conferencias episcopales de todo el mundo, así como a ampliar el debate sobre el impacto de la IA en los niños, incluyendo testimonios de víctimas de abusos en línea.

Diálogo con las empresas tecnológicas

Por su parte, el profesor Joachim von Braun alertó sobre los riesgos cada vez más evidentes que las nuevas tecnologías suponen para los menores. Desde la dependencia de las redes sociales, que afecta al desarrollo cerebral infantil, hasta la manipulación comercial de sus gustos y el acceso a datos privados.

«Durante años, las matemáticas se consideraban una disciplina ajena a la ética, pero esto ya no es así», afirmó Von Braun, recordando la influencia de los algoritmos en la vida cotidiana. Además, criticó la lentitud de la legislación en este ámbito, destacando que en la Unión Europea un proyecto de ley sobre IA lleva dos años paralizado. Subrayó también la importancia de negociar con gigantes tecnológicos como Alphabet, matriz de Google, para garantizar un desarrollo de la IA más seguro y equitativo.

Cooperación para prevenir abusos en línea

El profesor Hans Zollner destacó la necesidad de retomar el diálogo entre la Iglesia y las empresas tecnológicas para la protección de los niños. En 2017, el Vaticano ya había advertido que los desarrolladores tecnológicos debían asumir una responsabilidad activa en este tema.

Zollner recordó que, en Estados Unidos, el National Center for Missing and Exploited Children recibió el año pasado más de 29 millones de denuncias de abusos en línea, lo que evidencia la magnitud del problema a nivel global. En este sentido, la cooperación entre organismos internacionales y autoridades nacionales ha sido clave para identificar y castigar a los responsables.

El académico insistió también en el papel fundamental de las familias: «No conozco un solo padre o madre que no esté preocupado por los riesgos que sus hijos enfrentan en Internet», afirmó, señalando la dificultad de los adultos para adaptarse a la evolución tecnológica.

Los datos sobre violencia digital

La intervención de Britta Holmberg aportó datos preocupantes: una de cada cinco niñas y uno de cada siete niños han sido víctimas de violencia en línea. La vicepresidenta de la World Childhood Foundation recordó que esta organización, fundada hace 25 años por la reina Silvia de Suecia, se ha dedicado a la protección de los menores más vulnerables, incluyendo migrantes, huérfanos y niños sin hogar.

Holmberg advirtió que, aunque la tecnología facilita los abusos, también puede ser parte de la solución, alineándose con la visión del Papa Francisco, quien ha insistido en que la IA puede servir al bien común si se desarrolla con principios éticos sólidos.

Conclusión

El congreso, que se prolongará hasta el viernes 22 de marzo, aspira a generar una mayor conciencia sobre el impacto de la inteligencia artificial en la infancia. La Pontificia Academia de las Ciencias busca sentar las bases de un diálogo continuo entre expertos, legisladores, empresas tecnológicas y la sociedad civil para garantizar que el desarrollo de la IA no comprometa la seguridad ni la dignidad de los menores.

Dejar un comentario



Los comentarios están limitados a 1.500 caracteres. Faltan caracteres.

No se aceptan los comentarios ajenos al tema, sin sentido, repetidos o que contengan publicidad o spam. Tampoco comentarios insultantes, blasfemos o que inciten a la violencia, discriminación o a cualesquiera otros actos contrarios a la legislación española, así como aquéllos que contengan ataques o insultos a los otros comentaristas, a los bloggers o al Director.

Los comentarios no reflejan la opinión de InfoCatólica, sino la de los comentaristas. InfoCatólica se reserva el derecho a eliminar los comentarios que considere que no se ajusten a estas normas.

Los comentarios aparecerán tras una validación manual previa, lo que puede demorar su aparición.