Volver

Fe e inteligencia artificial

Publicado: 12 de Mayo de 2026

Ni miedo ni ingenuidad: cómo vivir la fe en tiempos de IA

por Ricardo Evangelista

En medio de un mundo cada vez más marcado por el avance de la inteligencia artificial, surgen preguntas profundas sobre su impacto en la persona, los vínculos y la vida de fe. ¿Estamos frente a una amenaza o a una oportunidad?

Conversamos con el ingeniero civil Andrés Vergara González, quien desde su experiencia en el desarrollo y aplicación de estas tecnologías ofrece una mirada clara y provocadora: la IA no está llamada a reemplazar lo humano, sino a potenciarlo. Pero su verdadero impacto dependerá de cómo la integremos en nuestra vida personal, comunitaria y espiritual.

Andrés es co-fundador y CEO de MAindset, no es un recién llegado al mundo digital. Con 25 años de experiencia en analytics, hoy lidera una consultora que ayuda a las organizaciones a mirar la IA desde una perspectiva humana. Miembro activo de Schoenstatt, Andrés nos invita en este inicio de año a discernir cómo esta tecnología puede potenciar nuestra misión.

Desde la espiritualidad de Schoenstatt, esta conversación nos invita a discernir: ¿cómo usar la tecnología sin perder lo esencial –el vínculo, la interioridad y la libertad interior– en un tiempo que avanza cada vez más rápido?

La inteligencia artificial está cada vez más presente en nuestra vida. Desde su experiencia, ¿cómo puede esta tecnología ponerse realmente al servicio de la persona humana?

La clave está en una palabra: aumentar. No reemplazar. Yo partí hace 25 años trabajando en analytics e inteligencia artificial con empresas grandes, y lo que he visto una y otra vez es que la tecnología funciona cuando amplifica lo que una persona ya es. En MAindset, la consultora que fundamos para ayudar a las organizaciones a mirar distinto el tema de la IA, nosotros hablamos del “individuo aumentado”: una persona que, con ayuda de la Inteligencia Artificial, puede hacer mejor aquello que realmente tiene sentido. Un médico que diagnostica con más precisión, puede salvar muchas vidas. Un profesor que puede personalizar su enseñanza, puede cambiarle el futuro a muchos jóvenes. Un gerente que deja de perder 20 horas al mes en tareas mecánicas y puede dedicar ese tiempo a liderar personas, a entender sus preocupaciones y en ayudarles a hacer la transición de tareas mecánicas y repetitivas, a tareas más significativas. La IA se pone al servicio de la persona cuando la libera para lo esencialmente humano: pensar, decidir, vincularse, crear. El problema aparece cuando invertimos la ecuación, cuando la persona se pone al servicio de la herramienta.

Schoenstatt habla mucho de la cultura de los vínculos. ¿Cómo cree que la inteligencia artificial puede fortalecer –y no debilitar– nuestras relaciones humanas y comunitarias?

Mira, Schoenstatt nos enseña que el vínculo es lo que sana y transforma. No la información, no la eficiencia, el vínculo. Y la IA, bien usada, puede ser aliada del vínculo justamente porque te devuelve tiempo y atención. Te doy un ejemplo concreto: en un proyecto que estamos haciendo con una empresa grande, automatizamos reportes que le tomaban al equipo días enteros de trabajo mecánico. ¿Qué pasó? Esas personas ahora tienen espacio para conversar con sus clientes, para pensar juntos, para vincularse de verdad. La IA no genera vínculos, eso es irreemplazablemente humano. Pero puede remover los obstáculos que nos impiden cultivarlos. Ahora, esto requiere intencionalidad. Si uso el tiempo que la IA me libera para meterme en más pantallas, perdí la oportunidad. Si lo uso para estar más presente con mis hijos, con mi comunidad, con mi equipo, ahí la tecnología sirvió al vínculo.

Algunos temen que la tecnología aumente el aislamiento. ¿Qué desafíos plantea la inteligencia artificial para la calidad de nuestros vínculos y de la vida comunitaria?

El desafío más serio no es el que la gente imagina. No es que un robot te reemplace en el trabajo. El desafío real es la ilusión de compañía. Hoy ya hay millones de personas conversando con chatbots como si fueran amigos, como si fueran consejeros. Y la tecnología es lo suficientemente buena para que se sienta cómodo, cálido incluso. Pero es un vínculo sin riesgo, sin vulnerabilidad, sin el otro real que me desafía. Uno de los principales sesgos de la IA es que es condescendiente. Te tiende a decir lo que quieres escuchar, y eso normalmente no ayuda. Algo similar pasa con los algoritmos de las redes sociales, que te muestran reels e historias, que coinciden con tu opinión… pero te desafían poco, te alejan de los que piensan distinto. Y eso, desde Schoenstatt, lo vemos claro: el vínculo auténtico implica entrega, fricción, sacrificio. No hay atajo tecnológico para eso.

El otro desafío es la fragmentación de la atención. Yo tengo cuatro hijos, y veo cómo la tecnología compite permanentemente por su atención. No es un problema de la IA en particular, pero la IA lo potencia porque hace que el contenido digital sea cada vez más personalizado, más atractivo, más difícil de soltar. Ahí la comunidad tiene un rol fundamental como contrapeso, necesitamos espacios donde nos miremos a la cara.

El desarrollo de la IA también plantea preguntas éticas. ¿Cuáles cree que son hoy los principales riesgos o alertas que deberíamos tener presentes?

El primer riesgo es la concentración de poder. Los modelos de IA más avanzados se desarrollan en dos polos: por un lado, los desarrollan y financian algunas empresas privadas gigantescas en Estados Unidos: OpenAI, Alphabet, Anthropic, Nvidia, Meta, Amazon, Microsoft, x.ai, y por otro lado, China con modelos de Código Abierto desarrollados por Deepseek, Alibaba, Xiaomi, entre otros. Eso significa que decisiones que afectan a millones –qué información ves, cómo se evalúa tu crédito, qué contenido se filtra– las toma un grupo muy reducido de personas con sus propios sesgos y sus propios incentivos comerciales.

El segundo riesgo es la erosión de la verdad. La IA generativa puede crear texto, imágenes y video indistinguibles de lo real. Esto no es futuro, es hoy. Y en un mundo donde ya cuesta discernir qué es verdadero, esto es gasolina al fuego. Los agentes pueden producir miles de veces más texto que las personas, como vamos a navegar el mundo donde no sabemos quién es el autor de qué y sobre todo un mundo donde las perlas se esconden en millones de comentarios basura. Es un gran desafío de la sobre-información.

El tercer riesgo, menos visible pero igual de profundo, es la desresponsabilización. Cuando delegas decisiones a un algoritmo, se diluye quién es responsable. “Lo decidió el sistema” es la nueva forma de lavarse las manos. Y como cristianos, sabemos que la libertad y la responsabilidad son inseparables. No podemos delegar nuestra conciencia a una máquina.

La fe cristiana invita a buscar la verdad y discernir. ¿Puede la inteligencia artificial ayudar también al crecimiento espiritual o a la formación en la fe?

Sí, pero como instrumento, no como fuente. Yo personalmente he usado IA para profundizar en textos del padre Kentenich, para hacer música religiosa, para indagar en el pensamiento filosófico de algunas personas relevantes, entre otras cosas. También se puede usar para cruzar referencias entre el pensamiento del Padre y la doctrina de la Iglesia, para preparar contenidos formativos en colegios de la red, entre muchas otras posibilidades. Una analogía que ayuda es pensar que por $ 20.000 mensuales puedes tener un asistente de investigación doctorado en todas las disciplinas que acaba de llegar desde la India, que aprendió hablar español por diccionario, y que te puede ayudar a llegar más rápido a lo que necesitas estudiar o lo que quieras hacer, si aprendes a darle contexto en forma adecuada. Digo $ 20.000 y no gratis, porque usar los modelos de lenguaje gratuitos no son seguros (usan tu información para entrenarse) y tienen un nivel intelectual muy inferior, tienen menos capacidad de entender tu contexto personal, peor memoria, etc.

Hace algunos meses me pidieron dar una conferencia a los Padres de Schoenstatt y otra al Arzobispado de Santiago, justamente para explicarles en qué consiste esta ola de la IA Generativa y cómo se puede utilizar en el ejercicio pastoral. Y la verdad es que las posibilidades son enormes: desde preparar homilías y contenidos formativos, hasta acompañar procesos de catequesis, sistematizar experiencias pastorales, responder dudas de fe con buenas fuentes. Un sacerdote que atiende cinco comunidades puede multiplicar su alcance sin perder profundidad. Lo mismo pasa en organizaciones sociales y educacionales que típicamente tienen muchas necesidades y pocos recursos, la IA puede ser un gran ecualizador si la sabemos aprovechar. Es una oportunidad que no nos podemos farrear, pero también que hay que saber cuidar.

Pero, y esto es fundamental, la IA no reza y tiene sesgos no evidentes. No tiene experiencia de Dios. No tiene interioridad. Puede organizar información sobre la fe, los dogmas, la historia de la Iglesia, pero la fe es ante todo un encuentro con Dios encarnado, y un encuentro de la comunidad con Dios. Ningún algoritmo sustituye a una buena conversa con un director espiritual, a una comunidad que te acompaña, a un momento de silencio en el Santuario, pero bien usada, puede enriquecerla mucho.

Muchos jóvenes ya usan herramientas de IA para aprender y estudiar. ¿Qué criterios recomendaría para utilizarlas de manera responsable y formativa?

Hay algo que quiero poner sobre la mesa con datos concretos, porque esta conversación no puede quedarse en opiniones (que hay muchas y muy diversas). Un estudio del MIT Media Lab de este año monitoreó con electroencefalogramas a estudiantes mientras escribían ensayos, unos con ChatGPT, otros solos. Los que usaron ChatGPT mostraron la actividad cerebral más baja, peor memoria, y ensayos que los propios evaluadores llamaron “sin alma.” Mientras más lo usaban, más se deterioraba su desempeño. Pero aquí viene lo interesante: cuando tomaron al grupo que había trabajado primero solo, con su propio cerebro, y después le dieron acceso a la IA, ese grupo mostró mayor conectividad cerebral. Es decir, la IA usada después de pensar por ti mismo potencia el aprendizaje. La IA usada en vez de pensar por ti mismo lo destruye.

Y esto se complementa con un estudio de Harvard publicado este año en Scientific Reports, donde un tutor de IA bien diseñado –que no daba respuestas sino que hacía preguntas, desafiaba, guiaba– logró que los estudiantes de Física aprendieran el doble en menos tiempo comparado con una clase tradicional activa. El doble. La diferencia no es la herramienta, es cómo la usas.

Entonces, tres criterios concretos. Primero: usa la IA para pensar más, no para pensar menos. Si la usas para que te haga la tarea, te estás robando a ti mismo y la neurociencia ahora lo confirma. Si la usas como sparring, como interrogador, como un tutor que te desafía, estás creciendo.

Segundo: verifica siempre. La IA se equivoca con mucha confianza. Puede inventar datos, citas, incluso autores que no existen. Un joven que usa IA sin espíritu crítico es más vulnerable a la desinformación que uno que no la usa.

Tercero: no dejes que te defina. Los algoritmos aprenden lo que te gusta y te dan más de lo mismo. Te crean una burbuja cómoda. La formación real –y esto lo sabe cualquiera que haya pasado por un proceso formativo serio en Schoenstatt– pasa por exponerte a lo que te incomoda, a lo que te desafía, a lo que te hace crecer.

La espiritualidad cristiana invita a cultivar la interioridad. En un mundo hiperconectado, ¿cómo podemos usar la tecnología sin perder el silencio interior y la relación con Dios?

Esta es la pregunta más personal para mí. Yo trabajo con IA todo el día, literalmente es mi profesión. Y la tentación de estar permanentemente conectado, permanentemente produciendo, es real. Lo que he aprendido –y sigo aprendiendo– es que el silencio hay que protegerlo con la misma disciplina con que uno protege una reunión importante. Nadie cancela una reunión con un cliente. Pero cancelamos el silencio, la oración, el momento de no hacer nada, con una facilidad enorme.

Creo que la espiritualidad ignaciana y kentenijiana nos dan una herramienta potente: el examen de conciencia. Revisar al final del día: ¿dónde estuve presente? ¿Dónde me dejé llevar por la inercia digital? ¿En qué momento la herramienta me usó a mí en vez de yo usarla a ella? No se trata de demonizar la tecnología, sería absurdo viniendo de alguien que vive de esto. Se trata de ser señor de la herramienta y no esclavo. Y eso requiere una interioridad cultivada, no improvisada.

El padre Kentenich hablaba de formar “hombres nuevos para una nueva comunidad”. Frente al avance de la inteligencia artificial, ¿qué tipo de personas y cultura cree que necesitamos formar hoy?

El padre Kentenich tenía una frase que a mí juicio expresa bien como debe ser esa nueva comunidad: Vivir con “La mano en el pulso del tiempo, y el oído en el corazón de Dios”. Esa frase hoy tiene una urgencia concreta que quiero dimensionar: más de la mitad del dinero total que se invierte en nuevos negocios se está yendo a inteligencia artificial. Estados Unidos y China están en una carrera frenética por quién llega primero a la inteligencia artificial general, a una IA que piense como un ser humano. Esto no es ciencia ficción, es geopolítica real, es economía real, está pasando ahora. Y Schoenstatt no puede estar fuera de esa conversación. No podemos darnos el lujo de mirar esto desde afuera, con distancia piadosa, mientras el mundo se reconfigura. Esto es la “misión del 31 de mayo” aterrizada.

La pregunta kentenijiana hoy es doble: ¿cómo hacemos que esta IA nos humanice en vez de deshumanizarnos? Y ¿cuál es ese nuevo orden social que vamos a construir? Porque alguien lo va a construir, la pregunta es si lo construyen solo los ingenieros de Silicon Valley con sus incentivos comerciales, o si también participamos quienes tenemos una visión del ser humano como imagen de Dios, pero que entendemos las posibilidades que ofrece.

El “hombre nuevo” que Kentenich proponía no es alguien que rechaza su tiempo, sino alguien que vive en su tiempo con libertad interior. Hoy eso significa formar personas con pensamiento crítico, que no acepten un resultado porque “lo dijo la IA,” igual que no deberían aceptar algo solo porque “lo dijo el jefe.” Personas con capacidad de vínculo real, que entiendan que la eficiencia no es el valor supremo. Y personas con arraigo en su fe, en su comunidad, en su identidad. Porque el mayor riesgo de un mundo híper-tecnológico no es que nos falten herramientas, es que nos sobre velocidad y nos falte raíz. Necesitamos gente que sepa para qué vive antes de optimizar cómo vive.

Si tuviera que dar un consejo a quienes viven su fe y miran con cierta inquietud el avance de la inteligencia artificial, ¿qué actitud interior recomendaría para enfrentar este nuevo tiempo tecnológico?

Ni miedo ni ingenuidad. Diría: curiosidad con discernimiento. El miedo paraliza y además es mal consejero, te hace rechazar algo que podrías estar usando para servir mejor. La ingenuidad te hace tragar todo sin filtro. El cristiano está llamado a algo más maduro: a mirar la realidad de frente, con los ojos abiertos, y preguntarse: ¿cómo uso esto para el bien? ¿Dónde están los riesgos reales? ¿Qué me acerca a mi misión y qué me distrae de ella?

Yo les diría que se formen, que prueben las herramientas, que pierdan el miedo a equivocarse con ellas. Pero que nunca pierdan la pregunta de fondo: ¿esto me hace más libre o más dependiente? ¿Más disponible para el otro o más encerrado en mí mismo? Si mantienes esa pregunta viva, la tecnología –cualquier tecnologa– se convierte en lo que debe ser: un instrumento al servicio de algo más grande que ella misma. Y nosotros, desde Schoenstatt, sabemos bien cuál es ese “algo más grande.”

Compartir esta noticia:

Noticias relacionadas