INTELIGENCIA ARTIFICIAL

La IA no solo responde, quiere involucrarte: no es neutra cuando la usas, te usa, explica un experto

(religionenlibertad.com).-Fabio Mercorio es experto en computación y profesor de Inteligencia Artificial y Data Science en la Universidad Bicocca de Milán, además del director del máster en IA, en la que se ha especializado desde 2015. 

Caterina Giojelli le ha entrevistado en el número de octubre de 2025 de Tempi sobre el impacto de la IA sobre las relaciones humanas y el engaño al que pueden conducirnos.

Fabio Mercorio ha llevado a cabo también diversas investigaciones sobre ciberseguridad, y no solo aplicada a la privacidad de los datos.
Fabio Mercorio ha llevado a cabo también diversas investigaciones sobre ciberseguridad, y no solo aplicada a la privacidad de los datos.Università degli Studi di Milano – Bicocca

-¿Cómo es posible que los sistemas artificiales se parezcan tanto a las personas reales como para suscitar relaciones?

-Son sustitutos de la conversación humana, entrenados con miles de millones de diálogos que reproducen patrones comunicativos. En sus respuestas siempre están activos: proponen alternativas, hacen preguntas, intentan entretenerte. No se limitan a dar la respuesta ‘correcta’, quieren involucrarte. No juzgan, no distinguen entre lo correcto y lo incorrecto: complacen hasta el exceso y pueden fomentar comportamientos peligrosos. El objetivo es el placer de la conversación. Al igual que Netflix te sugiere otro título después de una película, el chatbot tiene como objetivo prolongarla. Y al hablar, inevitablemente, te descubres.

-«He descubierto que ChatGpt me ha estado mintiendo durante un día entero», se quejan algunos usuarios. Un juez de Nueva York descubrió que siete sentencias citadas por un abogado que se basó en ChatGpt eran falsas.

-Existe el problema de las alucinaciones. ChatGpt puede inventar con gran imaginación: no está entrenado para decir la verdad, sino para responder siempre. Los chatbot casi nunca dicen «no lo sé»: la lógica es que una respuesta, aunque sea incorrecta, es mejor que ninguna. Esto se debe a que, durante el entrenamiento, responder siempre es mejor que no responder. Incluso los modelos para compañía personal siguen este criterio: responder siempre, con asertividad, para maximizar el compromiso y la gratificación que genera dopamina y crea adicción, convirtiendo a los chatbot en un refugio para personas solas o frágiles.

-Hablamos de millones de relaciones: ¿fenómeno minoritario o punta del iceberg?

-Es difícil decirlo. Character.ai tiene entre 25 y 28 millones de usuarios y fue fundada por antiguos empleados de Google. Replika tiene un público objetivo diferente, pero también cuenta con decenas de millones de usuarios. Luego está Meta Ai, que se ha integrado en plataformas ya muy extendidas y ha comenzado a conversar con millones de personas sin demasiado revuelo. Conozco a personas que mantienen relaciones personales con chatbots sin darse cuenta. Ya no es un pasatiempo. Lo digo con cierta provocación: pensemos en Whatsapp, de la noche a la mañana apareció un círculo azul que no se puede desactivar en unos 35 millones de cuentas en Italia que ‘invita’ a conversar con la IA de Meta y nuestra única preocupación, aunque justificada, ha sido el tratamiento de los datos de conformidad con la ley de privacidad, perfectamente respetada, mientras que millones de personas ahora pueden confiar en la IA… quizás nos estamos perdiendo algún detalle.

-¿Quiénes corren mayor riesgo?

-Los adolescentes. Se encuentran en una edad delicada, se sienten más cómodos chateando que viéndose. Pero no es solo una cuestión de edad: el verdadero factor es la soledad. Las redes sociales nos han convertido a todos en más solos, a pesar de multiplicar las conexiones y las «comunidades». Han allanado el camino para las relaciones con los chatbot, que son las redes sociales del futuro.

Deja una respuesta