Un análisis en el que participaron casi 2.000 adultos de Estados Unidos y Canadá revisó cómo interactuaban las personas con la inteligencia artificial (IA). Entre los resultados se indica que quienes aceptaban las respuestas de la IA sin cuestionarlas reportaron menor confianza en su propio razonamiento. Por el contrario, quienes contaban con mayor experiencia laboral,  las revisaban y corregían se sentían más seguros de sí mismos.

Tanto en el mundo como en Chile, cada vez más personas integran el uso de herramientas de inteligencia artificial, como ChatGPT o Claude, para realizar tareas cotidianas. Según el estudio “La Vida con IA en Chile”, elaborado por Google e Ipsos, el 71% de las personas de entre 18 y 65 años en Chile ya ha utilizado estas tecnologías, mientras que un 39% las usa de forma frecuente. Pero, ¿cómo interactúan las personas con la IA y qué factores inciden en esa interacción? Son las principales preguntas del estudio “Generative Artificial Intelligence Reliance and Executive Function Attenuation”, publicado el 16 de abril en la revista Technology, Mind, and Behavior

La investigación siguió a 1.923 adultos en Estados Unidos y Canadá que tendían a utilizar inteligencia artificial (IA). La primera revelación es que algunos grupos de personas que dependen en gran parte de herramientas como ChatGPT, Gemini y Claude en sus entornos laborales, tienden a afirmar que estas herramientas “pensaban por ellos”.

El estudio realizado por Sarah Baldeo, investigadora en inteligencia artificial y neurociencia de Middlesex University, también apuntó a que la forma en que las personas interactúan con la IA y confían en sus resultados puede variar según el nivel de confianza que tienen en su propio conocimiento.

Durante el desarrollo del estudio, los participantes realizaron una serie de tareas laborales simuladas en las que utilizaron IA. Algunos aceptaron la primera respuesta útil que recibían, mientras que otros se detenían a reflexionar y editar las respuestas hasta que estas reflejaran mejor su propio pensamiento.

En las tareas que requerían planificación y secuenciación, las personas tendían a delegar completamente las ideas. En cambio, cuando las tareas implicaban reflexionar a partir de experiencias personales o autobiográficas, eran más propensas a cuestionar lo que decía la IA y a confiar más en sí mismas.

En ese sentido, los participantes con más experiencia laboral o que ocupaban cargos de alta dirección mostraron una mayor disposición a descartar las decisiones sugeridas por la IA y manifestaron más confianza en su propio criterio, en comparación con quienes eran principiantes.

Uno de los hallazgos del trabajo fue que las personas que aceptaban las respuestas de la inteligencia artificial sin cuestionarlas reportaban menor confianza en su propio razonamiento. Además, el estudio indicó que la dependencia de la IA se correlacionó fuertemente con la dependencia de la inmediatez.

La responsabilidad como clave ante el uso de la IA 

Consultada por Congreso Futuro, Sarah Baldeo expresó que la IA es un “amplificador cognitivo” y señaló que la forma en que esta sea usada “resaltará tus peores o mejores hábitos cognitivos”. Sobre este punto, profundizó: “si eres un investigador diligente, confías en tus propios procesos de pensamiento y te interesa mejorar tu capacidad multitarea, entonces la IA será un aliado para el pensamiento. Si ya eres una persona tacaña en lo cognitivo, que no quiere pensar ni reflexionar y carece de confianza, entonces usar la IA solo exacerbará esos comportamientos. La clave aquí es la autonomía y las decisiones personales, asumiendo la responsabilidad de cómo usamos toda la tecnología”.

Baldeo enfatizó que en el desarrollo del estudio las personas que se quedaron con las respuestas de GenAI presentaron una disminución de la actividad cerebral, en comparación a quienes las cuestionaron, que tuvieron un aumento. “En los usuarios que intentaron soluciones independientes y aprovecharon la IA para la generación de ideas y diálogo, observamos un aumento en la actividad cerebral en 4 áreas de Brodmann: planificación motora, planificación futura y multitarea, monitoreo y regulación y memoria de trabajo/control ejecutivo”, dijo la autora.

Sobre la descarga cognitiva –que es el proceso en el que una persona reduce su carga mental trasladandola a elementos externos, como hacer un mapa para recordar ubicaciones o usar una calculadora para no hacer siempre un cálculo de forma mental–, la licenciada en filosofía y profesora asistente de Ética de IA y Datos de la Universidad Católica, Gabriela Arriagada, dijo que, si bien, en todos los casos anteriores sobre este tema lo que se descargó fue la ejecución o el almacenamiento sobre una acción o un conocimiento, el juicio sobre ese asunto seguía siendo propio.

“Con la IA generativa el offloading se desplaza hacia algo cualitativamente diferente: la formulación del pensamiento mismo. No solo se descarga el recuerdo o el cálculo, sino la elaboración del argumento, la selección de qué es relevante. Nadie siente que está perdiendo capacidad crítica en el momento en que acepta una respuesta sin cuestionarla, al contrario, siente que ahorró tiempo. Ese desfase entre el costo real y a largo plazo, cognitivo, versus la recompensa inmediata, comodidad y velocidad, es exactamente el tipo de trampa que los sesgos humanos manejan peor”, comentó.

Arriagada manifestó su preocupación por la posible atrofia de habilidades como la tolerancia a la ambigüedad, la capacidad de sostener argumentos sin apoyo externo inmediato y la confianza para llegar a conclusiones propias válidas. “Eso es difícil de recuperar una vez que se pierde, y más importante aún erosiona aquella metacognición, reflexión de nuestra propia comprensión y aprendizaje”.

Asimismo, apuntó a que el problema también es institucional, ya que si desde los sistemas educativos, laborales y mediáticos se valida más la producción de la IA que el criterio humano, “se crea un círculo vicioso donde confiar en uno mismo se vuelve socialmente costoso (…) Por esto me parece central que hablemos de la relevancia no solo de la alfabetización digital en IA, sino de la alfabetización en nuestra capacidad de deliberar éticamente sobre la IA.”.Gabriela Arriagada es parte de Cátedras del Futuro 2026, el programa gratuito de Congreso Futuro que entrega herramientas para comprender y habitar la era digital con pensamiento crítico. La invitación está abierta a quienes quieran reflexionar sobre el impacto de la inteligencia artificial, sus dilemas éticos y el rol que tenemos como ciudadanos frente a la tecnología. Inscríbete y sé parte de esta conversación en congresofuturo.cl .