Quienes aprenden nuevas habilidades de programación con ayuda de la IA obtienen resultados significativamente peores en pruebas de conocimiento. Así lo muestra un nuevo estudio de Anthropic, que advierte sobre una integración demasiado agresiva de la IA en el entorno laboral.
Según la investigación, los desarrolladores de software que recurren a asistentes de IA al aprender una nueva biblioteca de programación desarrollan una comprensión más superficial de los conceptos subyacentes.
Para el estudio, los investigadores reclutaron a 52 desarrolladores, en su mayoría juniors, que llevaban al menos un año trabajando con Python y tenían experiencia previa con asistentes de IA, pero no conocían la biblioteca Trio. Los participantes se dividieron aleatoriamente en dos grupos: uno tuvo acceso a un asistente de IA basado en GPT-4o, mientras que el grupo de control trabajó únicamente con la documentación oficial y búsquedas web. Ambos grupos debían resolver dos tareas de programación con Trio lo más rápido posible.
Posteriormente, todos realizaron una prueba de conocimientos sobre los conceptos utilizados. El resultado clave: los participantes con acceso a IA obtuvieron un 17% menos de puntuación que el grupo sin ayuda de IA. Al mismo tiempo, el uso de la IA no aportó un ahorro de tiempo estadísticamente significativo en la resolución de las tareas.
Los autores del estudio, Judy Hanwen Shen y Alex Tamkin, concluyen:
«Nuestros resultados sugieren que una integración agresiva de la IA en el trabajo, especialmente en el desarrollo de software, conlleva compromisos».
Seis patrones de uso con resultados de aprendizaje muy distintos
La forma de interactuar con la IA resulta decisiva para el aprendizaje. El análisis cualitativo de las grabaciones de pantalla de 51 participantes reveló seis patrones distintos de uso del asistente. Tres de ellos produjeron resultados especialmente bajos en el test, con puntuaciones de entre 24% y 39%.
Quienes delegaron completamente las tareas en la IA terminaron más rápido, pero solo alcanzaron un 39% en el cuestionario. Resultados similares obtuvieron quienes comenzaron trabajando por su cuenta y luego pasaron a depender cada vez más de soluciones generadas por IA. El peor desempeño correspondió a quienes usaron repetidamente la IA para depurar errores sin entenderlos por sí mismos.
En cambio, otros tres patrones preservaron el aprendizaje, con puntuaciones de entre 65% y 86%. La estrategia más eficaz fue generar código con la IA y luego formular preguntas específicas para comprenderlo. También funcionó pedir explicaciones junto con el código o utilizar la IA exclusivamente para cuestiones conceptuales.
Chatear en exceso reduce la productividad
A diferencia de estudios previos, los investigadores no detectaron mejoras claras de productividad. Los usuarios de IA no fueron significativamente más rápidos. La explicación surge del análisis cualitativo: algunos participantes pasaron hasta 11 minutos solo interactuando con el asistente, por ejemplo formulando prompts.
Solo alrededor del 20% del grupo con IA utilizó el asistente exclusivamente para generar código. Este subgrupo sí fue más rápido que el grupo de control, pero obtuvo los peores resultados de aprendizaje. El resto invirtió tiempo adicional en preguntas, explicaciones y comprensión del código. Los autores sugieren que la IA mejora la productividad sobre todo en tareas repetitivas o ya dominadas, no en el aprendizaje de algo nuevo.
Con la IA se aprende menos de los errores
El grupo sin IA cometió más errores y tuvo que enfrentarse a ellos con mayor frecuencia. Según los investigadores, esto obligó a los participantes a pensar de forma crítica sobre el código. Incluso quedarse atascado en un problema puede ser clave para desarrollar competencias.
Las mayores diferencias en el test se observaron en preguntas relacionadas con debugging. El grupo de control experimentó más errores específicos de Trio, como RuntimeWarnings o TypeErrors, lo que aparentemente reforzó la comprensión de los conceptos centrales.
Implicaciones para el mundo laboral
Los autores advierten sobre las consecuencias en aplicaciones críticas de seguridad. Si las personas deben revisar y depurar código generado por IA, necesitan mantener esas habilidades. Sin embargo, estas pueden atrofiarse si el uso de la IA dificulta el desarrollo de competencias.
«La productividad asistida por IA no es un atajo hacia la competencia», resumen los investigadores. La clave para preservar el aprendizaje es el esfuerzo cognitivo: usar la IA para preguntas conceptuales o para obtener explicaciones, en lugar de delegar completamente el trabajo.
El estudio se limitó a una tarea de una hora con una interfaz basada en chat. Sistemas de IA agentivos, como Claude Code, que requieren aún menos intervención humana, podrían amplificar el efecto negativo sobre el aprendizaje. Es plausible —aunque no fue analizado— que este fenómeno también aparezca en otras áreas del trabajo intelectual, como la escritura o la conceptualización.
Resulta llamativo que Anthropic publique un estudio cuyos resultados pueden perjudicar su propio modelo de negocio. La empresa gana dinero con asistentes de IA como Claude, diseñados para apoyar el trabajo humano. Que su propio equipo de investigación advierta sobre los efectos negativos de estos productos no es algo habitual en la industria tecnológica actual.
Conclusión
El estudio de Anthropic muestra que la IA puede acelerar tareas, pero no sustituye el esfuerzo cognitivo necesario para aprender. Usada sin cuidado, la automatización corre el riesgo de debilitar habilidades clave. En el corto plazo, la productividad puede parecer intacta; a largo plazo, el coste puede ser una pérdida silenciosa de competencia profesional.
Quienes aprenden nuevas habilidades de programación con ayuda de la IA obtienen resultados significativamente peores en pruebas de conocimiento. Así lo muestra un nuevo estudio de Anthropic, que advierte sobre una integración demasiado agresiva de la IA en el entorno laboral.
Según la investigación, los desarrolladores de software que recurren a asistentes de IA al aprender una nueva biblioteca de programación desarrollan una comprensión más superficial de los conceptos subyacentes.
Para el estudio, los investigadores reclutaron a 52 desarrolladores, en su mayoría juniors, que llevaban al menos un año trabajando con Python y tenían experiencia previa con asistentes de IA, pero no conocían la biblioteca Trio. Los participantes se dividieron aleatoriamente en dos grupos: uno tuvo acceso a un asistente de IA basado en GPT-4o, mientras que el grupo de control trabajó únicamente con la documentación oficial y búsquedas web. Ambos grupos debían resolver dos tareas de programación con Trio lo más rápido posible.
Posteriormente, todos realizaron una prueba de conocimientos sobre los conceptos utilizados. El resultado clave: los participantes con acceso a IA obtuvieron un 17% menos de puntuación que el grupo sin ayuda de IA. Al mismo tiempo, el uso de la IA no aportó un ahorro de tiempo estadísticamente significativo en la resolución de las tareas.
Los autores del estudio, Judy Hanwen Shen y Alex Tamkin, concluyen:
«Nuestros resultados sugieren que una integración agresiva de la IA en el trabajo, especialmente en el desarrollo de software, conlleva compromisos».
Seis patrones de uso con resultados de aprendizaje muy distintos
La forma de interactuar con la IA resulta decisiva para el aprendizaje. El análisis cualitativo de las grabaciones de pantalla de 51 participantes reveló seis patrones distintos de uso del asistente. Tres de ellos produjeron resultados especialmente bajos en el test, con puntuaciones de entre 24% y 39%.
Quienes delegaron completamente las tareas en la IA terminaron más rápido, pero solo alcanzaron un 39% en el cuestionario. Resultados similares obtuvieron quienes comenzaron trabajando por su cuenta y luego pasaron a depender cada vez más de soluciones generadas por IA. El peor desempeño correspondió a quienes usaron repetidamente la IA para depurar errores sin entenderlos por sí mismos.
En cambio, otros tres patrones preservaron el aprendizaje, con puntuaciones de entre 65% y 86%. La estrategia más eficaz fue generar código con la IA y luego formular preguntas específicas para comprenderlo. También funcionó pedir explicaciones junto con el código o utilizar la IA exclusivamente para cuestiones conceptuales.
Chatear en exceso reduce la productividad
A diferencia de estudios previos, los investigadores no detectaron mejoras claras de productividad. Los usuarios de IA no fueron significativamente más rápidos. La explicación surge del análisis cualitativo: algunos participantes pasaron hasta 11 minutos solo interactuando con el asistente, por ejemplo formulando prompts.
Solo alrededor del 20% del grupo con IA utilizó el asistente exclusivamente para generar código. Este subgrupo sí fue más rápido que el grupo de control, pero obtuvo los peores resultados de aprendizaje. El resto invirtió tiempo adicional en preguntas, explicaciones y comprensión del código. Los autores sugieren que la IA mejora la productividad sobre todo en tareas repetitivas o ya dominadas, no en el aprendizaje de algo nuevo.
Con la IA se aprende menos de los errores
El grupo sin IA cometió más errores y tuvo que enfrentarse a ellos con mayor frecuencia. Según los investigadores, esto obligó a los participantes a pensar de forma crítica sobre el código. Incluso quedarse atascado en un problema puede ser clave para desarrollar competencias.
Las mayores diferencias en el test se observaron en preguntas relacionadas con debugging. El grupo de control experimentó más errores específicos de Trio, como RuntimeWarnings o TypeErrors, lo que aparentemente reforzó la comprensión de los conceptos centrales.
Implicaciones para el mundo laboral
Los autores advierten sobre las consecuencias en aplicaciones críticas de seguridad. Si las personas deben revisar y depurar código generado por IA, necesitan mantener esas habilidades. Sin embargo, estas pueden atrofiarse si el uso de la IA dificulta el desarrollo de competencias.
«La productividad asistida por IA no es un atajo hacia la competencia», resumen los investigadores. La clave para preservar el aprendizaje es el esfuerzo cognitivo: usar la IA para preguntas conceptuales o para obtener explicaciones, en lugar de delegar completamente el trabajo.
El estudio se limitó a una tarea de una hora con una interfaz basada en chat. Sistemas de IA agentivos, como Claude Code, que requieren aún menos intervención humana, podrían amplificar el efecto negativo sobre el aprendizaje. Es plausible —aunque no fue analizado— que este fenómeno también aparezca en otras áreas del trabajo intelectual, como la escritura o la conceptualización.
Resulta llamativo que Anthropic publique un estudio cuyos resultados pueden perjudicar su propio modelo de negocio. La empresa gana dinero con asistentes de IA como Claude, diseñados para apoyar el trabajo humano. Que su propio equipo de investigación advierta sobre los efectos negativos de estos productos no es algo habitual en la industria tecnológica actual.
Conclusión
El estudio de Anthropic muestra que la IA puede acelerar tareas, pero no sustituye el esfuerzo cognitivo necesario para aprender. Usada sin cuidado, la automatización corre el riesgo de debilitar habilidades clave. En el corto plazo, la productividad puede parecer intacta; a largo plazo, el coste puede ser una pérdida silenciosa de competencia profesional.
ES
EN