Un nuevo estudio revela que los mismos modelos de IA que predicen el desplazamiento laboral no se ponen de acuerdo sobre qué empleos se verán afectados, con discrepancias de hasta el 25%.
Atrás
Un nuevo estudio revela que los mismos modelos de IA que predicen el desplazamiento laboral no se ponen de acuerdo sobre qué empleos se verán afectados, con discrepancias de hasta el 25%.

Un nuevo estudio revela que los mismos modelos de IA que predicen el desplazamiento laboral no se ponen de acuerdo sobre qué empleos se verán afectados, con discrepancias de hasta el 25%.
Un nuevo estudio ha descubierto que los principales modelos de inteligencia artificial del mundo producen predicciones variadas y a menudo contradictorias sobre qué empleos están más expuestos a la automatización, lo que plantea dudas sobre la fiabilidad de las previsiones económicas impulsadas por la IA. El documento de trabajo, publicado por la Oficina Nacional de Investigación Económica (NBER), destaca la incertidumbre en un campo que se ha convertido en una preocupación urgente tanto para los responsables políticos como para los trabajadores, mostrando desacuerdos entre los tres modelos principales sobre el riesgo laboral.
"Personalmente, no confiaría en una sola medida para decir: 'Oh, debería cambiar de trabajo' o 'Debería cambiar la carrera de mi hijo'", afirmó Michelle Yin, de la Universidad Northwestern, una de las autoras del estudio. La investigación sugiere que, si bien se está utilizando la IA para predecir su propio impacto, los resultados están lejos de ser consistentes, lo que insta a la cautela antes de aceptar estos pronósticos como verdades absolutas.
El estudio, coescrito por Yin, Hoa Vu de la Universidad Northwestern y Claudia Persico de la American University, examinó las clasificaciones de exposición laboral de tres modelos de IA importantes: ChatGPT-5 de OpenAI, Gemini 2.5 de Google Deepmind y Claude 4.5 de Anthropic. Por ejemplo, Claude calificó a los contadores como altamente vulnerables a la IA, mientras que Gemini les asignó un riesgo mucho menor. Los modelos también discreparon sobre la vulnerabilidad de roles como gerentes de publicidad y directores ejecutivos.
Los hallazgos representan un desafío para los inversores y las empresas que confían en las "puntuaciones de exposición" generadas por IA para la planificación estratégica de la fuerza laboral. Con modelos como ChatGPT y Gemini discrepando aproximadamente una cuarta parte del tiempo, el estudio sugiere que la generación actual de IA puede estar reflejando sesgos de adopción existentes en lugar de proporcionar una visión clara de la disrupción futura.
El núcleo de la investigación consistió en alimentar los modelos de IA con tareas de la base de datos del Departamento de Trabajo para ver cuáles podían realizar. Los economistas descubrieron que el nivel de acuerdo entre los modelos era sorprendentemente bajo. Aunque ChatGPT y Gemini fueron los más alineados, siguieron ofreciendo evaluaciones diferentes sobre una parte significativa de las ocupaciones.
Esta divergencia es crítica porque estas puntuaciones de exposición se utilizan cada vez más en libros blancos de consultoría, notas de investigación y informes de políticas para guiar decisiones sobre capacitación y apoyo a la fuerza laboral. El estudio postula que algunas de estas diferencias pueden derivar de los datos de entrenamiento de los modelos; los adoptantes tempranos en campos como el análisis financiero generan más datos relacionados con la IA, lo que a su vez podría llevar a los modelos a clasificar esas profesiones como más expuestas.
La falta de fiabilidad de estas puntuaciones generadas por IA tiene implicaciones significativas. Los responsables políticos que intentan diseñar sistemas de apoyo para trabajadores desplazados y las instituciones educativas que asesoran a los estudiantes sobre carreras "a prueba de IA" podrían estar operando con datos defectuosos. Los economistas sugieren que, en lugar de confiar en un solo modelo de IA, los investigadores deberían analizar una variedad de modelos y ser más transparentes sobre la incertidumbre de las predicciones.
Para los inversores, el estudio sirve como una advertencia contra la realización de apuestas sectoriales basadas en narrativas simplistas de toma de control por parte de la IA. La falta de consenso entre los modelos de IA sugiere que el impacto en el mundo real en los mercados laborales será más matizado y difícil de predecir de lo que sugieren muchos informes. La exposición real de cualquier trabajo depende menos de las capacidades teóricas de un modelo y más de cómo se implementa realmente la IA en toda la economía, un proceso que requiere encuestas más robustas y análisis con intervención humana (human-in-the-loop).
Este artículo es solo para fines informativos y no constituye asesoramiento de inversión.