La obsolescencia programada de las capacidades: IA, salud y la nueva frontera de la desigualdad
Por Víctor Píriz Correa
La obsolescencia programada suele asociarse al diseño deliberado del fin de la vida útil de un producto. Durante años la pensamos sobre todo en relación con electrodomésticos, teléfonos móviles, computadoras o televisores: objetos que antes duraban décadas y hoy parecen concebidos para ser sustituidos en ciclos cada vez más breves. Pero limitar el concepto a la industria de bienes es insuficiente. Un análisis más exhaustivo obliga a reconocer que existen varias formas de obsolescencia: natural, programada, percibida, planificada e incluso decretada. Y quizá la más peligrosa en la era digital sea justamente la menos visible: la obsolescencia percibida, aquella que no surge porque algo deje de funcionar, sino porque el sistema decide que ya no vale.
Ese razonamiento, que hasta hace poco servía para describir el mercado del consumo, hoy comienza a proyectarse sobre el trabajo humano. Mi preocupación es que la inteligencia artificial generativa podría convertirse en un motor de obsolescencia no solo de productos, sino de capacidades laborales, trayectorias profesionales y estructuras económicas enteras, antes de que los países y las personas tengan tiempo real para adaptarse. En otras palabras: estamos entrando en una etapa en la que el riesgo ya no es solamente que un dispositivo quede viejo, sino que un trabajador sea percibido como viejo por no seguir el ritmo de la actualización tecnológica.
Este problema es especialmente grave en el sector salud. Allí, la IA no debe ser pensada como reemplazo, sino como aumento. Esa distinción es decisiva. Si la usamos como complemento, puede reducir carga administrativa, disminuir burnout, mejorar procesos de documentación, apoyar el diagnóstico y ampliar capacidades clínicas. Si la usamos como criterio de validación del profesional, entonces entramos en una lógica de descarte humano: la validez del médico, la enfermera o el técnico empieza a medirse por su proximidad al último sistema, a la última interfaz o al último algoritmo, y no por su juicio clínico, su experiencia acumulada y su vínculo con el paciente. Ese es, a mi juicio, el verdadero riesgo de la época: la obsolescencia programada de las capacidades.
La obsolescencia programada clásica ya ha mostrado sus consecuencias sobre el medio ambiente. El crecimiento de los residuos electrónicos es uno de los rostros más concretos de este modelo. El mundo generó 62 millones de toneladas de residuos electrónicos en 2022, y el reciclaje formal no acompaña ese ritmo de crecimiento [1]. No se trata solamente de basura: estamos hablando de metales pesados, compuestos tóxicos, suelos contaminados, agua degradada, exposición humana, daño ecosistémico y afectación de cadenas tróficas [1,2]. La literatura internacional ha sido clara en mostrar que el e-waste no es un problema periférico del consumo, sino un problema de salud ambiental, humana y también animal [1,2]. Por eso resulta legítimo afirmar que la obsolescencia programada ya no es solo una distorsión del mercado, sino un fallo de gobernanza global.
Ahora bien, la novedad de nuestro tiempo es que esa lógica puede migrar desde los objetos hacia las personas. Y aquí la inteligencia artificial generativa introduce una aceleración inédita. Los informes recientes de la Organización Internacional del Trabajo muestran que el impacto de la IA no será uniforme y que, en muchos casos, es más probable que transforme tareas y aumente productividad antes que destruir masivamente empleos [3,4]. Sin embargo, ese dato, que suele presentarse como tranquilizador, no debería adormecer la reflexión política. Porque el verdadero problema no es solo cuántos empleos desaparecen, sino qué tipo de trayectorias laborales se debilitan, para quiénes, en qué países y bajo qué infraestructura.
El Working Paper 166 de la OIT de 2026 es especialmente ilustrativo en este punto. El estudio demuestra una asimetría crítica: en muchos países en desarrollo, los trabajadores que podrían ser desplazados por la automatización suelen tener ya suficiente conectividad como para sentir ese impacto rápidamente, mientras que quienes podrían beneficiarse de la IA para aumentar su productividad encuentran grandes cuellos de botella de infraestructura digital [3]. Es decir: el daño puede llegar antes que el beneficio. Esa idea resume bien la trampa de la infraestructura. La IA promete productividad, pero la brecha digital distribuye de manera desigual quién accede al aumento y quién recibe primero la perturbación.
Esto tiene consecuencias geopolíticas y sociales profundas. Los países de ingresos bajos y medios corren el riesgo de experimentar una especie de “desindustrialización cognitiva prematura”: la clausura anticipada de vías de ascenso laboral ligadas al trabajo administrativo, técnico o de oficina antes de que esas trayectorias lleguen a consolidarse plenamente [3]. El trabajo clerical, que históricamente funcionó como puerta de entrada a empleo de calidad y movilidad social, especialmente para mujeres y jóvenes, podría empezar a contraerse antes de haber cumplido ese papel en muchas economías en desarrollo [3]. Dicho de otro modo: la IA no solo puede automatizar tareas; también puede cerrar futuros.
En salud, esta amenaza adquiere una dimensión ética todavía más delicada. El sector sanitario no trabaja únicamente con información: trabaja con confianza, vulnerabilidad, incertidumbre, sufrimiento y responsabilidad moral. Por eso me parece un error conceptual hablar de sustitución sin matices. La literatura reciente en atención primaria insiste en que la IA puede ser un complemento útil, pero no un sustituto del razonamiento clínico ni de la relación asistencial [5]. Allí reside la diferencia entre una medicina aumentada y una medicina deshumanizada. Cuando la herramienta ayuda a descargar tareas repetitivas, ordenar información o apoyar la precisión diagnóstica, fortalece al profesional. Pero cuando el sistema sanitario empieza a valorar más la velocidad algorítmica que el juicio clínico, o más la adaptación a la herramienta que la experiencia humana, aparece una forma de violencia institucional silenciosa: el profesional empieza a ser tratado como una pieza actualizable o descartable.
No se trata de negar beneficios. Sería intelectualmente deshonesto hacerlo. La IA puede ayudar a disminuir carga administrativa, mejorar acceso a información, apoyar decisiones y favorecer procesos de aprendizaje. También obliga a desarrollar nuevas competencias, y eso puede ser positivo. El problema comienza cuando la actualización deja de ser formación y se convierte en mandato permanente de adaptación bajo amenaza implícita de irrelevancia. En un sector ya atravesado por envejecimiento de la fuerza laboral, escasez de personal y burnout, esa presión puede traducirse en más ansiedad, más inseguridad profesional y más dependencia tecnológica [5,6]. La pregunta entonces ya no es solo tecnológica; es antropológica y política: ¿quién decide cuándo una capacidad humana deja de ser válida?
A esta tensión laboral se suma otra dimensión menos discutida y no menos importante: la ambiental. Existe una narrativa excesivamente optimista sobre la IA en salud, como si su despliegue fuera casi inmaterial. Pero no lo es. La IA necesita centros de datos, energía, agua, minerales críticos, hardware, ciclos de renovación, infraestructura y dispositivos [6]. En otras palabras, también tiene huella ecológica. Y si esa huella se inserta en una economía basada en recambio acelerado, entonces la IA puede convertirse en multiplicadora de la obsolescencia material que ya conocemos: más presión extractiva, más residuos electrónicos, más consumo energético y más desigualdad en la distribución de costos ambientales [1,2,6]. Resulta paradójico que una tecnología presentada como solución para la eficiencia del sistema sanitario pueda, al mismo tiempo, agravar tensiones ambientales que terminan afectando la salud colectiva.
Por eso, mi posición es clara: la IA en salud no debe ser un reemplazo, sino un aumento. Pero esa afirmación, por sí sola, ya no alcanza. Hace falta una gobernanza capaz de impedir que el ritmo de la actualización tecnológica dicte la validez de un ser humano dentro del sistema sanitario. Si no ponemos límites, la obsolescencia programada dejará de ser un fenómeno de mercado para convertirse en una doctrina silenciosa de organización social: primero se degradan los objetos, luego se devalúan las capacidades y finalmente se jerarquizan territorios enteros según su cercanía al centro tecnológico.
La respuesta no puede ser tecnofóbica, pero tampoco ingenua. Debe ser política. Necesitamos diálogo social real, participación de trabajadores y sindicatos, inversión en infraestructura digital, protección social para quienes enfrenten transiciones laborales, alfabetización tecnológica crítica y marcos regulatorios que garanticen que la IA fortalezca la relación clínico-paciente en lugar de erosionarla [3-5]. Y necesitamos, además, una ética de la innovación que reconozca que ni los profesionales ni los países pueden ser tratados como hardware prescindible.
Si la obsolescencia programada fue uno de los símbolos del capitalismo industrial tardío, la obsolescencia programada de las capacidades puede convertirse en el símbolo más cruel del capitalismo algorítmico. En el sector salud, aceptar esa deriva sería un error histórico. Porque una medicina verdaderamente inteligente no es la que reemplaza a sus profesionales por sistemas cada vez más veloces, sino la que utiliza la tecnología para preservar aquello que ninguna máquina puede sustituir del todo: el juicio, la responsabilidad, la experiencia y el cuidado humano.
Bibliografía
International Telecommunication Union, United Nations Institute for Training and Research. The Global E-waste Monitor 2024. Geneva: ITU; 2024. Available from: Global E-waste Monitor 2024
Parvez SM, Jahan F, Brune MN, Gorman JF, Rahman MJ, Carpenter DO, et al. Health consequences of exposure to e-waste: an updated systematic review. Lancet Planet Health. 2021;5(12):e905-e920. Available from: DO
Gmyrek P, Viollaz M, Winkler H. Disruption without Dividend? How the Digital Divide and Task Differences Split GenAI’s Global Impact. ILO Working Paper 166. Geneva: International Labour Office; 2026. Available from: DOI
Gmyrek P, Berg J, Kamiński K, Konopczyński F, Ladna A, Nafradi B, et al. Generative AI and jobs: A refined global index of occupational exposure. ILO Working Paper 140. Geneva: International Labour Office; 2025.
Coronado-Vázquez V, Allande-Cussó R, Caparrós-González RA, Gómez-Salgado J. Inteligencia artificial y desinformación en salud: la necesidad de reeducación desde la atención primaria. Aten Primaria. 2026;58(3):103460. Available from: DOI
Katirai A. The Environmental Costs of Artificial Intelligence for Healthcare. Asian Bioeth Rev. 2024;16(3):527-538. Available from: DOI

