La inteligencia artificial aplicada a la salud no solo mejora diagnósticos, también reestructura el rol del paciente, del médico y la sociedad. Un estudio presentado en CHI 2025 analiza 21 productos de IA aplicada a la salud y revela que, además de optimizar procesos, también dibujan un modelo de “buena sociedad”, definen qué es un “buen paciente” y reordenan el trabajo clínico. La investigación revela los mundos que promete y los dilemas que abre.
Las campañas de la nueva salud con IA son un carrusel de promesas: resultados más rápidos, diagnósticos más precisos y vidas mejoradas gracias a datos en tiempo real. Los investigadores Catherine Wieczorek, Heidi Biggs, Kamala Payyapilly Thiruvenkatanathan y Shaowen Bardzell se preguntan qué hay debajo de ese relato y proponen mirarlo con la lupa de la socióloga Ruth Levitas, quien entiende la “utopía” como un método para pensar futuros posibles.
La promesa no es neutral. Con esa idea, revisan la publicidad, los vídeos y los sitios web de 21 sistemas de IA —desde robots quirúrgicos hasta apps de embarazo— para ver no solo lo que hacen, sino la sociedad que proyectan.

Un mapa para leer las promesas
La utopía como método de Levitas ofrece tres lentes: arqueología (qué imágenes del “buen futuro” rescatan), ontología (qué tipo de personas imaginan) y arquitectura (qué estructuras sociales proponen). Es un prisma triple.
Con él, el equipo analiza cómo las tecnologías de salud con IA se apoyan en deseos ya conocidos —eficiencia, control, prevención— y los convierten en un horizonte que parece inevitable.
En el plano arqueológico aflora un repertorio familiar: la vida monitorizada sin fricciones, la medicina sin esperas, el riesgo convertido en probabilidad y, por tanto, en intervención temprana. Todo suena perfecto. Pero esa perfección implica vigilancia constante, redistribución de poder entre humanos y máquinas y nuevas dependencias de plataformas.
Desde la ontología, la pregunta es quién puede prosperar en ese mundo: pacientes predispuestos a confiar, profesionales dispuestos a co-producir con algoritmos y cuerpos listos para ser optimizados según métricas. Se define al “buen usuario”. Y desde la arquitectura se ve cómo esa visión reorganiza tareas, flujos de datos y responsabilidades legales.
Cuatro mundos que la IA pone en escena
El primer mundo es el de la omnipresencia: pulseras, parches, cámaras y chats que recogen señales biológicas todo el día y las traducen en alertas y recomendaciones. La salud nunca se apaga. La atención se vuelve continua, móvil y remota, con el hogar como extensión de la consulta y la nube como expediente.
El segundo es el de la eficiencia: ultrasonidos de bolsillo, citologías digitales, algoritmos que posicionan mejor al paciente en el escáner o priorizan imágenes. La promesa es reducir variabilidad humana y acelerar procesos, pero también desplaza valor hacia lo que la máquina mide y decide.
El tercero es el de la prevención total: chatbots maternos que detectan riesgos, apps que estiman presión arterial con un selfie y plataformas que estratifican población para intervenir antes. La clínica deja de esperar síntomas y pasa a gestionar probabilidades, con beneficios y dilemas a la vez.
El cuarto mundo es el de la optimización: audífonos que ajustan el entorno, sistemas de fertilidad que clasifican embriones o wearables que prometen controlar lo incontrolable. La mejora personal se vuelve objetivo por defecto y la norma de rendimiento puede invisibilizar ritmos, capacidades y vidas diversas.
Este ideal puede deslizarse hacia el tecno-capacitismo: si lo bueno es arreglar o normalizar, las diferencias corren el riesgo de verse como fallos a corregir. Pero no todo es déficit. Un enfoque verdaderamente inclusivo no solo adapta dispositivos, también valida maneras distintas de oír, moverse, gestar o envejecer.
La optimización, además, trae capas extras: más sensores, más cuentas compartidas, más integraciones con el móvil de la familia. Más funciones, más exposición. El límite entre empoderamiento y paternalismo depende de quién decide, qué datos se recogen y con qué fin concreto.

Roles que cambian: paciente, profesional y… la IA
En muchos de estos productos, el paciente se vuelve consumidor: confía, cumple y paga suscripciones para recibir consejos “personalizados”. Si la explicación es opaca o el modelo falla, el margen de crítica y negociación se reduce.
El profesional pasa a ser co-productor con el algoritmo: integra salidas automáticas, valida alertas y reparte su autoridad con sistemas que ven patrones imposibles al ojo humano. El criterio no desaparece, pero el tiempo de consulta se mueve hacia interpretar scores, ajustar umbrales y gestionar excepciones.
La IA emerge como un usuario también que filtra datos, sintetiza historias y propone rutas de acción; una voz más en el equipo, con agencia práctica y efectos reales. La máquina participa y con su participación crece la pregunta por la responsabilidad cuando el consejo automatizado se equivoca.
Lo que se reordena: trabajo y cuidados
En la arquitectura del nuevo ecosistema, tareas antes humanas se automatizan: triajes iniciales, posicionamiento en equipos, cribados masivos y seguimiento entre visitas. El trabajo se redistribuye —esto puede liberar tiempo clínico, pero también añadir nuevas cargas de monitoreo y justificación de decisiones. Los cuidados se descentralizan de la sala de espera al salón de casa y del encuentro humano al ciclo app-sensor-alerta-mensaje. Se gana inmediatez y alcance, pero se puede perder escucha, contexto y la conversación que sostiene la adherencia terapéutica.
La infraestructura se adapta y surgen nubes con cumplimiento regulatorio, roles nuevos (especialistas en datos clínicos), protocolos de auditoría y trazabilidad. La privacidad se convierte en trabajo —no basta con cifrar, hay que decidir qué datos son proporcionales, quién accede, cómo se explican y cómo se revocan consentimientos.

¿Cómo hacer realidad una utopía habitable?
El estudio no demoniza la IA, reconoce mejoras reales en diagnóstico, prevención y acceso. El matiz es clave. Lo que pide es pasar del entusiasmo genérico a una deliberación concreta sobre valores, límites y condiciones de uso.
Para eso, sugiere participación. Es decir, incorporar a pacientes diversos, clínicos, comunidades y perfiles técnicos en el diseño, evaluación y gobierno de estos sistemas. Diseñar con, no para. También pide explicación útil, métricas alineadas con resultados que importan a las personas y mecanismos claros de responsabilidad.
La conclusión no es “IA sí” o “IA no”, sino IA en sus justos términos: con diversidad al centro, transparencia operativa, supervision humana en decisiones sensibles y derecho a decir “no” a la monitorización cuando no aporta valor. La tecnología debe servir a la vida, solo así la utopía deja de ser eslogan y se convierte en un lugar habitable.
Referencias
- Wieczorek, C., Biggs, H., Payyapilly Thiruvenkatanathan, K., & Bardzell, S. (2025, April). Architecting Utopias: How AI in Healthcare Envisions Societal Ideals and Human Flourishing. In Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems (pp. 1-15). doi: 10.1145/3706598.3713118