A doctor holding a virtual representation of AI technology

La creciente influencia de la Coalition for Health AI (CHAI) ha desatado tensiones con la administración Trump, que acusa a esta organización sin fines de lucro de actuar como regulador encubierto en el desarrollo de inteligencia artificial para el sector salud.

La inteligencia artificial en salud abarca un espectro amplio de aplicaciones: desde herramientas clínicas como alertas de sepsis o software para detección de retinopatía diabética, hasta tecnologías de uso individual como apps móviles de salud. También incluye soluciones para mejorar las operaciones administrativas del sistema de salud, como gestión de ingresos o programación de citas, así como herramientas híbridas que apoyan tanto lo clínico como lo administrativo (por ejemplo, asistencia en documentación, facturación o sugerencia de diagnósticos). Muchas de estas tecnologías ya están ampliamente adoptadas, en especial en áreas como imágenes médicas, salud móvil y funciones híbridas como la transcripción automatizada de consultas. Aunque todas tienen potencial para generar impactos significativos —positivos o negativos— en la salud, sus efectos rara vez se cuantifican. Esto se debe a que su evaluación es extremadamente compleja y, en muchos casos, ni siquiera es requerida, especialmente cuando estas herramientas quedan fuera del alcance regulatorio de la FDA. Uno de los grandes desafíos en su evaluación es que sus efectos dependen en gran medida de la interfaz humano-computadora, la capacitación del usuario y el contexto clínico en el que se utilizan.

Formada durante el gobierno de Biden, CHAI reúne a gigantes tecnológicos como Microsoft, Google y Amazon, junto con hospitales y aseguradoras, con el objetivo de establecer estándares éticos y técnicos para el uso de IA en salud. Entre sus propuestas más destacadas se encuentran las model cards, etiquetas estilo “nutricional” que describen el funcionamiento, límites y riesgos de los algoritmos médicos.

Sin embargo, altos funcionarios del Departamento de Salud (HHS) han criticado públicamente a CHAI, argumentando que favorece a grandes empresas y crea barreras para startups e innovadores independientes. Aunque CHAI afirma no tener poder regulatorio, su creciente peso técnico y político genera inquietud sobre quién está realmente definiendo las reglas del juego.

Recientemente, CHAI anunció junto a The Joint Commission (TJC) la publicación de la Guidance on the Responsible Use of Artificial Intelligence in Healthcare, un documento que ofrece estrategias para que las organizaciones de salud integren de manera responsable herramientas de IA. La guía define estas herramientas de forma amplia, incluyendo soluciones clínicas, administrativas u operativas que apliquen métodos algorítmicos a tareas relacionadas directa o indirectamente con la atención médica, los servicios de apoyo al cuidado y las operaciones relevantes del sistema de salud.

Este conflicto ocurre en paralelo con una reciente Request for Information (RFI) publicada por la FDA, que busca recopilar opiniones sobre cómo regular la IA en productos médicos. El documento pide aportes sobre transparencia, validación de modelos, ciclos de actualización y cómo garantizar seguridad sin frenar la innovación.

La aparente pugna entre CHAI y el gobierno federal revela una pregunta crucial en la era de la inteligencia artificial médica: ¿quién debe liderar la gobernanza de estas tecnologías — el Estado o el sector privado?

PHSU ad
MetaMed ad
PET-CT del Oeste ad
ASSMCA ad
ASPPR ad
Salon de la Fama de la Medicina ad

Suscripción a newsletter

Nombre
¿Eres un profesional de salud?