Su irrupción en el campo de las ciencias biomédicas es vertiginosa: hoy es posible anticipar el riesgo de enfermedades analizando datos biométricos, apoyar decisiones clínicas mediante sistemas predictivos e incluso gestionar recursos hospitalarios a partir de modelos algorítmicos que optimizan tiempos y resultados. Y bajo esta lógica, el imparable desarrollo tecnológico y su aplicación en salud aparece como indiscutiblemente positivo y transformador. Y sin duda, hay avances reales que pueden mejorar la atención sanitaria, expandir capacidades diagnósticas y ofrecer tratamientos personalizados. ¿Quién podría oponerse a tal progreso?
Sin embargo, la cuestión ética fundamental no es si podemos hacerlo, sino qué lugar ocupa el ser humano en ese proceso. La IA abre puertas extraordinarias, pero también plantea dilemas que no pueden resolverse desde criterios de mera eficiencia, sino desde la reflexión analítica y crítica que hace la filosofía y especialmente la bioética como ética aplicada.
La celeridad nos obliga a detenernos a pensar. Porque si la reflexión llega tarde, la lógica algorítmica puede imponerse en silencio, desplazando las preguntas fundamentales sobre lo humano a un lugar marginal o subestimado ante el pensar calculante. Entonces, la medicina corre el riesgo de convertirse en gestión de datos, y el enfermo, en mera información.
La IA irrumpe en la salud en cinco ámbitos clave —diagnóstico, tratamiento, prevención, investigación y gestión hospitalaria— y lo hace con la fuerza de lo inevitable. Antes de que estas herramientas se transformen en imprescindibles, debemos preguntarnos qué implican para la dignidad de quienes serán objeto de estas decisiones tecnológicas. Porque el problema no está en la técnica, sino en nuestras decisiones y su impacto sobre la vida y la dignidad de las personas.
La necesidad del discernimiento
Conviene recordar que la tecnología no es moralmente neutra, porque se diseña siempre con una intención, y ejecuta esa intención con mayor eficacia que cualquier proceso humano. Un algoritmo no tiene ética; ejecuta. Y si la ética no se le impone desde afuera, su despliegue puede reforzar injusticias o lógicas deshumanizantes. Por eso, la bioética no debe limitarse a ser una instancia consultiva, sino una fuerza crítica capaz de orientar el desarrollo tecnológico hacia el bien humano, dirigiendo la innovación hacia un horizonte humanista centrado en la dignidad de la persona.
Es legítimo usar IA para estudiar tumores; no lo es usarla para decidir quién merece un tratamiento. Del mismo modo, las decisiones terapéuticas no pueden ser delegadas en una máquina. La IA puede elegir —entre lo más probable y lo menos probable—, pero solo un ser humano puede decidir desde la prudencia. Elegir es un cálculo; decidir es un acto moral. Un algoritmo no conoce la compasión, la responsabilidad ni la esperanza. Si la IA sustituye, deshumaniza. Si colabora, puede humanizar desde una mayor capacidad comprensiva. Lo decisivo no es la herramienta, sino el lugar desde el cual se la usa.
La medicina exige prudencia y deliberación humana, no obediencia técnica. El médico interpreta, acompaña, contextualiza, discierne. La IA puede decir qué es estadísticamente probable. El médico ayuda a entender qué es éticamente deseable. No se trata de aprender lo que la IA puede hacer, sino de comprender lo que no debe hacer.
El humanismo como frontera ética
La IA puede calcular, pero no puede discernir humanamente desde la compasión. Puede detectar patrones, pero no puede comprender el sentido del sufrimiento. Puede optimizar la gestión de tiempos, pero no puede crear el tiempo necesario para la escucha, que tantas veces es parte de la cura.
Cuando reducimos la medicina a eficacia y rendimiento, olvidamos que curar no es solo intervenir en un cuerpo, sino acompañar una vida en su fragilidad.
Quizás el gran riesgo de la IA no sea que piense por nosotros, sino que deje de hacernos pensar sobre nosotros mismos. Si llegamos a aceptar que la vida puede ser decidida por procesos de cálculo, habremos renunciado al núcleo más profundo de nuestra humanidad. Si, en cambio, logramos que la tecnología esté al servicio del cuidado, entonces habremos dado un paso significativo hacia una medicina más justa y más humana.
No se trata de detener la tecnología, sino de garantizar que avance sin perder de vista a quien debe servir. Porque un algoritmo puede ser útil, pero una persona puede ofrecer esperanza. Y la esperanza —como la dignidad— no se programa: se reconoce, se protege y se acompaña. El humanismo —y no el algoritmo— debe tener siempre la última palabra.
(*) Doctor en Filosofía. Master en Bioética y magíster en Dirección de Comunicación. Profesor en la Universidad Católica del Uruguay.