“Compromiso con la Inteligencia Artificial en salud”

La inteligencia artificial (IA) se está desarrollando en el campo de la salud con ventajas e inconvenientes. Por eso, desde diferentes sociedades científicas, asociaciones de pacientes y organizaciones del ámbito hospitalario reclaman compromiso ético para regular la explosión de la IA en la salud.

Durante el simposio Hackeando la Sanidad: Inteligencia Artificial en Salud organizado por la Asociación de Innovadores en eSalud (AIES), la red ITEMAS (dependiente del Instituto de Salud Carlos III) y el Instituto #SaludsinBulos, distintas organizaciones y asociaciones han solicitado una regulación profunda de la Inteligencia Artificial (IA) en la salud.

Este simposio que se enmarca en el  Hackathon Salud, un proceso de creación de soluciones digitales en salud impulsadas por profesionales sanitarios, ha servido de altavoz para muchas sociedades científicas y del ámbito de la salud que reclaman un uso de la Inteligencia Artificial que evite riesgos de confidencialidad de los datos de los pacientes y frene la desinformación.

Para ello, distintos profesionales sanitarios han propuesto un decálogo de medidas con las que poder reducir los riesgos derivados de la IA.

Inteligencia Artificial (IA) sí, pero con cuidado

Según los estudios de Estatista, la IA en salud permitirá reducir la carga de los profesionales sanitarios, con una disminución de incluso el 20 % en el caso de los médicos y de un 8 % en el caso de las enfermeras. Al tener los profesionales una menor carga de trabajo, se dedicaría más tiempo a la atención de los pacientes. 

La doctora Carmen Jódar es responsable de estrategia digital en la Junta de Andalucía y presidenta de la Asociación de Investigadores en eSalud (AIES) y explica que: “Diversos estudios han demostrado que muchos de los diagnósticos que realiza la IA son más precisos que los que puede realizar cualquier equipo médico. También está ayudando a asignar mejor los recursos de la asistencia sanitaria y a realizar tratamientos más personalizados”.

Otras notas de Salud:  El ruido golpea a nuestra salud igual que el estrés

Sin embargo, la IA también supone un riesgo de desinformación en salud. Este fenómeno está a la orden del día mostrando deep fakes, vídeos con imágenes creadas por Inteligencia Artificial, incluso de personas reales cuya imagen y voz son manipuladas.

“Cada vez va a ser más difícil distinguir entre lo que es un contenido real de otro falso. Ya está ocurriendo con ChatGPT y la Inteligencia Artificial Generativa, que incluye referencias falsas que pasan detectadas”, señala Carlos Mateos, coordinador del Instituto #SaludsinBulos y del Hackathon Salud.

Compromiso ético entre los profesionales de la salud

Uno de los retos del Hackathon Salud es impulsar soluciones basadas en la IA que ayuden a combatir la desinformación en salud.

Por su parte, desde AIES y el Instituto #SaludsinBulos han impulsado un compromiso ético sobre la IA en salud al que se han sumado sociedades científicas de Atención Primaria como la Sociedad Española de Medicina de Familia y Comunitaria (semFYC) y Sociedad Española de Médicos de Atención Primaria (SEMERGEN), y de enfermería como la Federación de Asociaciones de Enfermería Familiar y Comunitaria (FEACAP).

Mientras se espera que se sumen el resto de las 70 organizaciones que mantienen acuerdos de colaboración con AIES y #SaludsinBulos, se han desarrollado diez puntos clave sobre los que trabajar el futuro de la inteligencia artificial en la salud.

1. Autonomía

Los sistemas de inteligencia artificial deben preservar la autonomía de las personas. En salud deben incorporar mecanismos que los profesionales sean capaces de revisar y corregir cualquier resultado procedente de una IA. Los profesionales, los pacientes y los ciudadanos son los responsables de las decisiones sanitarias.

Otras notas de Salud:  7 cenas congeladas saludables que los dietistas registrados confían en ahorrar tiempo

2. Bienestar

El uso de la inteligencia artificial tiene que promover el bienestar de las personas, y su finalidad está orientada al interés público mediante el desarrollo de sistemas seguros, precisos, eficaces y de calidad.

3. Confiabilidad

Para que un sistema de IA inspire confianza en los profesionales sanitarios y ciudadanos debe ser legal; asegurando el cumplimiento de las normativas y evitando sesgos y creencias injustificadas.

4. Equidad

El uso y acceso a los sistemas de inteligencia artificial debe ser equitativo en la medida de lo posible, extendiéndose a todas las personas y regiones sin discriminación por cualquier tipo de condición. Los sistemas de salud deben anticipar la repercusión que tendrá en los profesionales y pacientes utilizar la IA, habituándoles en su uso.

5. Información veraz

La IA debe ayudar a la alfabetización en salud y a la identificación y difusión de la información veraz en salud. Por ello, hay que ayudar a la IA para identificar las fuentes de la información y las referencias, tanto de texto como de imagen, y contrarrestar la desinformación con información veraz.

6. Privacidad

Los sistemas de IA y sus entornos tecnológicos deben poseer mecanismos robustos que garanticen la privacidad y seguridad de los datos, de forma que sean tratados responsablemente en la asistencia sanitaria y en la investigación científica.

El desarrollo de la inteligencia artificial tiene grandes ventajas en la medicina, pero también debe cuidarse su uso. EFE/ Álvaro Alfaro

7. Representatividad

Las soluciones de IA deben ser entrenadas y utilizar datos fiables y representativos de su universo. Y así cumplir con los principios de justicia, igualdad, diversidad e inclusión con los que mitigar los riesgos para los derechos fundamentales y la seguridad.

8. Responsabilidad

Deben existir mecanismos, acogidos a la legislación, que aseguren la responsabilidad en el desarrollo y uso de los sistemas de IA y se debe cubrir y respaldar a todas aquellas personas que se sientan perjudicadas por decisiones basadas en estos sistemas.

Otras notas de Salud:  Receta de revuelto de tofu mediterráneo | SER

9. Sostenibilidad

Los sistemas de IA deben ser evaluados de forma continua y transparente en situaciones reales para saber si cumplen de forma adecuada sus expectativas y las necesidades para las que fueron creados. Los sistemas deben reducir al mínimo sus efectos medioambientales y ser eficientes energéticamente.

10. Transparencia

La transparencia es la cualidad que hace posible que los sistemas de IA puedan ser comprensibles. Estos deben proveer de información suficiente para conocer sus capacidades y sus limitaciones.

La IA en la actualidad médica

Según los datos de la consultora Insight10, se prevé que el mercado de la inteligencia artificial en salud alcance los 2.500 millones de dólares en 2030, mientras que la tasa de crecimiento anual para el periodo 2022-2030 es pronosticada en el 44,22 por ciento.

Entre las soluciones de IA que ya se están aplicando en diagnóstico figuran el sistema de triaje implantado en el Hospital Universitario Parc Taulí (Sabadell), un evaluador de síntomas en urgencias basado en IA, que reduce los tiempos de espera y aumenta la seguridad de la asistencia sanitaria.

Otros campos en los que ya hay experiencias basadas en IA en centros españoles son el diagnóstico de imágenes radiológicas, de enfermedades de la piel y de variantes genómicas, entre otras.

En medicina personalizada, la IA se está utilizando en centros españoles, entre otros, para rehabilitación, con visión artificial. En prevención, se está utilizando la IA para hallar posibles riesgos de sufrir cáncer a través de biomarcadores, y para la detección precoz de patologías con el análisis de la voz.

Dejá un comentario