Cómo poder garantizar una tecnología ética en el ámbito de la atención sanitaria
0 comments
Es imporante poder fomentar la reflexión sobre el papel de los profesionales de la medicina, de los desarrolladores de Inteligencia Artificial y de los pacientes con el objetivo de lograr una IA ética.
Con la aparición de sistemas de Inteligencia Artificial (IA)para ayudar a la toma de decisiones clínicas, se han planteado varios dilemas éticos a la atención general.
Se afirma que los sistemas de IA son la solución para muchas tareas médicas que requieren una alta cualificación en las que las máquinas pueden superar potencialmente la capacidad humana, como por ejemplo en la identificación de radiografías de tórax normales y anormales.
Por este motivo, algunos países han querido anticiparse y han tomado medidas para evitar conflictos. Uno de ellos es el Reino Unido, que ha puesto en marcha el programa Responsible Ai UK, cuyo objetivo es conectar la investigación que se hace en el país sobre IA responsable con los principales centros de investigación e instituciones de todo el mundo.
Esto permitirá a RAi UK ofrecer las mejores prácticas líderes a nivel mundial sobre cómo diseñar, evaluar, regular y operar sistemas de IA de manera que beneficien a las personas, la sociedad y la nación.
El riesgo de la deshumanización
Sin embargo, también hay advertencias de que las herramientas de IA podrían ser la base para un reemplazo humano que puede arriesgar la deshumanización en la medicina. En los últimos años, importantes propuestas en el ámbito de la ética de la IA en la atención médica han identificado cuestiones éticas principales, como por ejemplo la equidad, la autonomía, la transparencia y la responsabilidad.
Se ha descrito la garantía humana, que implica la evaluación humana de los procedimientos de IA en diferentes trabajos y estudios, para reducir los riesgos éticos. Sin embargo, por muy relevantes que hayan sido, traducir los principios en acción han resultado un desafío, ya que los códigos existentes eran principalmente una descripción de principios.
Existe una gran necesidad de producir propuestas de procedimientos que sean lo suficientemente específicas como para orientar la acción.
A través de los factores, se ha examinado el papel de los médicos, los pacientes y los desarrolladores en el diseño, la implementación y el uso de la IA de una manera responsable que preserve la dignidad humana. Los hechos abarcan una variedad de preocupaciones éticas que se encontraron comúnmente en la literatura relevante. Dado que es crucial traer tantas perspectivas como sea posible al campo, este trabajo contribuye a traducir los principios en acción humana para garantizar una IA ética en la salud.