Revista Farmabiotec Número 13

Inteligencia artificial 42 farmaBIOTEC #11 la atención médica, sino que también asegura una integra- ción ética y responsable de la tecnología en los procesos clínicos, alineándose con las normativas de protección de datos y las exigencias de transparencia establecidas por la Ley de Inteligencia Artificial de la UE. Además, ayuda a identificar y corregir posibles sesgos en los modelos. Un modelo explicable puede revelar cómo ciertas características influyen en las predicciones, permi- tiendo a los desarrolladores ajustar los algoritmos para evitar decisiones sesgadas que podrían perjudicar a cier- tos grupos de pacientes. Por ejemplo, se ha observado que algunos algoritmos de IA pueden estar sesgados en contra de minorías étnicas debido a la falta de representación en los datos de entrenamiento. La explicabilidad puede ayu- dar a detectar y mitigar estos sesgos, asegurando una apli- cación más justa y equitativa de la tecnología. Un ejemplo de cómo se está trabajando en desarrollar herramientas que aborden esta explicabilidad es el pro- yecto NEAR, participado por Dedalus, una solución modu- lar que aborda la opacidad de los algoritmos ML/DL al con- vertir modelos complejos en explicables y transparentes sin una pérdida relevante de información. La metodología implementada en este proyecto es análoga al concepto de “destilación de conocimiento”, que comprime modelos complejos en uno más simple y menos costoso compu- tacionalmente. De esta forma, proporciona no solo una clasificación binaria, sino también un indicador de riesgo que representa la probabilidad de que ocurra una condición clínica, lo que es fácilmente interpretable como la suma de las contribuciones de las características individuales. Esto cumple con los requisitos fundamentales de explicabili- dad, permitiendo a los profesionales clínicos identificar las características más importantes que constituyen el riesgo final y entender la relevancia de los valores faltantes en el puntaje final de riesgo. Seguir avanzando en su desarrollo A medida que la IA continúa avanzando, es fundamental que el ecosistema sanitario y los desarrolladores de tecno- logía trabajen juntos para desarrollar modelos que no solo sean precisos, sino también interpretables y transparentes, asegurando un futuro donde la IA mejore la atención al paciente de manera ética y responsable. La colaboración interdisciplinaria es clave en este esfuerzo. Los profesio- nales sanitarios pueden proporcionar la perspectiva clínica necesaria para guiar el desarrollo de algoritmos relevantes y útiles, mientras que los expertos en IA pueden diseñar modelos que sean más fáciles de entender y utilizar en el entorno clínico. La IA tiene el potencial de transformar profundamente el cuidado de la salud, mejorando diagnósticos, pronósticos y tratamientos. Sin embargo, para realizar este potencial de manera ética y efectiva, es crucial que estos sistemas sean explicables y transparentes. La explicabilidad no solo aumenta la confianza en estas tecnologías, sino que tam- bién asegura que las decisiones apoyadas de procesos automatizados sean justas y equitativas, protegiendo así los derechos y la seguridad de los pacientes. Bibliografía 1. Chaddad, A., Peng, J., Xu, J., & Bouridane, A. (2023). Survey of ExplainableAI Techniques inHealthcare. Sensors (Basel, Switzerland), 23. https://doi.org/10.3390/s23020634. 2. Mesinovic, M., Watkinson, P., & Zhu, T. (2023). Explainable AI for clinical risk prediction: a survey of concepts, methods, and modalities. ArXiv, abs/2308.08407. https:// doi.org/10.48550/arXiv.2308.08407. 3. Kassem, K., Sperti, M., Cavallo, A., Vergani, A. M., Fassino, D., Moz, M., Liscio, A., Banali, R., Dahlweid, M., Benetti, L., Bruno, F., Gallone, G., De Filippo, O., Iannaccone, M., D’Ascenzo, F., De Ferrari, G. M., Morbiducci, U., Della Valle, E., & Deriu, M. A. (2024). An innovative artificial intelligence- based method to compress complex models into explai- nable, model-agnostic and reduced decision support systems with application. to healthcare (NEAR). Artificial Intelligence in Medicine, 151(102841), 102841. https://doi. org/10.1016/j.artmed.2024.102841 4. Topol, E. J. (2019). High-performance medicine: the con- vergence of human and artificial intelligence. Nature Medicine, 25(1), 44–56. https://doi.org/10.1038/ s41591-018-0300-7 5. Holzinger, A., Langs, G., Denk, H., Zatloukal, K., & Müller, H. (2019). Causability and explainability of artificial inte- lligence in medicine. Wiley Interdisciplinary Reviews. Data Mining and Knowledge Discovery, 9(4). https://doi. org/10.1002/widm.1312 6. Sutton, R. T., Pincock, D., Baumgart, D. C., Sadowski, D. C., Fedorak, R. N., & Kroeker, K. I. (2020). An overview of clinical decision support systems: benefits, risks, and strategies for success. Npj Digital Medicine, 3(1), 1–10. https://doi

RkJQdWJsaXNoZXIy OTAxNDYw