Revista Farmabiotec - Número 18

66 farmaBIOTEC #18 La Administración de Alimentos y Medicamentos de los Estados Unidos (FDA) emitió en enero de 2025 el borra- dor de la guía “Considerations for the Use of Artificial Intelligence to Support Regulatory Decision-Making for Drug and Biological Products” que introduce un marco basado en riesgos para evaluar la credibilidad de los modelos de IA y ML. Si bien la IA tiene el potencial de revolucionar el desarro- llo, la evaluación y la producción farmacéutica al acelerar procesos y reducir costos, es imprescindible garantizar que los modelos que sustentan decisiones regulatorias sean fiables, transparentes y estén rigurosamente valida - dos. Por ello, en este artículo exploraremos las considera- ciones clave de la FDA sobre la credibilidad de los mode- los de IA en el ciclo de vida farmacéutico, como calidad de datos, transparencia, validación y mantenimiento. También destacaremos las estrategias prácticas para implementarlas en entornos regulados, alineando buenas prácticas (GxP), guías internacionales de referencia (p.ej. : GAMP5, Ed2; de la ISPE) y artículos académicos que abor- dan el tema. ¿Por qué necesitamos demostrar la credibilidad en los sistemas data-driven? La introducción de modelos basados en datos, como la inteligencia artificial (IA) y el machine learning (ML), marca un cambio fundamental en el aseguramiento de la calidad. A diferencia de los sistemas tradicionales, dise- ñados con reglas predefinidas (código, scripts, triggers, …), estos modelos aprenden patrones a partir de los datos históricos para generar predicciones, segmentaciones o clasificaciones entre otros. Este enfoque, aunque más potente y flexible, plantea un reto único: su desempeño ya no se basa en reglas claras, sino en patrones probabi- lísticos, lo que los hace más difíciles de auditar y validar. Los modelos data-driven dependen completamente de la calidad de los datos utilizados para entrenarlos, lo que introduce riesgos significativos. Sesgos en los datos, falta de representatividad o cambios en las condiciones de ope- ración (data drift) pueden comprometer su rendimiento. Además, su naturaleza probabilística genera resultados que varían dependiendo del contexto, complicando la reproducibilidad y la confianza en sus predicciones. Esto los diferencia radicalmente de los sistemas determinísti- cos, donde los resultados son siempre predecibles. Por ello toma relevancia la implementación de un Credibility Assessment Plan cuyo objetivo es garantizar que los modelos de IA utilizados en entornos regulados sean seguros, interpretables, confiables y alineados con el contexto de uso. Para ello, el marco de credibilidad establecido en este borrador sienta en siete pilares fun- damentales , proporcionando una metodología clara para el desarrollo del modelo a través de la descripción de los INNOVACIÓN Normativa y legislación CREDIBILIDAD DE LA IA FARMACÉUTICA: CLAVES DEL BORRADOR DE LA FDA La FDA pone la credibilidad como uno de los ejes centrales para la aceptación de la inteligencia artificial (IA) en la industria farmacéutica. Este concepto, destacado en el borrador de la guía de la FDA, nos da las herramientas para documentar cómo los modelos de IA han sido desarrollados, entrenados y evaluados, ayudándonos así a determinar su riesgo de implementación y su adecuación al contexto de uso. Guillem López, CSV & QA Manager en OYTEC.

RkJQdWJsaXNoZXIy OTAxNDYw