Revista Farmabiotec - Número 18

#18 farmaBIOTEC 67 datos, la estructura, el entrenamiento, y la evaluación de la fiabilidad entre otros, garantizando que sus prediccio - nes sean trazables y justificables dentro de su contexto de uso. Marco de evaluación de credibilidad basado en el riesgo El marco de evaluación de credibilidad basado en el riesgo descrito por la FDA es una metodología estructu- rada para garantizar que los modelos de IA empleados en decisiones regulatorias sean confiables, precisos y apropiados para su contexto de uso (COU). Este marco se centra en ajustar el nivel de rigor de la evaluación de credibilidad en función del riesgo inherente del modelo y del impacto de sus resultados en las decisiones regulato- rias. El proceso consta de siete pasos clave: 1. Objetivo del modelo: Question of interest La pregunta de interés define de manera precisa el pro - blema, decisión o cuestión específica que el modelo de IA busca resolver. Responder a la pregunta de interés ayu- dará a guiar el diseño y desarrollo del modelo, asegurando que esté alineado claramente con su propósito. Dicho de otra manera. Imagina que el modelo de IA es una herramienta. La pregunta de interés es la tarea para la que usarás esa herramienta. ¿Por qué es importante la “Question of interest”? Una definición bien formulada nos permitirá delimitar el alcance del modelo, identificar las fuentes de datos nece - sarias y establecer las métricas que se utilizarán para evaluar su desempeño. Además, esta pregunta conecta el modelo con su con- texto de uso, ayudando a determinar cómo se integrará en los procesos existentes y qué decisiones dependen de sus resultados. También permitirá anticipar los requisitos regulatorios y las evidencias complementarias necesarias para validar el modelo. 2. Alcance y Business purpose: Context of use (COU) El contexto de uso (COU) define el propósito y alcance del modelo de IA en un proceso específico. Describe qué será modelado, cómo se utilizarán los resultados y si el modelo funcionará junto a otras fuentes de evidencia. El COU permite establecer si el modelo será la única herramienta de decisión o una complementaria, y cómo influirá en decisiones críticas del proceso. También deli - mita las condiciones bajo las cuales se utilizará, defi - niendo su integración en los procedimientos operativos, si las salidas serán verificadas externamente y su impacto en la calidad y seguridad. El contexto de uso es el escenario donde actúa el modelo de IA. Delimita el papel del modelo, las reglas de la actuación y cómo interactúa con los demás elementos del entorno. 3. Riesgo del modelo El riesgo del modelo se define como la posibilidad de que la salida del modelo lleve a una decisión incorrecta con consecuencias adversas. Este riesgo no está rela- cionado con el modelo en sí, sino con el impacto de sus resultados en el contexto de uso (COU). El riesgo del modelo se define por dos factores clave: la influencia del modelo y la consecuencia de la deci- sión. La influencia refleja cuánto peso tiene la salida del modelo en el proceso de decisión, mientras que la con- secuencia mide la gravedad de un resultado adverso si el modelo falla. Buscando la equivalencia con la gestión de riesgos en los sistemas informatizados convencionales, podríamos entender la Consecuencia como la Severidad . Mientras que la Influencia del modelo podría ser equivalente a la Detectabilidad , entendiéndose como la disponibilidad de mecanismos que permitan contrastar si hay un fallo. Determinar el riesgo del modelo permite adaptar las actividades de evaluación de credibilidad según su nivel de riesgo. Esto asegura que los recursos se enfo- quen en los modelos con mayor impacto y necesidad de supervisión. Llama la atención que la evaluación de riesgos pro- puesta por la FDA se limite a la Influencia y consecuen - cia, y no considere la evolución del proceso y sus datos ( Data drift ), y en consecuencia la pérdida de fiabilidad del modelo en el tiempo. Aunque este fenómeno si está con- templado durante la evaluación del modelo y el manteni- miento como veremos más adelante. En el artículo de la ISPE, “AI Maturity Model for GxP Application: A Foundation for AI Validation”, se incluyen los conceptos de Diseño de controles que mide la independencia del modelo en la toma de decisiones y la Autonomía del modelo que sería la capacidad para auto actualizarse, que consideran la evolución del modelo en el tiempo. Esta disparidad en el Normativa y legislación Diagrama 1. Clasificación del riesgo (FDA) y madurez del modelo (ISPE).

RkJQdWJsaXNoZXIy OTAxNDYw