Revista Farmabiotec Número 14
#14 farmaBIOTEC 101 orientación sexual en ciertos contextos clínicos. Naturalmente, estos sesgos deben ser identificados y corregidos para asegurar decisiones justas y precisas. La complejidad de los modelos modernos Con la introducción de arquitecturas de redes neuronales profundas como es el caso de los Transformers que se uti - lizan para entrenar grandes modelos de lenguaje, la explica - bilidad se vuelve aún más difícil. Estos modelos, que pueden tener billones de parámetros, son capaces de capturar con gran detalles ciertos patrones en los datos pero resulta muy difícil comprender qué patrones concretos están utilizando al generar sus respuestas. Este nivel de complejidad plantea nuevos retos en términos de transparencia y control. Por ejemplo, se ha observado que determinados modelos avanzados pueden cambiar significativamente sus prediccio - nes basadas en pequeños cambios en los datos de entrada. Se ha demostrado empíricamente cómo el simple cambio en la secuencia en la que los síntomas de un caso clínico son presentados a un gran modelo de lenguaje puede impactar en el diagnóstico que el modelo va a sugerir. También cómo la inclusión u omisión de un antecedente de enfermedad men - tal grave puede hacer que el modelo de lenguaje emita un diagnóstico erróneo al ser consultado por un caso clínico de origen orgánico y no relacionado con el trastorno mental del paciente. En el ámbito clínico, esto puede llevar a decisiones potencialmente perjudiciales para pacientes con enfermeda - des mentales o con presentaciones clínicas complejas. Modelos comprensibles, ajustables y representativos Es por todo esto que a la hora de implementar una IA responsable en salud, sea crucial abordar la transparencia, la explicabilidad, la equidad y la no discriminación desde el inicio. Esto implica desarrollar modelos que sean comprensi - bles y ajustables, capacitar a los profesionales de salud en el uso y la interpretación de estas herramientas, y asegurar que los datos utilizados para entrenar estos modelos sean repre- sentativos y libres de sesgos injustos. Solo a través de un enfoque riguroso y ético podemos maximizar los beneficios de la IA en salud mientras minimizamos sus riesgos. Inteligencia artificial Numerosas evidencias recientes muestran cómo ciertos sesgos pueden afectar los resultados de la IA en salud. Por ejemplo, un estudio reciente sobre determinantes sociales de la salud encontró que los casos clínicos publicados en la literatura científica tendían a incluir detalles como la orientación sexual o el ser inmigrante en el caso de ciertas patologías como las infecciones de transmisión sexual.
Made with FlippingBook
RkJQdWJsaXNoZXIy OTAxNDYw