Revista Farmabiotec - Número 18

#18 farmaBIOTEC 41 • A cada neurona (salvo en la primera capa de entrada) llegará la suma ponderada de la información de todos los nodos anteriores. Este sumatorio será el valor de excita- ción, y su símil biológico sería el estímulo. • Este valor de excitación (dependiente de los pesos) pasará a la función de activación que será no lineal para aportar complejidad al sistema. Esta función convertirá el resultado de la excitación en información útil; intra- red , la función más usada es ReLU. El símil biológico de este proceso sería la sinapsis. Llegamos a la última capa de nodos, en la que se da el mismo proceso que en las demás, sin embargo, la función de activación que devuelve los valores finales que darán lugar a la decisión es la Softmax (generalmente, si no es una decisión bina- ria), que devuelve por cada neurona un valor en forma de probabilidad. El símil biológico: la toma de decisión. Cabe destacar que esta es una explicación muy sim- plificada, en un ejemplo real podríamos distinguir la ya mencionada red convolucional y la red densa ( “Fully Connected” ) donde se toman las decisiones (Figura 1). Como este sistema puede resultar complejo y abs- tracto, lo ilustraremos con un ejemplo. Digamos que tene- mos las imágenes de RM de un paciente del que se sospe- cha que puede presentar un tumor maligno. Supongamos también, que el ordenador del médico cuenta con un programa basado en una red neuronal ya entrenada. Al pasar las imágenes a este programa, tras un procesa- miento, en el que tras una serie de convoluciones se reco- nocerán bordes, regiones y características destacables o diferenciadoras de la imagen; a continuación, se reducirá el tamaño de la imagen ( “pooling” ); y se vectorizará, de forma que quedará caracterizada por un solo vector. La información está preparada para entrar en la etapa densa de la red, formada de tantas capas como comple- jidad requiera el problema. A cada nodo llega la informa- ción ponderada de los anteriores (excitación) y saldrá información útil y no lineal gracias a la función de acti- vación. Finalmente, en este ejemplo podríamos tener una capa final con dos neuronas, representando que el tumor sea maligno o no. El proceso es el mismo que en las capas anteriores, y como la decisión es binaria, se Grata rerum novitas Figura 1: Esquema de una red neuronal: sumatorio ponderado en cada neurona/nodo, la función de activación Sigmoid por la que pasa cada valor de excitación y, finalmente, la decisión binaria. Fuente: Interactive Chaos, 2020. Disponible en: https://interactivechaos.com/es/manual/ tutorial-de-deep-learning/fase-feedforward.

RkJQdWJsaXNoZXIy OTAxNDYw