Conceptos básicos de redes neuronales (parte 1)
En este artículo definiremos algunos de los conceptos más importantes que posiblemente escuchaste o leíste alrededor del tema de Deep Learning y/o Redes Neuronales.
· Deep Learning: Familia de métodos del área de Machine Learning (algoritmos enfocados en aprender patrones de una colección de datos de entrada), centrada en el uso de rede neuronales profundas.
· Neurona: Es una célula que integra el sistema nervioso y su función es recibir, procesar y transmitir información a través de señales eléctricas y químicas.
· Neuronal artificial: Es una unidad de procesamiento de información, inspirada en las neuronal biológicas. A través de sus conexiones de entrada recibe información de otras neuronas o de fuentes externas de entrada, los procesa y genera una salida que puede ser el resultado final o puede pasarse a otras neuronas artificiales.
· Red neuronal artificial: Es una unidad de procesamiento de información integrada por la interconexión de neuronas artificiales.
· Arquitectura de una red neuronal: Se refiere a la forma en que se interconectan las entradas y salidas de las neuronas artificial de una red neuronal.
· Pesos o parámetros: Una neurona artificial puede recibir varias entradas de información. Los pesos o parámetros son las ponderaciones asociadas a cada una de esas entradas. Son valores numéricos reales tanto positivos como negativos e incluso cero. En términos matemáticos, cada peso multiplica el valor de cada una de las entradas y luego son todas sumadas en un solo valor.
· Función de activación: El valor obtenido de la suma ponderada de los datos de entrada a una neurona es alimentado a una función de activación. En esencia, una función de activación se encargar de hacer que la salida de la neurona este presente (un valor mayor a cero) o no (un valor igual a cero, aunque algunas funciones de activación pueden dar otro número para indicar que no se activaron).
· Perceptrón: Es la forma más sencilla de red neuronal, compuesto solamente de una neurona con una sola salida y una función de activación binaria por partes (sólo evalúa si la suma ponderada es mayor o no a cierto valor para activarse)
· Perceptrón multicapa: Es una arquitectura conformada por capas de neuronas artificiales donde cada capa consiste en varias neuronas en paralelo todas recibiendo los mismos valores de entrada, pero cada una de ellas con sus propios parámetros independientes de las demás. Las salidas de cada una de las neuronas de una capa son conectadas como entradas a cada unas de las neuronas de la siguiente capa. Mientras más capas tiene una neurona, más profunda se dice que es e implica que puede aprender patrones de información más compleja.
Esperemos que estos conceptos te ayuden a entender más el mundo de las redes neuronales artificiales. Seguiremos publicando otros artículos donde expondremos otros términos usados en redes neuronales.
PhD. Alejandro Maldonado