Deep learning : Teoria y aplicaciones /

López Sotelo, Jesús Alfonso

Deep learning : Teoria y aplicaciones / Jesús Alfonso, López Sotelo. - Primera edición - Bogota : alphaeditorial ; 2021. - 219 paginas : Ilustraciones, graficas ; 24 cm.

Incluye contenido al inicio del texto.

Incluye referencias bibliográficas pagina 217.

1. Conceptas sobre redes neuronales artificiales y aprendizaje profundo
Introducción.
-Objetivos del capítulo.
-Inteligencia antincial, redes neuronales artificiales y Deep Learning.
-Breve reseña histórica.
-La neurona biológica.
-La neurona artificial.
-Procesamiento matemático en la neurona artificial.
-Red neuronal artificial.
-Arquitecturas de redes neuronales artificiales.
-De acuerdo con la cantidad de capas.
-Redes multicapa superficial o de una capa oculta.
-Redes multicapa profundas.
-De acuerdo con el flujo de la información.
-Redes Feedforward.
-Redes recurrentes.
-El aprendizaje en las redes neuronales artificiales.
-Aprendizaje supervisado.
-Aprendizaje no supervisado.
-Aprendizaje por refuerzo.
-Ejemplo de procesamiento de la información en una red neuronal.
-Aplicaciones.
-Visión por computador.
-Procesamiento de voz.
-Reconocimiento de sonidos.
-Procesamiento de texto.
-Otras aplicaciones. 2. Los principios del aprendizaje profundo: redes monocapa
-Introducción.
-Red Neuronal Perceptron.
-Arquitectura y funcionamiento.
-Algoritmo de aprendizaje.
-Red Neuronal Adaline (ADAptative LINear Element).
-Arquitectura.
-Algoritmo de aprendizaje.
-Limitaciones del Perceptron.
-Proyectos de aplicación.
-Solución de la función lógica AND con un Perceptron.
-Reconocimiento de caracteres usando el Perceptron.
-Filtro adaptativo usando una red Adaline.
-Filtrado de señales de voz.
-Filtro adaptativo usando una red Adaline.
-Implementada en Arduino.
-Ejercicios propuestos. 3. Superando las dificultades con la propagación inversa en las redes
-Introducción.
-Arquitectura general de un Perceptron multicapa superficial.
-Entrenamiento de un MLP superficial.
-Nomenclatura para las redes superficiales.
-Algoritmo de entrenamiento.
-Gradiente descendente estocástico y gradiente descendente.
-Gradiente descendente estocástico (GDE).
-Procesamiento de datos hacia adelante "feedforward".
-Actualización de pesos para la capa de salida.
-Actualización de los bias para la capa de salida.
-Actualización de pesos para la capa oculta.
-Backpropagation.
-Actualización de los bias para la capa oculta.
-Variaciones del gradiente descendente.
-Algoritmo gradiente descendente con alfa variable.
-Algoritmo gradiente descendente con momentum clásico.
-Algoritmos de segundo orden para redes neuronales MLP.
-Método de Newton aplicado a redes neuronales.
-Levenberg Marquardt.
-Gradiente conjugado.
-Consideraciones de diseño.
-Conjuntos de aprendizaje y de validación.
-Dimensión de la red neuronal.
-Funciones de activación.
-Pre y post procesamiento de datos.
-Regularización.
-Regularización por parada temprana.
-Regularización por limitación de la magnitud de los pesos L2.
-Proyectos de aplicación.
-Solución del problema de la función XOR con Matlab.
-Aprendizaje de una función seno con Matlab [VI].
-Aprendizaje de una superficie (función de dos variables).
-Silla de Montar con Matlab.
-Identificación de sistemas usando redes neuronales MLP.
-Diseño del experimento y muestreo de datos.
-Modelo a usar y estimación de parámetros (Entrenamiento de la red).
-Validación del modelo obtenido con la RNA.
-Aplicación a la clasificación de patrones (el problema del IRIS).
-Reconocimiento de caracteres mano escritos (conjunto de datos MNIST) con una red superficial.
-Generador de ondas senoidales implementado con una red neuronal MLP en Arduino.
-Emulación de un sistema dinámico implementado con una red neuronal MLP en Arduino.
-Ejercicios propuestos, 4. Aprendizaje profundo (Deep Learning) o las redes de muchas capas
-Introducción.
-Problemas para entrenar redes neuronales profundas.
-Desvanecimiento del gradiente.
-Se requiere muchos datos.
-Se requiere una alta capacidad de cómputo.
-¿Cómo solucionar el problema del desvanecimiento del gradiente?.
-Cambio en funciones de activación.
-Cambio en función de pérdida o de costo.
-Reconocimiento de patrones convencional vs Deep Learning.
-Extracción de características automático en una imagen.
-Algoritmos de entrenamiento para redes profundas.
-Algoritmo gradiente descendente con momentum Nesterov.
-Algoritmo gradiente descendente tipo AdaGrad.
-Algoritmo gradiente descendente tipo RMS Prop.
-Algoritmo gradiente descendente tipo AdaDelta.
-Algoritmo gradiente descendente tipo Adam.
-Arquitecturas de Deep Learning.
-Auto Codificadores apilados.
-Redes neuronales convolucionales (Convolutional Neural Networks, CNN).
-Redes recurrentes tipo Long Short Term Memory (LSTM).
-Redes generativas profundas.
-Auto Codificadores Variacionales (VAE).
-Redes Generadoras Adversarias (GAN).
-Aprendizaje por Refuerzo Profundo (Deep Reinforcement Learning, DRL).
-Proyectos de aplicación.
-Aplicación a la clasificación del problema del Iris con una red profunda.
-Reconocimiento de caracteres mano escritos (MNIST data set) con una red profunda.
-Disminución de la dimensionalidad con un auto codificador para el data set MNIST .
-Reconocimiento de caracteres mano escritos (MNIST) con un auto codificador disperso.
-Ejercicios propuestos. 5. Redes convolucionales
-Introducción.
-Breve introducción al procesamiento de imágenes.
-¿Cómo ve un computador?.
-Inspiración biológica de una CNN.
-Funcionamiento de una red convolucional.
-Convolución.
-Zero-Padding.
-Convolución con imágenes a color.
-Función de activación.
-Pooling.
-Capa clasificadora.
-Otros procesos comunes en CNN.
-Arquitectura general de una CNN.
-Dimensionamiento de una red neuronal convolucional.
-Algunas arquitecturas de redes convolucionales representativas.
-LetNet-5.
-AlexNet.
-VGG16 net.
-Resnet.
-Inception.
-De Alexnet a Inception.
-Proyectos de aplicación.
-Uso de una red pre entrenada en Matlab.
-Entrenamiento de una CNN para reconocimiento de caracteres mano escritos del dataset MNIST.
-Entrenamiento de una CNN para reconocimiento de imágenes Data set CIFAR-10.
-Transfer Learning con Matlab.
-Deep Dream.
-Ejercicios propuestos.

9789587786866


Aprendizaje automático (inteligencia artificial)
Redes neurales (computadores)
Inteligencia artificial

006.31 / L925 2021