MARC details
000 -CABECERA |
campo de control de longitud fija |
07250nam a2200337 a 4500 |
003 - IDENTIFICADOR DEL NÚMERO DE CONTROL |
campo de control |
OSt |
005 - FECHA Y HORA DE LA ÚLTIMA TRANSACCIÓN |
campo de control |
20241205094825.0 |
008 - DATOS DE LONGITUD FIJA--INFORMACIÓN GENERAL |
campo de control de longitud fija |
241204s2021 ck ad||| |||| 00| 0 spa d |
020 ## - NÚMERO INTERNACIONAL ESTÁNDAR DEL LIBRO |
Número Internacional Estándar del Libro |
9789587786866 |
040 ## - FUENTE DE LA CATALOGACIÓN |
Agencia de catalogación original |
Co-BrCUA |
Idioma de catalogación |
spa |
Normas de descripción |
RCAA2 |
Centro/agencia transcriptor |
Co-BrCUA |
082 04 - NÚMERO DE LA CLASIFICACIÓN DECIMAL DEWEY |
Número de clasificación |
006.31 |
Clave de autor |
L925 2021 |
Número de edición |
23 |
100 ## - ENTRADA PRINCIPAL--NOMBRE DE PERSONA |
Nombre de persona |
López Sotelo, Jesús Alfonso |
9 (RLIN) |
35736 |
245 ## - MENCIÓN DE TÍTULO |
Título |
Deep learning : |
Resto del título |
Teoria y aplicaciones / |
Mención de responsabilidad, etc. |
Jesús Alfonso, López Sotelo. |
250 ## - MENCIÓN DE EDICIÓN |
Mención de edición |
Primera edición |
260 ## - PUBLICACIÓN, DISTRIBUCIÓN, ETC. |
Lugar de publicación, distribución, etc. |
Bogota : |
Nombre del editor, distribuidor, etc. |
alphaeditorial ; |
Fecha de publicación, distribución, etc. |
2021. |
300 ## - DESCRIPCIÓN FÍSICA |
Extensión |
219 paginas : |
Otras características físicas |
Ilustraciones, graficas ; |
Dimensiones |
24 cm. |
336 ## - TIPO DE CONTENIDO |
Fuente |
rdacontent |
Término de tipo de contenido |
Texto |
Código de tipo de contenido |
txt |
337 ## - TIPO DE MEDIO |
Fuente |
rdamedia |
Nombre/término del tipo de medio |
Sin mediación |
Código del tipo de medio |
n |
338 ## - TIPO DE SOPORTE |
Fuente |
rdacarrier |
Nombre/término del tipo de soporte |
Volumen |
Código del tipo de soporte |
nc |
500 ## - NOTA GENERAL |
Nota general |
Incluye contenido al inicio del texto. |
504 ## - NOTA DE BIBLIOGRAFÍA, ETC. |
Nota de bibliografía, etc. |
Incluye referencias bibliográficas pagina 217. |
505 ## - NOTA DE CONTENIDO CON FORMATO |
Nota de contenido con formato |
1. Conceptas sobre redes neuronales artificiales y aprendizaje profundo<br/>Introducción.<br/>-Objetivos del capítulo.<br/>-Inteligencia antincial, redes neuronales artificiales y Deep Learning.<br/>-Breve reseña histórica.<br/>-La neurona biológica.<br/>-La neurona artificial.<br/>-Procesamiento matemático en la neurona artificial.<br/>-Red neuronal artificial.<br/>-Arquitecturas de redes neuronales artificiales.<br/>-De acuerdo con la cantidad de capas.<br/>-Redes multicapa superficial o de una capa oculta.<br/>-Redes multicapa profundas.<br/>-De acuerdo con el flujo de la información.<br/>-Redes Feedforward.<br/>-Redes recurrentes.<br/>-El aprendizaje en las redes neuronales artificiales.<br/>-Aprendizaje supervisado.<br/>-Aprendizaje no supervisado.<br/>-Aprendizaje por refuerzo.<br/>-Ejemplo de procesamiento de la información en una red neuronal.<br/>-Aplicaciones.<br/>-Visión por computador.<br/>-Procesamiento de voz.<br/>-Reconocimiento de sonidos.<br/>-Procesamiento de texto.<br/>-Otras aplicaciones. |
505 ## - NOTA DE CONTENIDO CON FORMATO |
Nota de contenido con formato |
2. Los principios del aprendizaje profundo: redes monocapa<br/>-Introducción.<br/>-Red Neuronal Perceptron.<br/>-Arquitectura y funcionamiento.<br/>-Algoritmo de aprendizaje.<br/>-Red Neuronal Adaline (ADAptative LINear Element).<br/>-Arquitectura.<br/>-Algoritmo de aprendizaje.<br/>-Limitaciones del Perceptron.<br/>-Proyectos de aplicación.<br/>-Solución de la función lógica AND con un Perceptron.<br/>-Reconocimiento de caracteres usando el Perceptron.<br/>-Filtro adaptativo usando una red Adaline.<br/>-Filtrado de señales de voz.<br/>-Filtro adaptativo usando una red Adaline.<br/>-Implementada en Arduino.<br/>-Ejercicios propuestos. |
505 ## - NOTA DE CONTENIDO CON FORMATO |
Nota de contenido con formato |
3. Superando las dificultades con la propagación inversa en las redes<br/>-Introducción.<br/>-Arquitectura general de un Perceptron multicapa superficial.<br/>-Entrenamiento de un MLP superficial.<br/>-Nomenclatura para las redes superficiales.<br/>-Algoritmo de entrenamiento.<br/>-Gradiente descendente estocástico y gradiente descendente.<br/>-Gradiente descendente estocástico (GDE).<br/>-Procesamiento de datos hacia adelante "feedforward".<br/>-Actualización de pesos para la capa de salida.<br/>-Actualización de los bias para la capa de salida.<br/>-Actualización de pesos para la capa oculta.<br/>-Backpropagation.<br/>-Actualización de los bias para la capa oculta.<br/>-Variaciones del gradiente descendente.<br/>-Algoritmo gradiente descendente con alfa variable.<br/>-Algoritmo gradiente descendente con momentum clásico.<br/>-Algoritmos de segundo orden para redes neuronales MLP.<br/>-Método de Newton aplicado a redes neuronales.<br/>-Levenberg Marquardt.<br/>-Gradiente conjugado.<br/>-Consideraciones de diseño.<br/>-Conjuntos de aprendizaje y de validación.<br/>-Dimensión de la red neuronal.<br/>-Funciones de activación.<br/>-Pre y post procesamiento de datos.<br/>-Regularización.<br/>-Regularización por parada temprana.<br/>-Regularización por limitación de la magnitud de los pesos L2.<br/>-Proyectos de aplicación.<br/>-Solución del problema de la función XOR con Matlab.<br/>-Aprendizaje de una función seno con Matlab [VI].<br/>-Aprendizaje de una superficie (función de dos variables).<br/>-Silla de Montar con Matlab.<br/>-Identificación de sistemas usando redes neuronales MLP.<br/>-Diseño del experimento y muestreo de datos.<br/>-Modelo a usar y estimación de parámetros (Entrenamiento de la red).<br/>-Validación del modelo obtenido con la RNA.<br/>-Aplicación a la clasificación de patrones (el problema del IRIS).<br/>-Reconocimiento de caracteres mano escritos (conjunto de datos MNIST) con una red superficial.<br/>-Generador de ondas senoidales implementado con una red neuronal MLP en Arduino.<br/>-Emulación de un sistema dinámico implementado con una red neuronal MLP en Arduino.<br/>-Ejercicios propuestos, |
505 ## - NOTA DE CONTENIDO CON FORMATO |
Nota de contenido con formato |
4. Aprendizaje profundo (Deep Learning) o las redes de muchas capas<br/>-Introducción.<br/>-Problemas para entrenar redes neuronales profundas.<br/>-Desvanecimiento del gradiente.<br/>-Se requiere muchos datos.<br/>-Se requiere una alta capacidad de cómputo.<br/>-¿Cómo solucionar el problema del desvanecimiento del gradiente?.<br/>-Cambio en funciones de activación.<br/>-Cambio en función de pérdida o de costo.<br/>-Reconocimiento de patrones convencional vs Deep Learning.<br/>-Extracción de características automático en una imagen.<br/>-Algoritmos de entrenamiento para redes profundas.<br/>-Algoritmo gradiente descendente con momentum Nesterov.<br/>-Algoritmo gradiente descendente tipo AdaGrad.<br/>-Algoritmo gradiente descendente tipo RMS Prop.<br/>-Algoritmo gradiente descendente tipo AdaDelta.<br/>-Algoritmo gradiente descendente tipo Adam.<br/>-Arquitecturas de Deep Learning.<br/>-Auto Codificadores apilados.<br/>-Redes neuronales convolucionales (Convolutional Neural Networks, CNN).<br/>-Redes recurrentes tipo Long Short Term Memory (LSTM).<br/>-Redes generativas profundas.<br/>-Auto Codificadores Variacionales (VAE).<br/>-Redes Generadoras Adversarias (GAN).<br/>-Aprendizaje por Refuerzo Profundo (Deep Reinforcement Learning, DRL).<br/>-Proyectos de aplicación.<br/>-Aplicación a la clasificación del problema del Iris con una red profunda.<br/>-Reconocimiento de caracteres mano escritos (MNIST data set) con una red profunda.<br/>-Disminución de la dimensionalidad con un auto codificador para el data set MNIST .<br/>-Reconocimiento de caracteres mano escritos (MNIST) con un auto codificador disperso.<br/>-Ejercicios propuestos. |
505 ## - NOTA DE CONTENIDO CON FORMATO |
Nota de contenido con formato |
5. Redes convolucionales<br/>-Introducción.<br/>-Breve introducción al procesamiento de imágenes.<br/>-¿Cómo ve un computador?.<br/>-Inspiración biológica de una CNN.<br/>-Funcionamiento de una red convolucional.<br/>-Convolución.<br/>-Zero-Padding.<br/>-Convolución con imágenes a color.<br/>-Función de activación.<br/>-Pooling.<br/>-Capa clasificadora.<br/>-Otros procesos comunes en CNN.<br/>-Arquitectura general de una CNN.<br/>-Dimensionamiento de una red neuronal convolucional.<br/>-Algunas arquitecturas de redes convolucionales representativas.<br/>-LetNet-5.<br/>-AlexNet.<br/>-VGG16 net.<br/>-Resnet.<br/>-Inception.<br/>-De Alexnet a Inception.<br/>-Proyectos de aplicación.<br/>-Uso de una red pre entrenada en Matlab.<br/>-Entrenamiento de una CNN para reconocimiento de caracteres mano escritos del dataset MNIST.<br/>-Entrenamiento de una CNN para reconocimiento de imágenes Data set CIFAR-10.<br/>-Transfer Learning con Matlab.<br/>-Deep Dream.<br/>-Ejercicios propuestos. |
650 10 - PUNTO DE ACCESO ADICIONAL DE MATERIA--TÉRMINO DE MATERIA |
Término de materia o nombre geográfico como elemento de entrada |
Aprendizaje automático (inteligencia artificial) |
9 (RLIN) |
8192 |
650 10 - PUNTO DE ACCESO ADICIONAL DE MATERIA--TÉRMINO DE MATERIA |
Término de materia o nombre geográfico como elemento de entrada |
Redes neurales (computadores) |
9 (RLIN) |
8264 |
650 10 - PUNTO DE ACCESO ADICIONAL DE MATERIA--TÉRMINO DE MATERIA |
Término de materia o nombre geográfico como elemento de entrada |
Inteligencia artificial |
9 (RLIN) |
2031 |
942 ## - ELEMENTOS DE PUNTO DE ACCESO ADICIONAL (KOHA) |
Fuente del sistema de clasificación o colocación |
Dewey Decimal Classification |
Tipo de ítem Koha |
Libro de Reserva |
Parte de la signatura que identifica el ejemplar (Parte del ítem) |
006.31 L925 2021 |