Deep learning : (Record no. 68234)

MARC details
000 -CABECERA
campo de control de longitud fija 07250nam a2200337 a 4500
003 - IDENTIFICADOR DEL NÚMERO DE CONTROL
campo de control OSt
005 - FECHA Y HORA DE LA ÚLTIMA TRANSACCIÓN
campo de control 20241205094825.0
008 - DATOS DE LONGITUD FIJA--INFORMACIÓN GENERAL
campo de control de longitud fija 241204s2021 ck ad||| |||| 00| 0 spa d
020 ## - NÚMERO INTERNACIONAL ESTÁNDAR DEL LIBRO
Número Internacional Estándar del Libro 9789587786866
040 ## - FUENTE DE LA CATALOGACIÓN
Agencia de catalogación original Co-BrCUA
Idioma de catalogación spa
Normas de descripción RCAA2
Centro/agencia transcriptor Co-BrCUA
082 04 - NÚMERO DE LA CLASIFICACIÓN DECIMAL DEWEY
Número de clasificación 006.31
Clave de autor L925 2021
Número de edición 23
100 ## - ENTRADA PRINCIPAL--NOMBRE DE PERSONA
Nombre de persona López Sotelo, Jesús Alfonso
9 (RLIN) 35736
245 ## - MENCIÓN DE TÍTULO
Título Deep learning :
Resto del título Teoria y aplicaciones /
Mención de responsabilidad, etc. Jesús Alfonso, López Sotelo.
250 ## - MENCIÓN DE EDICIÓN
Mención de edición Primera edición
260 ## - PUBLICACIÓN, DISTRIBUCIÓN, ETC.
Lugar de publicación, distribución, etc. Bogota :
Nombre del editor, distribuidor, etc. alphaeditorial ;
Fecha de publicación, distribución, etc. 2021.
300 ## - DESCRIPCIÓN FÍSICA
Extensión 219 paginas :
Otras características físicas Ilustraciones, graficas ;
Dimensiones 24 cm.
336 ## - TIPO DE CONTENIDO
Fuente rdacontent
Término de tipo de contenido Texto
Código de tipo de contenido txt
337 ## - TIPO DE MEDIO
Fuente rdamedia
Nombre/término del tipo de medio Sin mediación
Código del tipo de medio n
338 ## - TIPO DE SOPORTE
Fuente rdacarrier
Nombre/término del tipo de soporte Volumen
Código del tipo de soporte nc
500 ## - NOTA GENERAL
Nota general Incluye contenido al inicio del texto.
504 ## - NOTA DE BIBLIOGRAFÍA, ETC.
Nota de bibliografía, etc. Incluye referencias bibliográficas pagina 217.
505 ## - NOTA DE CONTENIDO CON FORMATO
Nota de contenido con formato 1. Conceptas sobre redes neuronales artificiales y aprendizaje profundo<br/>Introducción.<br/>-Objetivos del capítulo.<br/>-Inteligencia antincial, redes neuronales artificiales y Deep Learning.<br/>-Breve reseña histórica.<br/>-La neurona biológica.<br/>-La neurona artificial.<br/>-Procesamiento matemático en la neurona artificial.<br/>-Red neuronal artificial.<br/>-Arquitecturas de redes neuronales artificiales.<br/>-De acuerdo con la cantidad de capas.<br/>-Redes multicapa superficial o de una capa oculta.<br/>-Redes multicapa profundas.<br/>-De acuerdo con el flujo de la información.<br/>-Redes Feedforward.<br/>-Redes recurrentes.<br/>-El aprendizaje en las redes neuronales artificiales.<br/>-Aprendizaje supervisado.<br/>-Aprendizaje no supervisado.<br/>-Aprendizaje por refuerzo.<br/>-Ejemplo de procesamiento de la información en una red neuronal.<br/>-Aplicaciones.<br/>-Visión por computador.<br/>-Procesamiento de voz.<br/>-Reconocimiento de sonidos.<br/>-Procesamiento de texto.<br/>-Otras aplicaciones.
505 ## - NOTA DE CONTENIDO CON FORMATO
Nota de contenido con formato 2. Los principios del aprendizaje profundo: redes monocapa<br/>-Introducción.<br/>-Red Neuronal Perceptron.<br/>-Arquitectura y funcionamiento.<br/>-Algoritmo de aprendizaje.<br/>-Red Neuronal Adaline (ADAptative LINear Element).<br/>-Arquitectura.<br/>-Algoritmo de aprendizaje.<br/>-Limitaciones del Perceptron.<br/>-Proyectos de aplicación.<br/>-Solución de la función lógica AND con un Perceptron.<br/>-Reconocimiento de caracteres usando el Perceptron.<br/>-Filtro adaptativo usando una red Adaline.<br/>-Filtrado de señales de voz.<br/>-Filtro adaptativo usando una red Adaline.<br/>-Implementada en Arduino.<br/>-Ejercicios propuestos.
505 ## - NOTA DE CONTENIDO CON FORMATO
Nota de contenido con formato 3. Superando las dificultades con la propagación inversa en las redes<br/>-Introducción.<br/>-Arquitectura general de un Perceptron multicapa superficial.<br/>-Entrenamiento de un MLP superficial.<br/>-Nomenclatura para las redes superficiales.<br/>-Algoritmo de entrenamiento.<br/>-Gradiente descendente estocástico y gradiente descendente.<br/>-Gradiente descendente estocástico (GDE).<br/>-Procesamiento de datos hacia adelante "feedforward".<br/>-Actualización de pesos para la capa de salida.<br/>-Actualización de los bias para la capa de salida.<br/>-Actualización de pesos para la capa oculta.<br/>-Backpropagation.<br/>-Actualización de los bias para la capa oculta.<br/>-Variaciones del gradiente descendente.<br/>-Algoritmo gradiente descendente con alfa variable.<br/>-Algoritmo gradiente descendente con momentum clásico.<br/>-Algoritmos de segundo orden para redes neuronales MLP.<br/>-Método de Newton aplicado a redes neuronales.<br/>-Levenberg Marquardt.<br/>-Gradiente conjugado.<br/>-Consideraciones de diseño.<br/>-Conjuntos de aprendizaje y de validación.<br/>-Dimensión de la red neuronal.<br/>-Funciones de activación.<br/>-Pre y post procesamiento de datos.<br/>-Regularización.<br/>-Regularización por parada temprana.<br/>-Regularización por limitación de la magnitud de los pesos L2.<br/>-Proyectos de aplicación.<br/>-Solución del problema de la función XOR con Matlab.<br/>-Aprendizaje de una función seno con Matlab [VI].<br/>-Aprendizaje de una superficie (función de dos variables).<br/>-Silla de Montar con Matlab.<br/>-Identificación de sistemas usando redes neuronales MLP.<br/>-Diseño del experimento y muestreo de datos.<br/>-Modelo a usar y estimación de parámetros (Entrenamiento de la red).<br/>-Validación del modelo obtenido con la RNA.<br/>-Aplicación a la clasificación de patrones (el problema del IRIS).<br/>-Reconocimiento de caracteres mano escritos (conjunto de datos MNIST) con una red superficial.<br/>-Generador de ondas senoidales implementado con una red neuronal MLP en Arduino.<br/>-Emulación de un sistema dinámico implementado con una red neuronal MLP en Arduino.<br/>-Ejercicios propuestos,
505 ## - NOTA DE CONTENIDO CON FORMATO
Nota de contenido con formato 4. Aprendizaje profundo (Deep Learning) o las redes de muchas capas<br/>-Introducción.<br/>-Problemas para entrenar redes neuronales profundas.<br/>-Desvanecimiento del gradiente.<br/>-Se requiere muchos datos.<br/>-Se requiere una alta capacidad de cómputo.<br/>-¿Cómo solucionar el problema del desvanecimiento del gradiente?.<br/>-Cambio en funciones de activación.<br/>-Cambio en función de pérdida o de costo.<br/>-Reconocimiento de patrones convencional vs Deep Learning.<br/>-Extracción de características automático en una imagen.<br/>-Algoritmos de entrenamiento para redes profundas.<br/>-Algoritmo gradiente descendente con momentum Nesterov.<br/>-Algoritmo gradiente descendente tipo AdaGrad.<br/>-Algoritmo gradiente descendente tipo RMS Prop.<br/>-Algoritmo gradiente descendente tipo AdaDelta.<br/>-Algoritmo gradiente descendente tipo Adam.<br/>-Arquitecturas de Deep Learning.<br/>-Auto Codificadores apilados.<br/>-Redes neuronales convolucionales (Convolutional Neural Networks, CNN).<br/>-Redes recurrentes tipo Long Short Term Memory (LSTM).<br/>-Redes generativas profundas.<br/>-Auto Codificadores Variacionales (VAE).<br/>-Redes Generadoras Adversarias (GAN).<br/>-Aprendizaje por Refuerzo Profundo (Deep Reinforcement Learning, DRL).<br/>-Proyectos de aplicación.<br/>-Aplicación a la clasificación del problema del Iris con una red profunda.<br/>-Reconocimiento de caracteres mano escritos (MNIST data set) con una red profunda.<br/>-Disminución de la dimensionalidad con un auto codificador para el data set MNIST .<br/>-Reconocimiento de caracteres mano escritos (MNIST) con un auto codificador disperso.<br/>-Ejercicios propuestos.
505 ## - NOTA DE CONTENIDO CON FORMATO
Nota de contenido con formato 5. Redes convolucionales<br/>-Introducción.<br/>-Breve introducción al procesamiento de imágenes.<br/>-¿Cómo ve un computador?.<br/>-Inspiración biológica de una CNN.<br/>-Funcionamiento de una red convolucional.<br/>-Convolución.<br/>-Zero-Padding.<br/>-Convolución con imágenes a color.<br/>-Función de activación.<br/>-Pooling.<br/>-Capa clasificadora.<br/>-Otros procesos comunes en CNN.<br/>-Arquitectura general de una CNN.<br/>-Dimensionamiento de una red neuronal convolucional.<br/>-Algunas arquitecturas de redes convolucionales representativas.<br/>-LetNet-5.<br/>-AlexNet.<br/>-VGG16 net.<br/>-Resnet.<br/>-Inception.<br/>-De Alexnet a Inception.<br/>-Proyectos de aplicación.<br/>-Uso de una red pre entrenada en Matlab.<br/>-Entrenamiento de una CNN para reconocimiento de caracteres mano escritos del dataset MNIST.<br/>-Entrenamiento de una CNN para reconocimiento de imágenes Data set CIFAR-10.<br/>-Transfer Learning con Matlab.<br/>-Deep Dream.<br/>-Ejercicios propuestos.
650 10 - PUNTO DE ACCESO ADICIONAL DE MATERIA--TÉRMINO DE MATERIA
Término de materia o nombre geográfico como elemento de entrada Aprendizaje automático (inteligencia artificial)
9 (RLIN) 8192
650 10 - PUNTO DE ACCESO ADICIONAL DE MATERIA--TÉRMINO DE MATERIA
Término de materia o nombre geográfico como elemento de entrada Redes neurales (computadores)
9 (RLIN) 8264
650 10 - PUNTO DE ACCESO ADICIONAL DE MATERIA--TÉRMINO DE MATERIA
Término de materia o nombre geográfico como elemento de entrada Inteligencia artificial
9 (RLIN) 2031
942 ## - ELEMENTOS DE PUNTO DE ACCESO ADICIONAL (KOHA)
Fuente del sistema de clasificación o colocación Dewey Decimal Classification
Tipo de ítem Koha Libro de Reserva
Parte de la signatura que identifica el ejemplar (Parte del ítem) 006.31 L925 2021
Holdings
Disponibilidad Mostrar en OPAC Fuente de clasificación o esquema Programa Tipo de Descarte Restricción de Préstamo Colección Asociada Localización permanente Localización actual Fecha adquisición Forma de Adquisición Precio Préstamos totales Signatura topográfica completa Código de barras Fecha última consulta Ejemplar Propiedades de Préstamo KOHA Nota pública
Disponible Presente - Mostrar en el OPAC Dewey Decimal Classification Ingeniería de Sistemas / Barranquilla Disponible - NO DESCARTADO SI Permitido el Préstamo Reserva Biblioteca William Corredor Gómez. Sede Cosmos (Barranquilla) Biblioteca William Corredor Gómez. Sede Cosmos (Barranquilla) 04/12/2024 Compra 82000.00   006.31 L925 2021 301257841 04/12/2024 Ej. 1 Libro de Reserva Colección 1, Isla 1, Lado B, Módulo 3