000 | 06469nam a2200445 4500 | ||
---|---|---|---|
003 | OSt | ||
005 | 20240326082441.0 | ||
008 | 240323s2021 ck d|||| |||| 001 0 spa d | ||
020 | _a9789587787207 | ||
040 |
_aCo-BrCUA _bspa _eRCAA2 _cCo-BrCUA |
||
082 | 0 | 4 |
_a006.31 _bI616 2021 _223 |
245 |
_aIntroducción al machine learning con matlab / _cErik Valdemar Cuevas, Omar Avalos, Primitivo Emanuel y …[Otros mas]. |
||
250 | _aprimera edición. | ||
260 |
_aBogotá : _bAlpha Editorial, _c2021. |
||
300 |
_a245 páginas : _bgraficas, _c24 cm. |
||
336 |
_2rdacontent _aTexto _btxt |
||
337 |
_2rdamedia _aSin mediación _bn |
||
338 |
_2rdacarrier _aVolumen _bnc |
||
500 | _aIncluye índice general al principio del texto. | ||
505 | _aCAPÍTULO 1. Fundamentos del Machine Learning. 1.1. Introducción. 1.2. Conceptos sobre datos 1.3. Conceptos sobre aprendizaje. 1.4. Tipos de problemas 1.5. Tipos de datos 1.6. Tipos de aprendizajes 1.7. Etapas de implementación del aprendizaje máquina 1.8. Exploración y preparación de datos. 1.9. Visualización de datos | ||
505 | _aCAPÍTULO 2. Bases matemáticas. 2.1. Introducción. 2.2. Probabilidad 2.2.1. Variables aleatorias discretas 2.2.2. Reglas fundamentales. 2.2.2.1. Probabilidad de la unión de dos elementos 2.2.2.2. Probabilidad de la intersección de dos elementos. 2.2.2.3. Probabilidad condicional 2.2.3. Algunas distribuciones comunes. 2.2.3.1. Distribución binomial y Bernoulli 2.2.3.2. Distribución multinomial. 2.2.3.3. Distribución de Poisson. 2.2.3.4. Distribución uniforme. 2.2.3.5. Distribución normal (gaussiana) 2.3. Estadística. 2.3.1. Medidas de tendencia central 2.3.1.1. Media aritmética 2.3.1.2. Mediana. 2.3.1.3. Moda 2.3.2. Medidas de variabilidad 2.3.2.1. Varianza 2.3.2.2. Desviación estándar 2.3.2.3. Rango. 2.3.3. Herramientas gráficas 2.3.3.1. Gráfica de líneas 2.3.3.2. Gráfica de barras 2.4. Algebra lineal 2.3.3.3. Gráfica de cajas 2.3.3.4. Histograma. 2.4.1. Vectores y matrices. 2.4.2. Suma, resta y producto escalar de vectores 2.4.3. Norma vectorial. 2.4.3.1. Norma 13 2.4.3.2. Norma L 2.4.4. Matrices 2.4.4.1. Suma, resta y multiplicación de matrices.. 2.4.4.2. Multiplicación escalar de una matriz. 2.4.4.3. Multiplicación de matrices 2.4.5. Tipo de matrices.. 2.4.6. Descomposición de matrices 2.4.6.1. Descomposición LU. 2.4.6.2. Descomposición de los valores y vectores propios | ||
505 | _aCAPÍTULO 3. Clasificación. 3.1. Introducción 3.2. Vecinos cercanos (k-NN) 3.2.1. Ejemplo de clasificación utilizando k-NN en MATLAB. 3.3. Regresión logística. 3.3.1. Ejemplo de clasificación utilizando la regresión logística en MATLAB. 3.4. Naive Bayes. 3.4.1. Teorema de Bayes. 3.4.2. Clasificador Naive Bayes... 3.4.3. Ejemplo de clasificación Naive Bayes utilizando MATLAB 3.5. Análisis del discriminante de Fisher 3.5.1. Ejemplo de clasificación mediante discriminante de Fisher utilizando MATLAB 3.6. Máquina de vector soporte (SVM). 3.6.1. Ejemplo de clasificación con máquina vector soporte utilizando MATLAB | ||
505 | _aCAPÍTULO 4. Regresión lineal. 4.1. Introducción 4.2. Regresión lineal simple. 4.3. Mínimos cuadrados. 4.4. Gradiente descendente en regresión lineal simple. 4.5. Ecuación normal en regresión lineal simple... 4.6. Regresión lineal múltiple. | ||
505 | _aCAPÍTULO 5. Agrupamiento (clustering). 5.1. Introducción. 5.2. Algoritmo de K-means. 5.2.1. El uso de K-means en MATLAB. 5.3. Método de expectación-maximización 5.3.1. Modelos de mezclas gaussianas. 5.3.2. Estimación de máxima probabilidad. 5.3.3. EM en una dimensión. 5.3.4. EM en varias dimensiones. 5.4. Agrupación jerárquica.. 5.4.1. Medidas de similaridad entre los clústeres. 5.5. El algoritmo de Fuzzy C-means. | ||
505 | _aCAPÍTULO 6. Reducción de dimensionalidad 6.1. Introducción 6.2. Análisis de componentes principales (PCA) 6.2.1. Ejemplo en MATLAB de análisis de componentes principales (PCA) 6.3. Análisis de componentes independientes (ICA). 6.3.1. Distribuciones gaussianas no permitidas. 6.3.2. Estimación de máxima probabilidad. 6.3.3. Ejemplo en MATLAB de análisis de componentes independientes (ICA)... 6.4. Análisis de factor (FA). 6.4.1. Ejemplo en MATLAB de análisis de factor (FA) | ||
505 | _aCAPÍTULO 7. Métodos unidos 7.1. Árboles de decisión 7.2. Algoritmo CART 7.3. Árboles de decisión para clasificación. 7.4. Árboles de decisión para regresión. 7.5. Funciones de MATLAB para árboles de decisión. 7.6. El método Bootstrap | ||
505 | _aCAPÍTULO 8. Reconocimiento de objetos. 8.1. Comparación en imágenes a escala de grises 8.2. Distancia entre patrones 8.3. Distancia y correlación. 8.4. La correlación cruzada normalizada. 8.5. Coeficiente de correlación 8.6. Reconocimiento de patrones usando el coeficiente de correlación 8.7. Comparación de imágenes binarias. 8.7.1. La transformación de distancia. 8.7.2. El algoritmo de Chamfer 8.8. Índice de relación de Chamfer | ||
505 | _aCAPÍTULO 9. Estadística inferencial. 9.1. Introducción 9.2. Distribución de muestreo.. 9.2.1. Distribución normal. 9.2.2. Distribución t. 9.3. Estimación de parámetros 9.3.1. Estimación por intervalos. 9.4. Pruebas de hipótesis | ||
505 | _aCAPÍTULO 10. Evaluación del desempeño 10.1. Introducción. 10.2. Ajustes sobre las predicciones de un clasificador 10.2.1. Tipos de errores 10.2.2. Matriz de confusión 10.3. Métricas para clasificadores. 10.3.1. Exactitud (ACC). 10.3.2. Razón de falsos positivos (FPR) 10.3.3. Sensibilidad (VPR). 10.3.4. Especificidad (SPC) 10.3.5. Precisión 10.3.6. F1. 10.3.7. F2. 10.4. Curva ROC... 10.5. El balance entre el sesgo y la varianza 10.6. Evaluación de modelos.. 10.6.1. Técnicas comunes de validación cruzada. 10.7. Métricas de error en regresores lineales | ||
650 | 1 | 0 |
_aAprendizaje automático (inteligencia artificial) _98192 |
650 | 1 | 0 |
_aInteligencia artificial _xAplicaciones _98652 |
650 | 1 | 0 |
_aTecnología computacional _935357 |
700 |
_aValdemar Cuevas, Erik _935358 |
||
700 |
_aAvalos, Omar _935359 |
||
700 |
_aPrimitivo, Emanuel _935360 |
||
700 |
_aValdivia, Arturo _935361 |
||
700 |
_aPérez, Marco Antonio _935362 |
||
856 | _u9789587787214 | ||
942 |
_2ddc _cRS _i006.31 I619 2021 |
||
999 |
_c68091 _d68091 |