Autor: | Pajares, Gonzalo; De La Cruz, Jesús |
Editorial: | EDICIONES DE LA U |
# Páginas: | 376 páginas |
Dimensiones: | 17 x 24 cms. |
Empaste: | Rústica |
Idioma(s): | Español |
Código ISBN: | 9789588675626 |
Precio: | S/ 110.00 |
Edición: | 1 Año: 2011 |
Disponibilidad: | En Stock |
Autores
Prólogo
Capítulo 1
Aprendizaje: conceptos generales
1.1. Introducción
1.2. Clasificación
1.3. Regresión
1.4. Probabilidad
1.4.1. Probabilidad de Bayes
1.4.2. Probabilidad de variables continuas
1.4.3. Medias y Varianzas
1.5. Esquema general del aprendizaje
1.5.1. Reconocimiento de patrones
1.5.2. Regresión
1.5.3. Estima de una densidad de probabilidad
1.6. Áreas relacionadas con el aprendizaje
1.7. Organización del libro
Capítulo 2
Aprendizaje estadístico
2.1. Introducción
2.2. Agrupamiento borroso
2.3. Clasificador paramétrico: bayes
2.3.1. Caso normal multivariable: media desconocida
2.3.2. Caso normal multivariable: media y matriz de covarianza desconocidas
2.3.3. Teoría de la decisión de Bayes: el clasificador Bayesiano
2.3.4. Medidas estadísticas
2.4 Clasificador no paramétrico: ventana de Parzen
2.5. Aplicación práctica
2.5.1. Clasificación de texturas en imágenes naturales
2.5.2. Método pseudoaleatorio de Balasko
2.5.3. Método de cuantización vectorial no supervisado
2.6. Notas finales
Capítulo 3
Combinación de clasificadores
3.1. Introducción
3.2. Aspectos generales en la combinación de clasificadores
3.2.1. Razones para la combinación
3.2.2. Tipos de combinaciones
3.3. Combinaciones no entrenables
3.3.1. Votación Mayoritaria
3.3.2. Combinación de Bayes
3.3.3. Combinación mediante funciones
3.3.4. Combinación mediante operadores de agregación fuzzy
3.3.5. Resumen de los métodos no entrenables
3.4. Combinaciones entrenables: integral fuzzy
3.5. Aplicación práctica
3.5.1. Procesos comunes
3.5.2. Procesos diferenciados
3.6. Notas finales
Capítulo 4
Redes neuronales artificiales
4.1. Principios básicos
4.1.1. Redes neuronales artificiales y su analogía con las neuronas biológicas
4.1.2. Elementos de una red neuronal
4.1.3. Ventajas de las redes neuronales
4.2. El proceso de aprendizaje
4.2.1. Algoritmos de aprendizaje
4.2.2. Tipos de aprendizaje
4.3. Redes hacia adelante (Feed-Forward)
4.3.1. El perceptrón
4.3.2. Adaline
4.3.3. El perceptrón multicapa
4.4. Redes competitivas
4.4.1. Mapas auto-organizados (SOM)
4.5. Aplicaciones prácticas
4.6. Notas finales
Capítulo 5
Máquinas de vectores soporte
5.1. Introducción
5.2. SVM para clasificación: caso separable
5.3. SVM en casos no separables
5.3.1. Función de decisión lineal con errores
5.3.2. Clasificadores no lineales
5.4. Resolución de un problema biclase con funciones núcleo
5.5. Problemas multiclase
5.6. Aplicación práctica
5.6.1. Etapa de procesamiento
5.6.2. Etapa de entrenamiento
5.6.3. Etapa de validación
5.7. Notas finales
Capítulo 6
Redes bayesianas
6.1. Introducción
6.1.1. Notación
6.2. Redes bayesianas
6.2.1. Modelo gráfico
6.2.2. Relaciones probabilísticas
6.3. Algoritmos de inferencia probabilística
6.3.1. Algoritmos de inferencia exacta
6.3.2. Algoritmos de inferencia aproximada
6.4. Aprendizaje de redes bayesianas
6.4.1. Aprendizaje paramétrico
6.4.2. Aprendizaje estructural
6.5. Aplicación práctica
6.5.1. Descripción del problema
6.5.2. Ejemplo básico
6.5.3. Datos de activación cerebral de Pittsburgh
6.6. Notas finales
Capítulo 7
Simulaciones de Monte Carlo – I
7.1. Introducción
7.2. Presentación formal del problema
7.3. Integración de Monte Carlo
7.4. Métodos auxiliares de muestreo
7.4.1. Muestreo por rechazo (RS)
7.4.2. Muestreo Enfatizado (IS)
7.4.3. Remuestreo por pesos (WR)
7.5. Aplicación práctica
7.6. Notas finales
Capítulo 8
Simulaciones de Monte Carlo - II
8.1. Introducción
8.2. Métodos de simulación por cadenas de Markov (MCMC)
8.2.1. Fundamento del método
8.2.2. Cadena general de los métodos de Metropolis-Hastings y Gibbs
8.2.3. Algoritmos de Metropolis-Hastings (MH)
8.2.4. Método de Gibbs
8.3. Métodos secuenciales de Monte Carlo
8.3.1. Descripción del problema
8.3.2 Filtros de Partículas (PF)
8.4. Comparativa
8.4.1. Métodos de simulación generales
8.4.2. Algoritmos
8.5. Aplicación práctica
8.6. Notas finales
Capítulo 9
El aprendizaje con algoritmos genéticos
9.1. Introducción
9.2. Tipos de aprendizaje
9.3. Los algoritmos genéticos frente a otras técnicas
9.4. Aplicación de los algoritmos genéticos
9.4.1. Un ejemplo práctico: la cerveza
9.4.2. Algoritmos Genéticos Multiobjetivo
9.5. Generalización del ejemplo propuesto
9.5.1. Elementos básicos de un AG
9.5.2. Técnicas de Selección
9.5.3. Técnicas de Cruce
9.5.4. La Mutación
9.5.5. Comparación entre el cruce y la mutación
9.5.6. Ajuste de Parámetros
9.6. Manejo de restricciones
9.7. Notas finales
Capítulo 10
Aprendizaje mediante árboles de decisión
10.1. Introducción
10.2. Árboles de decisión
10.2.1. Formalización
10.3. Algoritmo ID3
10.3.1. Determinación del atributo de ramificación
10.3.2. Modo de generación
10.4. Árbol de decisión FUZZY
10.4.1. Proceso de construcción del árbol borroso
10.5. Aplicación práctica
10.6. Notas finales
Capítulo 11
Razonamiento basado en casos
11.1 Introducción
11.2. Estructura principal y problemática
11.2.1. Ciclo clásico de un CBR
11.2.2. Estructura de los Casos y Base de Casos
11.2.3. Recuperar
11.2.4. Reutilizar
11.2.5. Revisar
11.2.6. Recordar
11.3. Aplicaciones prácticas
11.3.1. Un sistema CBR como ayuda en el procesamiento de imágenes
11.3.2. Un sistema CBR para la toma de decisiones
11.4. Notas finales
Capítulo 12
Aprendizaje por refuerzo
12.1. Introducción
12.2. Aprendizaje y refuerzo
12.3. Búsqueda en el espacio de políticas
12.4. Asignación de crédito temporal
12.5. Funciones de valor
12.6. La propiedad de Markov
12.7. Análisis de componentes
12.7.1. Selección de acciones y exploración
12.7.2. Optimización
12.8. Conclusiones
12.9. Aplicación práctica
12.10. Notas finales
Descarga de apéndices y código
Bibliografía
Índice alfabético