- Inicio
- All Courses
- Estadística con Python
Currículum
- 4 Sections
- 172 Lessons
- 10 semanas
Expand all sectionsCollapse all sections
- Estadística65
- 0.1Estadística descriptiva
- 0.2Análisis exploratorio de datos
- 0.3Un ejemplo de análisis
- 0.4Variables estadísticas
- 0.5Ejercicio 1: Identificación de tipos de variables
- 0.6Soluciones: Identificación de tipos de variables
- 0.7Métodos estadísticos descriptivos
- 0.8Ejemplo de cálculo en python
- 0.9Ejercicios resueltos
- 0.10Desviación típica en distribuciones no normales
- 0.11Comparación entre distribuciones
- 0.12Diferentes tipos de medias
- 0.13Medidas de dispersión
- 0.14Tablas de frecuencia y posición
- 0.15Ejemplos de histogramas con Python
- 0.16Asimetría y kurtosis
- 0.17Ejemplo con iris.arff
- 0.18Ejercicio 2: comparar series
- 0.19Solución
- 0.20Covarianza y correlación
- 0.21Coeficiente p
- 0.22Ejemplos cálculo p
- 0.23Cálculo p para muestras
- 0.24Ejemplo con iris
- 0.25Ejercicio resuelto correlación
- 0.26Ejercicio 3: Cálculo de correlación
- 0.27Solución ejercicio
- 0.28Distancias entre dos puntos
- 0.29Ejemplos distancias entre dos puntos
- 0.30Ejercicio 4: distancias
- 0.31Solución distancias 1
- 0.32Solución ejercicio distancias
- 0.33Agrupaciones por distancias
- 0.34Tipos de errores
- 0.35Ejemplos
- 0.36Ejercicio 5: Errores mediciones
- 0.37Solución
- 0.38Métricas de error con sklearn
- 0.39Ejemplo con metrics
- 0.40Ejercicio 6: Cálculo de errores
- 0.41Solución ejercicio 6
- 0.42Métricas para evaluar modelos de regresión
- 0.43Calculo en Python
- 0.44Cálculo con datos reales
- 0.45Comando train_test_split
- 0.46LinearRegression
- 0.47Ejercicio 7: Análisis diabetes
- 0.48Solución ejercicio diabetes
- 0.49Ejercicio 8: Interpretación de una distribución
- 0.50Solución 8
- 0.51Ejercicio 9: Análisis global de los datos
- 0.52Numpy
- 0.53Métodos numpy
- 0.54Ejemplo uso numpy
- 0.55Pandas
- 0.56Series y Dataframes
- 0.57Importar y exportar datos
- 0.58Información de dataframes
- 0.59Trocear datos
- 0.60Visualización
- 0.61Ejemplo pandas
- 0.62Otras librerías
- 0.63Saber si una distribución es normal
- 0.64Pyplot
- 0.65Pyplot bar
- Ciencia de datos12
- 1.0Introducción
- 1.1Técnicas utilizadas
- 1.2Actores principales
- 1.3Etapas de la ciencia de datos
- 1.4Tipos de datos
- 1.5Minería de datos
- 1.6Aprendizaje supervisado y no supervisado
- 1.7Ejemplo aprendizaje supervisado
- 1.8Ejemplo aprendizaje no supervisado
- 1.9Estrategias dependiendo de los tipos de datos
- 1.10Overfitting y underfitting
- 1.11Ejercicio 10: Tipos de aprendizaje
- Weka59
- 2.0Introducción
- 2.1Instalación
- 2.2ARFF
- 2.3Explorer
- 2.4Preprocess
- 2.5Ejercicio 11: Preparación de datos
- 2.6Filtros Weka
- 2.7Pasos de preproceso
- 2.8Ejercicio 12: preproceso
- 2.9Classify
- 2.10Ejemplo Clasificador
- 2.11Análisis clasificador
- 2.12Estadística Kappa
- 2.13TP y FP
- 2.14Precision y TP
- 2.15F-Measure
- 2.16Coeficiente de Correlación de Matthews (MCC)
- 2.17Área de ROC (AUC)
- 2.18PRC Área
- 2.19Matriz de confusión
- 2.20Ejercicio 13: Comparación modelos
- 2.21Algoritmos de clasificación
- 2.22J48
- 2.23Análisis resultados
- 2.24Ejercicio 14: j48
- 2.25NaiveBayes
- 2.26Análisis resultados
- 2.27Ejercicio 15: NaiveBayes
- 2.28RandomForest
- 2.29Análisis resultados
- 2.30Ejercicio Random Forest
- 2.31Ejercicio resuelto de clasificación
- 2.32Ejercicio 16: Testar clasificadores
- 2.33Regresión lineal y ejemplo
- 2.34Implementación Clasificadores Python
- 2.35Ejercicio 17: Clasificador python
- 2.36Cluster
- 2.37Algoritmos de cluster
- 2.38K-Means
- 2.39Análisis resultados
- 2.40EM
- 2.41Ejercicios clustering
- 2.42Implementaciones en python
- 2.43Opciones KMeans Python
- 2.44Implementación EM
- 2.45Ejemplo de KMeans complejo
- 2.46Resolución ejercicio Clusterización
- 2.47Associate
- 2.48Algoritmos de asociate
- 2.49Apriori
- 2.50Ejemplo: Análisis de Clics en Páginas Web
- 2.51Implementación Python Apriori
- 2.52Ejercicio asociate
- 2.53Select Attributes
- 2.54Ejemplo Select attributes
- 2.55Ejercicio Select
- 2.56Visualize
- 2.57Uso visualizer
- 2.58Métricas Associate
- Redes neuronales36
- 3.0Neurona artificial
- 3.1Funciones de activación
- 3.2Perceptrón
- 3.3Redes neuronales de capa única
- 3.4Redes multicapas
- 3.5Redes Completamente convolucionales (FCN)
- 3.6Retropropagación
- 3.7Gradientes
- 3.8Tipos de gradiente
- 3.9Tensorflow
- 3.10Ejemplos Tensorflow
- 3.11Keras
- 3.12Ejemplos Keras
- 3.13Una red neuronal simple en dos pasos
- 3.14Capas y nodos
- 3.15Funciones de activación
- 3.16Código mostrar funciones de activación
- 3.17Compilación del modelo
- 3.18Ejemplos de redes con keras
- 3.19Red neuronal para Iris
- 3.20Red neuronal para regresión
- 3.21Ejercicio red de regresión
- 3.22Ejercicio clasificación de caras
- 3.23Solución clasificación
- 3.24Loss y accuracy
- 3.25Flatten, Dropout y MaxPooling2D
- 3.26Análisis de imágenes
- 3.27Análisis imágenes ropa
- 3.28Redes convolucionales
- 3.29Filtros (kernels)
- 3.30Ejemplo red de clasificación
- 3.31Otro ejemplo imágenes
- 3.32Entrenamiento gatos y perros
- 3.33Transferencia aprendizaje
- 3.34Transferencia de aprendizaje
- 3.35Tensorflow hub
Ejercicio asociate
Cargar el dataset soybean y detectar si hay algunas reglas de asociación.
Modificad el algoritmo para que tenga en cuenta la métrica lift mayor de 1.7 ¿Que reglas salen ahora?
Haced un breve informe de los resultados.