Introducción al Curso de Estadística con Python
La estadística es una disciplina fundamental para el análisis de datos en prácticamente todas las áreas del conocimiento. En un mundo impulsado por la información, la capacidad de interpretar y analizar datos de manera eficiente se ha convertido en una habilidad crítica. Este curso tiene como objetivo enseñarte los principios básicos y avanzados de la estadística, utilizando Python como herramienta clave para ejecutar análisis y generar insights a partir de datos.
Python ha emergido como uno de los lenguajes más populares para la ciencia de datos debido a su simplicidad, versatilidad y la poderosa gama de bibliotecas diseñadas específicamente para trabajar con datos. A lo largo de este curso, utilizaremos bibliotecas como Pandas, NumPy, SciPy y Matplotlib para realizar análisis estadísticos completos que abarquen desde estadística descriptiva hasta modelos probabilísticos y regresión.
¿Por qué aprender Estadística con Python?
Fundamentos sólidos de la estadística: El curso te proporcionará una base teórica en conceptos clave de la estadística, necesarios para el análisis de datos en diversos contextos.
Aplicación práctica con Python: No solo aprenderás teoría, sino que también pondrás manos a la obra con herramientas prácticas que se utilizan en el mundo real. Python te permitirá automatizar cálculos estadísticos, crear visualizaciones impactantes y construir modelos predictivos.
Preparación para el análisis de datos: Ya sea que trabajes en ciencias sociales, ingeniería, economía, marketing o cualquier otra área, las habilidades de análisis de datos y estadística son esenciales. Con este curso, estarás preparado para analizar grandes volúmenes de datos y extraer conclusiones relevantes.
¿Qué aprenderás?
Estadística descriptiva: Entenderás cómo resumir datos con medidas de tendencia central (media, mediana, moda), dispersión (varianza, desviación estándar) y posición (percentiles, cuartiles).
Probabilidades y distribuciones: Aprenderás a modelar incertidumbre con distribuciones de probabilidad y entender conceptos como la probabilidad condicional y la ley de los grandes números.
Inferencia estadística: Realizarás pruebas de hipótesis, intervalos de confianza y análisis de correlación, aprendiendo a hacer inferencias sobre poblaciones a partir de muestras.
Regresión y predicción: Construirás modelos de regresión lineal para predecir variables, evaluando la relación entre diferentes factores.
Visualización de datos: Crearás gráficos y visualizaciones para comunicar de manera efectiva los resultados de tus análisis estadísticos.
Metodología
El curso está diseñado de manera interactiva y práctica, combinando teoría con ejercicios guiados y proyectos aplicados. Cada módulo incluye:
Ejemplos claros y fáciles de seguir.
Tareas y proyectos para consolidar tus conocimientos.
Visualizaciones para facilitar la interpretación de los datos.
A lo largo del curso, usaremos datasets reales y ficticios, de modo que puedas aplicar lo aprendido en contextos variados. Al finalizar, serás capaz de realizar análisis estadísticos básicos y avanzados, desde la exploración inicial de los datos hasta la creación de modelos predictivos, todo dentro del ecosistema de Python.
Requisitos previos
Este curso está diseñado tanto para principiantes como para quienes ya tengan algún conocimiento de Python y quieran profundizar en el análisis de datos. No se requiere experiencia previa en estadística, aunque es útil tener un conocimiento básico de programación en Python.
¡Prepárate para explorar el fascinante mundo de la estadística con Python y adquirir habilidades valiosas que te abrirán puertas en una variedad de campos!
Currículum
- 4 Sections
- 172 Lessons
- 10 semanas
- Estadística65
- 0.1Estadística descriptiva
- 0.2Análisis exploratorio de datos
- 0.3Un ejemplo de análisis
- 0.4Variables estadísticas
- 0.5Ejercicio 1: Identificación de tipos de variables
- 0.6Soluciones: Identificación de tipos de variables
- 0.7Métodos estadísticos descriptivos
- 0.8Ejemplo de cálculo en python
- 0.9Ejercicios resueltos
- 0.10Desviación típica en distribuciones no normales
- 0.11Comparación entre distribuciones
- 0.12Diferentes tipos de medias
- 0.13Medidas de dispersión
- 0.14Tablas de frecuencia y posición
- 0.15Ejemplos de histogramas con Python
- 0.16Asimetría y kurtosis
- 0.17Ejemplo con iris.arff
- 0.18Ejercicio 2: comparar series
- 0.19Solución
- 0.20Covarianza y correlación
- 0.21Coeficiente p
- 0.22Ejemplos cálculo p
- 0.23Cálculo p para muestras
- 0.24Ejemplo con iris
- 0.25Ejercicio resuelto correlación
- 0.26Ejercicio 3: Cálculo de correlación
- 0.27Solución ejercicio
- 0.28Distancias entre dos puntos
- 0.29Ejemplos distancias entre dos puntos
- 0.30Ejercicio 4: distancias
- 0.31Solución distancias 1
- 0.32Solución ejercicio distancias
- 0.33Agrupaciones por distancias
- 0.34Tipos de errores
- 0.35Ejemplos
- 0.36Ejercicio 5: Errores mediciones
- 0.37Solución
- 0.38Métricas de error con sklearn
- 0.39Ejemplo con metrics
- 0.40Ejercicio 6: Cálculo de errores
- 0.41Solución ejercicio 6
- 0.42Métricas para evaluar modelos de regresión
- 0.43Calculo en Python
- 0.44Cálculo con datos reales
- 0.45Comando train_test_split
- 0.46LinearRegression
- 0.47Ejercicio 7: Análisis diabetes
- 0.48Solución ejercicio diabetes
- 0.49Ejercicio 8: Interpretación de una distribución
- 0.50Solución 8
- 0.51Ejercicio 9: Análisis global de los datos
- 0.52Numpy
- 0.53Métodos numpy
- 0.54Ejemplo uso numpy
- 0.55Pandas
- 0.56Series y Dataframes
- 0.57Importar y exportar datos
- 0.58Información de dataframes
- 0.59Trocear datos
- 0.60Visualización
- 0.61Ejemplo pandas
- 0.62Otras librerías
- 0.63Saber si una distribución es normal
- 0.64Pyplot
- 0.65Pyplot bar
- Ciencia de datos12
- 1.0Introducción
- 1.1Técnicas utilizadas
- 1.2Actores principales
- 1.3Etapas de la ciencia de datos
- 1.4Tipos de datos
- 1.5Minería de datos
- 1.6Aprendizaje supervisado y no supervisado
- 1.7Ejemplo aprendizaje supervisado
- 1.8Ejemplo aprendizaje no supervisado
- 1.9Estrategias dependiendo de los tipos de datos
- 1.10Overfitting y underfitting
- 1.11Ejercicio 10: Tipos de aprendizaje
- Weka59
- 2.0Introducción
- 2.1Instalación
- 2.2ARFF
- 2.3Explorer
- 2.4Preprocess
- 2.5Ejercicio 11: Preparación de datos
- 2.6Filtros Weka
- 2.7Pasos de preproceso
- 2.8Ejercicio 12: preproceso
- 2.9Classify
- 2.10Ejemplo Clasificador
- 2.11Análisis clasificador
- 2.12Estadística Kappa
- 2.13TP y FP
- 2.14Precision y TP
- 2.15F-Measure
- 2.16Coeficiente de Correlación de Matthews (MCC)
- 2.17Área de ROC (AUC)
- 2.18PRC Área
- 2.19Matriz de confusión
- 2.20Ejercicio 13: Comparación modelos
- 2.21Algoritmos de clasificación
- 2.22J48
- 2.23Análisis resultados
- 2.24Ejercicio 14: j48
- 2.25NaiveBayes
- 2.26Análisis resultados
- 2.27Ejercicio 15: NaiveBayes
- 2.28RandomForest
- 2.29Análisis resultados
- 2.30Ejercicio Random Forest
- 2.31Ejercicio resuelto de clasificación
- 2.32Ejercicio 16: Testar clasificadores
- 2.33Regresión lineal y ejemplo
- 2.34Implementación Clasificadores Python
- 2.35Ejercicio 17: Clasificador python
- 2.36Cluster
- 2.37Algoritmos de cluster
- 2.38K-Means
- 2.39Análisis resultados
- 2.40EM
- 2.41Ejercicios clustering
- 2.42Implementaciones en python
- 2.43Opciones KMeans Python
- 2.44Implementación EM
- 2.45Ejemplo de KMeans complejo
- 2.46Resolución ejercicio Clusterización
- 2.47Associate
- 2.48Algoritmos de asociate
- 2.49Apriori
- 2.50Ejemplo: Análisis de Clics en Páginas Web
- 2.51Implementación Python Apriori
- 2.52Ejercicio asociate
- 2.53Select Attributes
- 2.54Ejemplo Select attributes
- 2.55Ejercicio Select
- 2.56Visualize
- 2.57Uso visualizer
- 2.58Métricas Associate
- Redes neuronales36
- 3.0Neurona artificial
- 3.1Funciones de activación
- 3.2Perceptrón
- 3.3Redes neuronales de capa única
- 3.4Redes multicapas
- 3.5Redes Completamente convolucionales (FCN)
- 3.6Retropropagación
- 3.7Gradientes
- 3.8Tipos de gradiente
- 3.9Tensorflow
- 3.10Ejemplos Tensorflow
- 3.11Keras
- 3.12Ejemplos Keras
- 3.13Una red neuronal simple en dos pasos
- 3.14Capas y nodos
- 3.15Funciones de activación
- 3.16Código mostrar funciones de activación
- 3.17Compilación del modelo
- 3.18Ejemplos de redes con keras
- 3.19Red neuronal para Iris
- 3.20Red neuronal para regresión
- 3.21Ejercicio red de regresión
- 3.22Ejercicio clasificación de caras
- 3.23Solución clasificación
- 3.24Loss y accuracy
- 3.25Flatten, Dropout y MaxPooling2D
- 3.26Análisis de imágenes
- 3.27Análisis imágenes ropa
- 3.28Redes convolucionales
- 3.29Filtros (kernels)
- 3.30Ejemplo red de clasificación
- 3.31Otro ejemplo imágenes
- 3.32Entrenamiento gatos y perros
- 3.33Transferencia aprendizaje
- 3.34Transferencia de aprendizaje
- 3.35Tensorflow hub