
DIPLOMADO EN BIG DATA Y ANÁLISIS DE DATOS
Este curso ofrece una introducción completa al sistema Kanban, una metodología ágil para la gestión de proyectos y procesos. Durante 16 horas, los participantes aprenderán los principios básicos de Kanban, cómo implementarlo en equipos y organizaciones, y cómo utilizarlo para mejorar la eficiencia y la gestión del flujo de trabajo. Al finalizar, los estudiantes estarán equipados con las habilidades necesarias para aplicar Kanban de manera efectiva en diversos contextos.
duración
40 horas
Información general
Este diplomado proporciona una comprensión integral de los fundamentos y técnicas avanzadas en la ingeniería de datos para entornos de Big Data y análisis de datos. Los participantes aprenderán a diseñar, implementar y optimizar soluciones de procesamiento y almacenamiento de datos, así como a aplicar técnicas de análisis para extraer información valiosa y generar reportes estratégicos.
Metodología:
El diplomado combina sesiones teóricas y ejercicios prácticos, permitiendo a los participantes aplicar los conceptos en entornos simulados y casos reales. A través de actividades guiadas, se explorarán herramientas y técnicas utilizadas en la ingeniería de datos para reforzar el aprendizaje y mejorar la capacidad de resolución de problemas en escenarios de Big Data y análisis de datos.
dirigido a :
Este curso está dirigido a profesionales, equipos y cualquier persona interesada en mejorar sus procesos de trabajo utilizando la metodología Kanban. No se requiere experiencia previa en Kanban, lo que lo hace adecuado tanto para principiantes como para aquellos que buscan profundizar su comprensión de esta metodología ágil.
TEmario:
Fundamentos de Big Data y Procesamiento de Datos
- Principios de la ingeniería de datos y su importancia en el análisis de datos.
- Conceptos clave de Big Data: volumen, velocidad, variedad, veracidad y valor.
- Tipos de almacenamiento: bases de datos relacionales, no relacionales y data lakes.
- Procesos ETL (Extracción, Transformación y Carga) y ELT.
Almacenamiento y Modelado de Datos
- Estrategias de almacenamiento para análisis de datos a gran escala.
- Normalización y desnormalización de datos.
- Indexación y optimización del rendimiento en entornos de datos masivos.
- Modelado de datos para reporting y análisis.
Procesamiento y Transformación de Datos a Gran Escala
- Procesamiento por lotes vs. procesamiento en tiempo real.
- Técnicas de transformación y limpieza de datos.
- Uso de frameworks para procesamiento distribuido de datos.
- Flujo de trabajo de datos y orquestación de tareas.
Análisis y Visualización de Datos
- Herramientas y técnicas para el análisis de datos estructurados y no estructurados.
- Creación de modelos analíticos y reportes interactivos.
- Uso de técnicas estadísticas y aprendizaje automático para la toma de decisiones.
- Generación de dashboards y visualizaciones efectivas.
- Uso de Power BI para inteligencia de negocios
Gestión y Seguridad de Datos
- Estrategias de gobernanza y calidad de datos.
- Implementación de políticas de acceso y seguridad.
- Monitoreo y auditoría del procesamiento de datos.
- Cumplimiento de normativas y regulaciones en gestión de datos.

Menú teorema
- Capacitación
- Consultoría
- Herramientas ITSM
- Outsourcing
- Automatización de Procesos
TEOREMA© 2020