Programa Ejecutivo

Ciencia de Datos

Dominá las herramientas analíticas para transformar grandes volúmenes de datos en estrategias inteligentes y convertite en el motor estratégico que toda organización moderna necesita. Esta inversión te permitirá liderar el futuro de los negocios aplicando el activo más valioso de la actualidad.

Inicio

23 Mayo

Duración

10 Meses

Modalidad

Virtual

Comenzamos en

30Days
9Hours
19Mins
48Secs

Con este programa aprenderás

▬ Fundamentos de datos

▬ Gestión de información

▬ Análisis geográfico

▬ Visualización de datos

▬ Análisis avanzado

▬ Calidad y gestión de datos

▬ Herramientas avanzadas

Orientado para

  • Profesionales que trabajan con datos en su día a día y quieren dar el salto a la analítica (administración, marketing, finanzas, RRHH, operaciones, logística, etc.)
  • Empresarios y dueños de pymes que necesitan tomar decisiones basadas en datos
  • Mandos medios y gerenciales que buscan incorporar herramientas de análisis para mejorar resultados
  • Personas que quieren reconvertir su perfil profesional hacia el mundo data sin tener formación universitaria previa en sistemas
  • Analistas, administrativos avanzados, perfiles de BI o Excel avanzado que quieran profesionalizarse

Requerimientos

  • No es necesario contar con formación previa en informática o programación.
  • Interés por el análisis y disposición para adquirir nuevas competencias.
  • Computadora con acceso a Internet.
ciencia de datos

El Programa Ejecutivo en Ciencias de Datos tiene como objetivo brindar a los estudiantes los conocimientos fundamentales y aplicados para prepararse en un área de creciente relevancia en los ámbitos empresarial, educativo, social y tecnológico.

Si bien el trabajo con datos ha estado históricamente presente en múltiples disciplinas, el avance de las herramientas informáticas ha transformado profundamente las metodologías de análisis, automatizando procesos y facilitando la toma de decisiones basada en información.

Esta propuesta surge para acercar herramientas prácticas de la Ciencia de Datos a un público amplio, permitiendo comprender qué herramienta utilizar según los objetivos de trabajo, optimizando el análisis y la interpretación de información relevante.

Metodología

Cada módulo está estructurado en 4 clases virtuales, con una duración de 2 horas por encuentro. 

Todas las clases sincrónicas quedan grabadas y disponibles en la plataforma académica, lo que permite al estudiante:

  • Reforzar los contenidos vistos.
  • Recuperar la clase en caso de no poder asistir en el horario establecido.

Esta modalidad asegura un cursado flexible, acompañamiento continuo y acceso permanente al material formativo.

Programa Completo

Introducción a la Estadística Descriptiva

Contenidos: nociones básicas de estadística, organización y presentación de datos, medidas descriptivas y análisis de la relación entre variables.

Programa: 

  • Nociones Básicas: Definición de Estadística. Problema de trabajo e investigación estadística. Los datos. Las variables. Datos estadísticos. Fuente de los datos. Investigación por Censo y por Muestra.
  • Organización de los datos: Los datos y la información. La matriz de datos. Análisis de la matriz de datos. Las distribuciones de frecuencia: variables categóricas y variables numéricas. Presentación de los datos: Recursos numéricos y recursos gráficos. Transformaciones de las frecuencias absolutas: frecuencias relativas y frecuencias absolutas.
  • Los valores que caracterizan al conjunto de datos: Media aritmética: propiedades y Cálculo. La mediana: propiedades y determinación. La moda: propiedades y determinación. Otras medidas características del conjunto de datos. Integración de las medidas resumen.
  • La relación entre variables: Importancia del estudio de la relación entre variables. Relación entre variables categóricas. Relación entre variables categóricas y numéricas. Relación entre variables numéricas.

Introducción al Software Estadístico

Contenidos: uso de software estadístico, tratamiento de datos, creación de variables, sintaxis, análisis y exportación de resultados.

Programa: 

  • Introducción al Software Estadístico: Instalación de Software Estadístico. Reconocimiento del entorno de la aplicación: menú, barra de herramientas, vista de datos, vista de variables, archivo de sintaxis (.sps), archivo de resultado (.spv/.spo) y archivo de trabajo (.sav). Frecuencias Simples. Tabla de Contingencia. Tablas Personalizadas. 
  • Tratamiento de los Datos 1: Importar base de datos desde un formato distinto (.xlsx/.csv/..txt); Etiquetado de base de datos real. Generar Archivo de trabajo. Frecuencias Simples. Tabla de Contingencia. Tablas Personalizadas. Diferencias con respecto a lo trabajado en Clase 01.
  • Tratamiento de los Datos 2: Creación de variables. Cálculo de indicadores conocidos como ser el IMC (Índice de Masa Corporal). Recodificar en las mismas variables (Agrupar por intervalos). Recodificar en las mismas variables (Reemplazar códigos). Aplicar filtro. Segmentación de archivo. Crear variables de respuestas múltiples. Definir conjuntos de variables. Exportar tablas a planilla de cálculo. Crear un archivo de sintaxis, sin escribirlo.
  • Tratamiento de los Datos 3: Utilización de Nivel Socioeconómico de la Sociedad Argentina de Marketing. Creación de estructura de base para operar con la sintaxis. Realizar sintaxis que permita la creación personal de un nivel socioeconómico propio. Ejemplo propuesto.
  • Tratamiento de los Datos 4: Agrupación visual. Identificación de casos duplicados. Fundir archivos: añadir casos y añadir variables. Utilización de herramientas gráficas poco habituales: Diagrama de caja y Pirámide poblacional. Ejemplo propuesto.

Bases de Datos Relacionales

Contenidos: bases de datos relacionales, modelo relacional, SQL aplicado a ciencia de datos y consultas avanzadas.

Programa: 

  • Introducción a las BBDD en ciencias de datos: ¿Por qué las bases de datos relacionales son clave en la ciencia de datos? Tipo de bases de datos utilizadas: relacionales vs no relacionales. Herramientas: DBeaver, Access, LibreOffice Base. Actividad: creación y conexión a una base con DBeaver.
  • Modelo relacional y diseño conceptual: Tablas, relaciones, claves primarias y foráneas. Diagrama entidad-relación. Cardinales. Actividad: Diseño conceptual de una base de datos para análisis de ventas o salud pública.
  • SQL para Ciencias de Datos I: Comandos SELECT, WHERE, operadores lógicos (AND, OR, NOT), ORDER BY, LIMIT. Filtros complejos: IN, BETWEEN, LIKE. Actividad: explorar un dataset en ventas o salud pública.
  • SQL para Ciencias de Datos II: Agregaciones (COUNT, SUM, AVG, MAX, MIN). JOINs (INNER, LEFT, RIGHT). Actividad: Consultas con JOIN y agrupamientos. 
  • SQL para Ciencias de Datos III: SQL de Acción (INSERT INTO, UPDATE con condiciones, DELETE con condiciones). Actividad: Práctica con datos reales simulados (carga, edición y borrado). 

Herramientas de Georreferenciación (QGIS)

Contenidos: sistemas de información geográfica, análisis espacial, visualización cartográfica y geoservicios.

Programa: 

  • Nociones fundamentales acerca de los Sistemas de Información Geográfica (SIG): La reconstrucción digital de la realidad. Introducción a los SIG: antecedentes y evolución tecnológica. Definición y componentes. Funcionalidades y aplicaciones. Organización de la información geográfica en capas. Finalidad de los SIG. Análisis espacial. Software SIG: Categorías y características técnicas. El dato geográfico. Estructuras básicas de representación vectorial: modelo vectorial y ráster. Distribución geográfica continua y objetos discretos. Estructura del archivo vectorial. Sistemas de Referencia. Proyecciones cartográficas. Coordenadas geográficas y planas (EPSG). Proyección conforme Gauss Krüger.
  • Entorno de trabajo en Qgis: Interfaz gráfica. Configuración inicial. Menús y barras de Herramientas. Proyecto de trabajo en QGIS. Estructura y organización de las capas. Carga de capas. Métodos de selección de objetos. Configuración de proyecciones en QGIS. Proyección de vista de trabajo. SRC. Capas sin proyección cartográfica. Asignación y reproyección de capas. Herramientas de medición: distancias, superficies y ángulos. Complementos (‘plugins’). Carga de datos: ASCII; vectoriales, ráster, y sus propiedades. Sistemas de coordenadas y proyección de mapas (SRC); reproyección. Georreferenciación. Simbolización y etiquetado de objetos. Recorte de capas ráster y vectoriales. Creación y edición de vectores. Obtener información de capas.
  • Tabla de atributos: Importación de tablas. Estructura de una tabla de atributos. Herramientas de la tabla de atributos. Edición de tablas, unión entre tablas en base a campo clave, relación entre tablas en base a campo clave, unión de tablas en base a localización espacial, obtención de estadísticas generales y parciales, resumen de información, cálculo de nuevos valores. Análisis exploratorio. Tablas externas: archivos CSV. Funciones de búsquedas y consultas. Búsqueda por atributos: consultas simples y consultas condicionales empleando operadores aritméticos, lógicos y booleanos. Funciones de búsquedas y consultas por ubicación. Exportar tablas y resultados.
  • Digitalización de objetos geográficos: Fuentes de información en los SIG: instrumentos y métodos de ingreso de datos. Herramientas y funciones de digitalización. Métodos para la creación de una capa vectorial. Edición vectorial y edición de atributos.
  • Geoservicios: Geoservicios WMF/WMS. Conexión a infraestructuras de datos espaciales. Conexión XYZ Tiles. La cartografía temática. Tipo de mapas temáticos. La percepción visual en la cartografía temática: variables visuales y determinación de intervalos de clase. Elementos cartográficos de un mapa.
  • Simbolización y etiquetado de capas vectoriales: Manejo del color. Simbolización con Símbolo único, Categorizado y otros modos. Simbolización por métodos avanzados. Modos de mezcla de colores. Simbolización por agrupamientos, mapas de coropletos. Creación y edición de capas vectoriales.
  • Rásters: Propiedades de los archivos ráster. Simbolización de capas ráster: monobanda, multibanda, paletas. Trabajando con modelos digitales de elevación. Construir mapas de pendiente, orientación de laderas, y otros. Edición y procesamiento de rásters. Reclasificación, remuestreo, reescalado. Rasterización. Trazado de perfiles topográficos.
  • Presentación visual: Composición de mapas. El diseñador de impresión. Leyenda, escala gráfica, coordenadas y otros accesorios. Incorporación de fotografías, tablas de atributos y texto explicativo. Diseño de un póster. Mapas en la web. Interactuar con Google Earth y Google Maps.

Visualización de Datos: Looker Studio

Contenidos: exploración de datos, informes dinámicos, visualización georreferenciada y filtros interactivos.

Programa: 

  • Exploración de los datos: Mediante la utilización de estadística descriptiva. Análisis univariado. Análisis bivariado. Eliminar duplicados. Identificación de dimensiones de análisis.
  • Importar datos: Subir matriz de datos a drive para su aprovechamiento con la herramienta Looker Studio. Dar los permisos necesarios para acceder al área de trabajo de Looker Studio. Importar matriz de datos subida al drive.
  • Área de trabajo de Looker Studio: Reconocimiento del área de trabajo. Menú, barra de herramientas. Diseño sencillo de informe dinámico.
  • Vincular tabla de datos de Google Form con looker Studio: Realización de ejemplo para revisar la vinculación y la actualización de las tablas de datos y gráficos propuestos.
  • Informe de varias hojas: Ejemplo práctico, que pretende mostrar la utilidad del informe dinámico con la posibilidad de incorporar más hojas. Exportar informe en formato PDF desde la vista del editor. Exportar tabla de datos.
  • Informe dinámico con puntos georeferenciados: Incorporación de puntos a través de texto y mediante las coordenadas de latitud y longitud.
  • Informe dinámico de polígonos: Primera subdivisión disponible, provincias y segunda subdivisión disponible, departamentos. Ejemplos de ambos casos. Ejercicio de realización individual.
  • Utilización de filtros predefinidos: Mediante opciones de cuadro de comandos con opciones lógicas; igual a; mayor que; menor que; distinto de; incluir; excluir.

Minería de Datos

Contenidos: clasificación, clustering, asociaciones y descubrimiento de conocimiento en bases de datos.

Programa: 

  • Introducción a la Minería de Datos. Qué es la Minería de Datos. Motivación. Orígenes. El proceso de Descubrimiento del conocimiento: Distintas fases. Tipos de tareas de Minería de Datos. Aplicaciones. 
  • Preprocesamiento de Datos. Conceptos. Limpieza de Datos. Integración y transformación de datos. Reducción, diversas técnicas. Discretización.
  • Clasificación. Enfoque al problema de clasificación. Introducción de árboles de decisión: construcción del árbol; medidas de impureza; selección del mejor separador. Sobreajuste del modelo: concepto; diversas causas; estimación del error; soluciones. Evaluación del desempeño de clasificadores: métodos de estimación del desempeño. Clasificación basada en reglas: esquema de ordenamiento de reglas; método de construcción de un clasificador; métodos directos e indirectos. Aplicaciones. Métodos bayesianos: Naive Bayes.
  • Conglomeración. Tipos de datos, medidas de distancia, clustering jerárquico: aglomerativo y divisivo; clustering particional: K-means. K-means incremental. Algoritmos basados en densidad. Algoritmos escalables: BIRCH y CURE. Evaluación: cohesión y separación. Medidas de validez. Aplicaciones. 
  • Asociaciones. Definición. Generación de conjuntos de ítems frecuentes; Principio de Apriori; algoritmo Apriori; generación de candidatos; poda. Generación de reglas: poda basada en la confianza. Itemsets frecuentes maximales y cerrados. Medidas objetivas de interés. Análisis de patrones secuenciales: descubrimiento de patrones; restricciones de tiempo. Aplicaciones.

Visualización de Datos: Power BI

Contenidos: Power BI, transformación de datos, DAX, visualizaciones y publicación de informes.

Programa:

  • Introducción a Power BI: ¿Qué es Power BI? Componentes principales (PBI Desktop, PBI Service, PBI Mobile). Comparación con otras herramientas (Tableau, Excel, Access). Descarga e instalación de Power BI Desktop. Práctica: Interfaz del usuario de Power BI Desktop. Crear un primer informe simple con datos de ejemplo (Dataset público pequeño). Exploración de las funciones principales: panel de campos, visualizaciones y filtros. 
  • Conexión y Transformación de Datos: Tipo de fuentes de datos en Power BI. Introducción a Power Query. Concepto de ETL (Extracción, Transformación y Carga). Práctica: Conectar a diversas fuentes de datos (Excel, csv, SQL Server, API´s, etc.). Realizar transformaciones básicas en Power Query (eliminar columnas, filtrar filas, cambiar tipos de datos, crear columnas calculadas). Crear consultas combinadas (marge y append).
  • Creación de Visualizaciones: Tipos de visualizaciones disponibles en PowerBI: Gráficos de barras, mapas, tortas, tablas, KPI´s, etc. Buenas prácticas en la creación de visualizaciones efectivas. Práctica: Crear visualizaciones: gráficos de barras, de líneas, de área y tablas. Uso de slicers y filtros visuales. Configuración de interactividad entre visualizaciones. Creación de relaciones entre tablas para análisis cruzado.
  • Medidas, Columnas Calculadas y DAX: ¿Qué es DAX (Data Analysis Expressions)? Diferencias entre columnadas y medidas. Funciones DAX comunes (SUM, AVERAGE, COUNT, IF, CALCULATE). Práctica: Crear columnas calculadas simples. Crear medidas para métricas comunes (suma, promedio, porcentaje de variación). Usar funciones DAX para segmentación y análisis de períodos de tiempo.
  • Publicar y compartir informes: Diferencias entre Power BI Desktop y Power BI Service. Opciones de colaboración y compartido en Power BI. Práctica: Publicar un informe desde Power BI Desktop o Power BI Service. Compartir el informe con otros usuarios. Introducción básica a las áreas de trabajo y las aplicaciones en Power BI Service.
  • Buenas prácticas y optimización de modelos: Buenas prácticas en modelado de datos. Optimización de rendimiento en Power BI. Práctica: Optimizar el modelo de datos (eliminar columnas innecesarias, optimizar relaciones). Uso de agregaciones para mejorar el rendimiento. Revisión de un informe creado para asegurar buenas prácticas. 

Nociones de Machine Learning

Contenidos: fundamentos de IA y ML, modelos supervisados y no supervisados, métricas y ética en datos.

Programa:

  • Introducción a la Inteligencia Artificial y Machine Learning: Qué es la IA, qué es el ML, diferencias. Casos de uso cotidianos: Netflix, Google Maps, spam, chatbots, etc. Tipos de aprendizaje: supervisado, no supervisado y por refuerzo.
  • El ciclo de vida de un proyecto de ML: Entender el problema → recolectar datos → preparar datos → entrenar modelo → evaluar → desplegar. Rol de los datos y la importancia de la limpieza. Herramientas más utilizadas.
  • Fundamentos de los modelos supervisados: Regresión y clasificación con ejemplos cotidianos. ¿Qué es un modelo? ¿Cómo “aprende”? Ejemplos visuales: predicción del precio de una casa, detección de fraude.
  • Métricas para evaluar modelos: Precisión, recall, F1, matriz de confusión.Ejemplos: diagnóstico médico, spam, etc. Importancia del balance entre clases y de las métricas según el problema.
  • Nociones básicas de datos y preprocesamiento: Qué es un dataset, qué son las variables, qué son los features. Valores faltantes, escalado, codificación de variables categóricas. Ejercicio en Excel y Google Colab.
  • Visualización y comprensión de datos: Cómo entender los datos: gráficos, correlaciones, distribuciones. Herramientas prácticas.
  • Algoritmos básicos + aprendizaje no supervisado: Modelos supervisados intuitivos. Árboles de decisión: cómo funcionan y para qué se usan. K-vecinos (k-NN): idea de “proximidad” para clasificar ejemplos nuevos. Ejemplos visuales.
  • Introducción al aprendizaje no supervisado: ¿Qué pasa cuando no tenemos etiquetas? Agrupamiento (clustering): segmentar clientes, detectar patrones ocultos. Algoritmo K-means explicado visualmente. Ejemplo visual: agrupación de productos o personas por características.
  • Ética, sesgos y aplicaciones del ML en la vida real: Por qué los modelos pueden ser injustos o peligrosos. Sesgos en los datos y sus consecuencias. Qué tareas NO debería automatizar un modelo. Ejemplos reales.

Gestión y Curaduría de Datos

Contenidos: limpieza, preparación, análisis exploratorio y datos geoespaciales.

Programa: 

  • Limpieza y Preparación de los Datos: Eliminación de valores atípicos. Manejo de datos faltantes. Consistencia de formatos. Detección y corrección de errores de entrada. Normalización y estandarización de datos. Verificación de consistencia lógica. Eliminación de duplicados. Validación de datos cruzados.
  • Principales Técnicas en Ciencia de Datos: Rol crucial en la comprensión inicial y profunda de los datos. Identificación de patrones, tendencias y relaciones. Facilitación de la toma de decisiones informadas y planificación.
  • Análisis de Datos Geoespaciales: Comprensión y uso de información basada en la ubicación. Mejora de la toma de decisiones y planificación estratégica. Identificación de patrones y desafíos específicos en áreas geográficas.

Herramientas Avanzadas en Ciencia de Datos

Contenidos: machine learning avanzado, PLN, optimización, simulación y análisis de redes sociales.

Programa: 

  • Aprendizaje Automático (Machine Learning): Introducción al Machine Learning. Análisis y predicción de datos de manera automatizada. Extracción de conocimientos e identificación de patrones. Toma de decisiones basadas en datos.
  • Procesamiento del Lenguaje Natural (PLN): Conceptos de PLN. Comprensión y análisis de datos en lenguaje humano. Trabajo automatizado con grandes volúmenes de texto. Mejora de la comunicación y toma de decisiones basadas en texto.
  • Optimización y Simulación: Aplicaciones de Optimización y Simulación. Mejora de procesos y toma de decisiones basadas en datos. Evaluación de escenarios futuros. Búsqueda de soluciones óptimas a problemas complejos.
  • Análisis de Redes Sociales (ARS): Introducción al ARS. Estudio y comprensión de relaciones y conexiones entre actores sociales. Obtención de información valiosa para la toma de decisiones. Mejora de políticas y programas.