TITULO PROPIO DE LA UNIVERSIDAD
Actualmente nos encontramos en la era de la información digital. Esto significa que diariamente se generan cantidades incontables de información. Para poder gestionarla, analizarla y almacenarla se necesitan capacidades y herramientas muy potentes.
La tecnología Big Data juega un papel muy importante en esta era. Es una disciplina que agrupa todas las actividades relacionadas con los sistemas que manipulan grandes conjuntos de datos que es lo que permite a las grandes empresas optimizar la toma de decisiones y obtener resultados de una manera más inteligente.
Debido a ello, y desde hace años, las empresas piden expertos en Big Data en el área Data Science, para que puedan gestionar e implementar sistemas que permitan obtener estos datos, tratarlos y aplicarlos en beneficio de las instituciones.
La profesión del Data Scientist es una de las demandas del futuro y se ha convertido en uno de los perfiles profesionales más solicitados en este momento. Multitud de empresas de todos los sectores buscan especialistas en aplicar los conocimientos adecuados para recopilar, extraer y procesar grandes volúmenes de datos. De este modo, los datos se transforman en insights relevantes que posibilitan la toma de decisiones de negocio.
El Máster en Big Data y Data Science proporciona al alumno una formación integral que le permite diseñar y gestionar proyectos de Big Data y Data Science y a sacar la máxima rentabilidad al tratamiento de datos masivos.
1. Fundamentos básicos y herramientas del Big Data y Data Science
1.1. Big Data y Data Science.
1.2. Arquitectura básica del Big Data.
1.3. Infraestructura y componentes del Big Data: Cloudera, Hadoop, Splunk.
1.4. Almacenaje y gestión de información: Data Lakes, BBDD SQL, BBDD NoSQL, procesamiento escalable: Hadoop, MapReduce, Hive, Spark y Snowflake.
1.5. Computación distribuida con Apache Spark: Spark SQL, Spark Streaming, Spark Mlib.
1.6. Procesamiento batch y streaming; Sqoop, NiFi.
1.7. Servicios cloud: Microsoft Azure, Amazon Web Service, Google Cloud Platform.
1.8. Lenguajes para el Análisis: R y Python.
1.9. Herramientas de Data Discovery: Power BI, Qlik, Tableau, DigDash.
2. Estadística Fundamental
2.1. Conceptos básicos de Estadística.
2.2. Estadística Descriptiva Unidimensional: distribución de frecuencias, métodos gráficos, tablas estadísticas. Medidas de posición, dispersión, forma y concentración. Gráficos.
2.3. Estadística Descriptiva Bidimensional: distribución de frecuencias bidimensionales. Tablas estadísticas de doble entrada. Métodos gráficos.
2.4. Regresión y Correlación: línea general de regresión. Correlación. Regresión no-lineal. Correlación entre atributos. Coeficiente Sperman, Kendall y Chi-cuadrado.
2.5. Cálculo de Probabilidades: azar y probabilidad. Definiciones y propiedades. Probabilidad condicionada e independencia. Teorema de Bayes y probabilidad total.
3. Almacenamiento y Data Science
3.1. ¿Qué es el Data Science?
3.2. El proceso de la ciencia de datos.
3.3. Herramientas de Data Modeling: Vertabello, Toad Data Modeler.
3.4. Bases de datos SQL Vs No SQL: SQLServer, Oracle, MongoDB, ElasticSerach, Cassandra, Redis, CouchDB.
3.5. Data Lakes, DataWareHouse, DataMarts.
3.6. Calidad del dato – Data Quality –
3.7. Monitorización y control. Control de versiones: Git o SVVN. Ventajas e inconvenientes de utilizar GitHub. Alternativas a GitHub.
4. Minería del Dato – Data Mining –
4.1. Evolución del Business Intelligence a la analítica avanzada.
4.2. Estadística aplicada: Análisis de datos en una variable, múltiples variables, discriminante, clúster, distribuciones de Gauss.
4.3. Estrategias de analítica avanzada: analítica descriptiva, predictiva y prescriptiva.
4.4. Metodologías KDD y CRISP: definición y fases.
4.5. El dato, el oro del siglo XXI: Data Management, Data Preparation. Preparación de los datos, Data Discovery, Data Quality.
4.6. Herramientas (Knime, SPSS; SAS, RapidMiner, Weka) y Plataformas (R Studio, Google Colab, Anaconda)
4.7. Programación: Python y R para el análisis de datos.
5. Machine Learning: técnicas avanzadas de predicción
5.1. Inteligencia Artificial y Machine Learning.
5.2. Modelos predictivos: clasificación y regresión.
5.3. Modelos de Aprendizaje Supervisado, no supervisado y por refuerzo.
5.4. Técnicas de predicción: Arboles de decisión, Regresión lineal, regresión logística, clustering, Análisis Bayesano, Random forest, Boosting.
5.5. Técnicas para mejorar un modelo: Optimización de modelos.
6. Deep learning
6.1. Deep learning en la IA.
6.2. Redes neuronales.
6.3. Red Neuronal Perceptrón Multicapa (MLP). Pandas, Numpy, Matplotlib, sciPy, Scikit-learn, Tensorflow-Keras, Pytorch.
6.4. Desarrollo de una Red Neuronal.
6.5. Deep learning en imágenes y vídeos.
7. El futuro de la IA
7.1. Modelos de análisis de sentimientos: computación sobre texto, Redes Sociales, etc.
7.2. Procesamiento del lenguaje natural (NLP) – Natural language procesing. GPT-1, 2 y 3
7.3. Redes neuronales convolucionales (CNN)
7.4. Modelos generativos: GAN – Generative Adversarial Networks.
7.5. Sistemas Cognitivos para análisis de imágenes, reconocimiento de textos y movilidad.
8. Transformación digital
8.1. Proyectando la Transformación Digital: razones y herramientas, gestión del cambio.
8.2. Extendiendo la empresa: la importancia de las Redes Sociales.
8.3. Tecnologías, players y tendencias: ‘Casi Todo as a Service’, Blockchain, IoT, Tecnologías Cloud, etc.
8.4. Metodologías para dirección de proyectos: UCD-UX, Agile y Scrum
8.5. Desarrollo de un proyecto de Transformación Digital: planteamiento, desarrollo y plan de acción.
8.6. Fases de desarrollo de proyectos.
8.7. Ejemplos de casos de uso: éxitos y causas del fracaso.
9. TFM (Trabajo Fin de Máster)
Eva Mª Ezpeleta Antia
Licenciada en Informática por la Universidad de Deusto con más de 30 años de experiencia en el ámbito del Business Intelligence, Analítica, Data Scientist y Big Data. Actualmente responsable de la práctica de Data Analytics en la empresa Getronics gestionado capacidades y diferentes proyectos del ámbito de la analítica avanzada. Alto componente técnico por su dilatada experiencia en múltiples clientes gestionando equipos técnicos y funcionales. Gran experiencia en el diseño y construcción de modelos multidimensionales de BI, Datawarehouse, Data lake, procesos de carga y visualizaciones con las principales heramientas: Microstrategy, Microsoft (SSAS, SSRS, SSIS ), PowerBI, Qlikview, SQLServer, Oracle PL/SQL, PostgreSQL, MySQL, Hadoop, Pig, R, ASP.Net, SAS Visual Analytics y Integration. Y también dentro de la analítica avanzada diseño de modelos predictivos para diferentes sectores.
Itziar Retuerto Armesto
Licenciada en Informática por la Universidad de Deusto con más de 25 de años de experiencia en tecnología Oracle el ámbito de la construcción (Urko-Urbasa), educación (Universidad de Deusto), industrial (Draka Conteq, Vidrala, Pridesa, Arcelor), eléctrico (Iberdrola), de comunicaciones (Eitb) y seguros (Lagun Aro), ha cursado estudios para su especialización en Inteligencia Artificial (master en UCAV y especialización en Python).
Actualmente responsable del mantenimiento del aplicativo de planificación de Arcelor y colabora en el departamento de Analítica de Getronics en distintos proyectos, como el desarrollo de bot’s conversacionales y diseño de modelos predictivos para mantenimiento de motores.
Jesús Alfredo González Morantes
Ingeniero en Informática por la Universidad de Santiago Mariño de Venezuela, con más de 25 años de experiencia en el ámbito del Business Intelligence, Analítica, Data Scientist y Big Data. Con gran experiencia en el diseño y construcción de modelos multidimensionales de BI, Datawarehouse, Data Lake, procesos de carga y visualizaciones con las principales herramientas: Microsoft (SSAS, SSRS, SSIS ), PowerBI, Qlikview, QlikSense, Bussiness Objects, SQL Server, DB2 UDB, Oracle PL/SQL, MySQL, Hadoop, Spark, Sqoop, Python, Json, .Net Visual Basic. Scrum Master con gran experiencia en el manejo de equipos y metodología Agile.
Ramón Colom Rocabert
Consultor senior BI en ETL() y Reporting con más de 20 años de experiencia en análisis de información y soluciones de Business Intelligence. Es perfil muy técnico con alta experiencia en el diseño y construcción de modelos multidimensionales de BI, procesos de carga con PL/SQL, Talend, SAS y SSIS e informes con Microstrategy, Pentaho y PowerBI, principalmente.
Nuestra metodología 100% online se basa en el modelo de Aprendizaje Dinámico Interactivo (A.D.I) que combina:
Campus virtual dinámico y responsive: entorno personal de aprendizaje ilimitado, 24 horas al día, los 7 días a la semana. Facilita el acceso a los alumnos desde cualquier dispositivo: ordenador, tablet o móvil.
Recursos de aprendizaje multiformato: materiales y recursos didácticos actuales, rigurosos y de alta calidad docente. Contenido teórico descargable, material complementario, videotutoriales, masterclass, clases magistrales, tutorías síncronas y grabadas. Pensados para un aprendizaje completo, continuo, ágil y eficaz.
Actividades orientadas a la práctica: el alumno podrá ir comprobando el grado de asimilación de los contenidos teórico-prácticos a lo largo de todas las unidades de trabajo y además deberá resolver actividades y casos en los que tendrá que aplicar los conocimientos y poner en juego las habilidades adquiridas.
Recursos tecnológicos y aplicaciones: necesarios para el aprendizaje y la puesta en práctica de las actividades del curso. El alumno accederá a diferentes plataformas tecnológicas donde dispondrá de las aplicaciones necesarias para practicar y así poder adquirir las competencias necesarias que requiere el máster.
Tutor-Docente: el tutor-docente adquiere un importante rol a lo largo de todo el curso, acompañando al alumnado, explicando los procesos, los errores más comunes, ofreciendo los recursos necesarios, etc. El equipo está constituido por profesionales en activo que conocen bien la demanda y el mercado laboral, por tanto, aportarán una formación muy práctica orientada a la actividad profesional.
Coordinador de aula: apoya al alumnado y le orienta en aspectos como el uso del aula y la metodología.
Sistema de evaluación continua: aprendizaje progresivo para que el alumno no dependa solamente de un examen final. Se valora la dedicación diaria del alumno, el cuál recibe feedback a lo largo de todo el máster.
Foros y Comunidad: espacios de comunicación activa que favorecen la participación e interacción entre todos los participantes. El grupo motiva al individuo, le ayuda a superarse, a ser constante y a no dejarse llevar por la desmotivación.
El Máster está enfocado a aquellas personas que quieran adquirir o fortalecer las capacidades técnicas y analíticas necesarias para una carrera de éxito en Big Data, Data Science y Analítica.
Dirigido a profesionales con base tecnológica que quieran desarrollar una carrera en la industria de la analítica y el Big Data ayudando a los departamentos cuantitativos o analíticos en la toma de decisiones de negocio.
Para poder acceder al Máster se valorará conocimientos y experiencia en al menos 1 lenguaje de programación y haber programado en al menos 1 entorno de desarrollo
*Preferiblemente conocimientos de programación en Python y/o R
Para puestos de Data Scientist, Analista de Datos, Data Engineer y Business Intelligence las empresas e instituciones buscan profesionales dinámicos que combinen conocimientos de empresa, manejen tecnologías Big Data y posean avanzadas aptitudes de análisis. Solo un perfil de estas características puede identificar, recoger, analizar, interpretar y transformar los datos en información relevante.
Algunas salidas profesionales de este máster son: Ingeniero de Datos, Data Engineer, Arquitecto de Datos, Data Architect, Científico de Datos, Data Scientist, CDO, Chief Data Officer, Analista de Datos o Consultor de Business Intelligence.
Además, y para facilitarte aún más la inserción laboral, hemos firmado un acuerdo con la multinacional Getronics, a través del cual tendrás la posibilidad de realizar 3 meses de prácticas vinculadas a proyectos reales y que podrás llevas a cabo tanto de forma presencial (en alguna de las sedes que tienen en todo el mundo) como a distancia (si por tu situación geográfica u otro motivo no te es posible hacerlas presencialmente).
Además de estas prácticas, una vez terminado el máster de forma exitosa, Getronics te ofrece:
– Introducción a su propia Bolsa de Empleo en proyectos nacionales o internacionales (media de contratación posterior a las prácticas superior al 70%)
– Programa de evolución de carrera.
Y, en cuanto a la titulación, al finalizar el máster con éxito, el alumno conseguirá una doble titulación.
Cursar un programa de posgrado es una de las mejores inversiones de cara al futuro profesional y personal.
En Naxer no queremos que el pago de la matrícula sea un obstáculo y por ello disponemos de un importante programa a través del cual se concede y gestiona más de 100.000 euros en becas y un programa de financiación, para que puedas hacer los pagos en cómodos plazos.
Solicita información pinchando en el botón “Más información” y uno de nuestros asesores de formación te dará toda la información de becas disponibles en este momento.
Centro
Colaborador de:
C/ Villahermosa 1, Planta 1
22001 Huesca