Skip to content
Tecnosaber Logo 2022

Curso Experto Data Science, Big Data y Data Analytics

Curso Experto Data Science, Big Data y Data Analytics

Modalidad – Online con clases en Directo

Prácticas en Empresas– Garantizadas en empresas tecnológicas

Precio 2.636 €

Descuentos y Becas disponibles.

Bolsa de Empleo Incluida

Acceso a bolsa de empleo y a taller de búsqueda de empleo impartido por expertos de recursos humanos especializados en contratación de perfiles tecnológicos.

Presentación

¡Impulsa tu carrera con nuestro curso de Data Science, Big Data y Data Analytics! Disfruta de clases online en directo, prácticas en empresas líderes y adéntrate en las últimas tecnologías del mercado. Aprovecha la gran demanda de especialistas y abre las puertas a innumerables oportunidades laborales. ¡Inscríbete ahora y transforma tu futuro!

Salidas Laborales

  • Científico de Datos
  • Analista de Datos
  • Especialista Ingeniero de Datos
  • Especialista en Machine Learning

Ademas , gracias nuestra formación en Python podrás optar a más empleos

  • Seguridad Informática
  • Desarrollador de Software
  • Desarrollor Web

Titulaciones que conseguirás-

6 Titulaciones incluidas. Diferencia tu perfil del resto.

Cuando finalices tendrás las siguientes titulaciones: 

  • Máster en Data Science, Big Data y Data Analytics
  • Iniciación a GNU
  • Linux Curso avanzado de Desarrollo en Python 
  • Curso avanzado de Análisis de datos y visualización con Python 
  • Curso avanzado en Big Data 
  • Iniciación al Machine Learning

¿Qué hace único a nuestro programa?

Clases en directo con expertos basadas en proyectos, con creación de piezas y aplicaciones en directo creando diferentes programas utilizando las diferentes tecnologías integrándolas en casos reales.

Cada tecnología y sus diferentes partes se aprenden en un contexto real en la creación de un proyecto. Implementando cada una de ellas y realizando demostraciones de uso.

  • Garantía de Prácticas Profesionales: Al finalizar nuestro programa, aquellos estudiantes que lo deseen tendrán la oportunidad de realizar prácticas profesionales. Grupo Atrium se compromete a encontrar una empresa adecuada donde puedan aplicar lo aprendido, facilitando así su entrada al mundo laboral.
  • Soporte  en Discord- Un experto estará disponible exclusivamente en Discord para resolver tus dudas en tiempo real. Este apoyo es extendido a la realización de ejercicios y a la clarificación de conceptos discutidos en clase.
  • Enfoque 100% Práctico: Adoptamos la filosofía «Learning by doing» a lo largo de nuestro programa. Aquí, no encontrarás exámenes teóricos; tu evaluación se basará en la realización de ejercicios prácticos avanzados, diseñados para emular los desafíos que encontrarías en el ámbito laboral real.
  • Desafíos Basados en Datos Reales: Se presentarán a los estudiantes desafíos estimulantes basados en situaciones reales, cuya superación es requisito para la aprobación. 

¿Qué aprenderás?

    • Python para Data Science
    • GNU/Linux
    • Data Analytics
    • Big Data
  • Iniciación al Machine Learning

Al acabar serás capaz de: 

  • Tener las bases necesarias del lenguaje de programación Python, así como dominar las buenas prácticas de programación. Saber manejar entornos de desarrollo integrados (IDEs) para su posterior aplicación en la creación de programas informáticos.
  • Conocer los fundamentos de administración de sistemas GNU/Linux y puesta en producción de ecosistemas Big Data distribuidos en estos sistemas.
  • Utilizar Python para preprocesar, tratar y analizar datos, creando reportes con detallados análisis exploratorios de datos (EDA) y llamativas visualizaciones.
  • Conocer funcionamiento y uso de las Bases de Datos NoSQL como MongoDB.
  • Conocer las formas de procesamiento/almacenamiento de datos a gran escala. Ecosistema Hadoop (HDFS/YARN) y Spark.
  • Aprender a desarrollar sistemas de procesamiento y análisis distribuido de datos mediante PySpark.
  • Conocer los fundamentos del Machine Learning.

Temario

1) Módulo 1: Introducción a los sistemas Informáticos y tecnologías Big Data (6 sesiones)

– Principales componentes de un sistema informático. Sistemas Operativos, para que sirven, que tipos hay y cómo funcionan…

– Introducción a GNU/Linux

– GNU/Linux Avanzado

– Como usar GNU/Linux en Cloud (AWS)

– Introducción teórica a las tecnologías Big Data: Bases de Datos SQL/No SQL, Computación distribuida, Cloud…

2) Módulo 2: Fundamentos de Programación en Python (12 sesiones)

– Introducción a los lenguajes de programación

– Python: Sentencias Básicas y Bloques Lógicos

– Python: Funciones y Scope

– Python: Clases y Objetos y Tratamiento de Excepciones

– Python: Módulos y Uso de librerías de Python

3) Módulo 3: Análisis de Datos con Python (5 sesiones)

– Python: Librerías básicas de Data Science: Pandas, Numpy, Matplotlib, Sklearn…

– Introducción teórica al análisis exploratorio de Datos

– Python: Ejemplificación del análisis exploratorio de datos mediate Datasets reales

4) Módulo 4: Introducción al Machine Learning (2 sesiones)

– Desambiguación de términos: ¿Machine Learning? ¿Deep Learning? ¿Data Science? ¿Big Data? Machine Learning: Aprendizaje supervisado (regresión/clasificación), no supervisado y por refuerzo. 

– Nuestros primeros pasos con el Machine Learning: Regresión Lineal y Regresión Logística. Ejemplos con datos reales en Python.

4.1) Módulo 4.1: Introducción a la IA Generativa (3 sesiones)

– ¿Como aprovechar los recientes avances en IA generativa? Panorama actual de tecnologías más relevantes por campo:

  • Texto: ChatGPT, Bard, LLaMA…
  • Imagen: Dalle, Midjourney, Stable Diffusion…

– ¿Qué es el Prompt Engineering? ¿Es quizás una de las profesiones del futuro¿ 

– Usando la API de Open AI para crear nuestros primeros chatbots basados en ChatGPT.

5) Módulo 5: Bases de Datos Big Data (5 sesiones)

– Introducción a las Bases de datos SQL

– Programación en Python con SQLite

– Bases de datos NoSQL: Clave-Valor, Columnares, Documentales y de Grafos

– Bases de Datos NoSQL Documentales: MongoDB (PyMongo)

6) Módulo 6: Procesamiento Distribuido (4 sesiones)

– Funcionamiento de un sistema Big Data de Procesamiento Distribuido: Ingestión, Almacenamiento, Gestión de Recursos, Cálculo Distribuido…

– Hadoop

– Introducción a Spark: pySpark y DataFrame API

– Machine Learning con Spark ML

– PySpark Pandas

7) Módulo 7: TFM (Opcional) (2 meses)

– El alumno presentará una propuesta de proyecto de en el que se utilicen tecnologías Big Data y lenguaje de Python para resolver un caso de negocio al docente.

Herramientas y librerías que aprenderás. 

  • Python
  • Linux
  • Jupyter Lab
  • Pycharm
  • AWS
  • Spark (PySpark, Spark MLlib, PySpak Pandas)
  • Hadoop (HDFS, YARN)
  • Mongo DB
  • NumPy
  • Pandas
  • Matplotlib
  • Sklearn
  • ChatGPT
  • DALL·E 3
  • OpenAI API
  • Chatbots
Consentimiento de Cookies con Real Cookie Banner