• Duración

      165 horas

Próximas convocatorias

Próximamente

Inscripción recibida.

Error, vuelva a intentarlo.

Enviando inscripción

Arquitectura big data (IFCT127PO)

Sectores

Intersectorial; Servicios a las empresas; Telecomunicaciones

Áreas

Marketing digital; Programación; Redes y sistemas

Dirigido a

Autónomos; Desempleados; Economia Social; Empleados

Disponible en las siguientes provincias

Albacete, Alicante, Almería, Araba/Álava, Asturias, Ávila, Badajoz, Barcelona, Burgos, Cáceres, Cádiz, Cantabria, Castellón, Ceuta, Ciudad Real, Córdoba, Cuenca, Girona, Granada, Guadalajara, Huelva, Huesca, Illes Balears, Jaén, La Rioja, Las Palmas, León, Lleida, Lugo, Madrid, Málaga, Melilla, Murcia, Navarra, Ourense, Palencia, Pontevedra, Salamanca, Santa Cruz, Segovia, Sevilla, Soria, Tarragona, Teruel, Toledo, Valencia, Valladolid, Zamora, Zaragoza

Objetivos

Conocer en profundidad los diferentes paradigmas de procesamiento en sistemas Big Data y dominar las principales tecnologías y su utilización para el diseño de arquitecturas escalables adaptadas a cada proyecto.

Contenidos

1. Batch processing.
1.1. Hadoop.
1.2. Pig.
1.3. Hive.
1.4. Sqoop.
1.5. Flume.
1.6. Spark Core.
1.7. Spark 2.0.

2. Streaming processing.
2.1. Fundamentos de Streaming Processing.
2.2. Spark Streaming.
2.3. Kafka.
2.4. Pulsar y Apache Apex.
2.5. Implementación de un sistema real-time.

3. Sistemas NOSQL.
3.1. Hbase.
3.2. Cassandra.
3.3. MongoDB.
3.4. Neo4J.
3.5. Redis.
3.6. Berkeley DB.

4. Interactive query.
4.1. Lucene + Solr.

5. Sistemas de computación híbridos.
5.1. Arquitectura Lambda.
5.2. Arquitectura Kappa.
5.3. Apache Flink e implementaciones prácticas.
5.4. Druid.
5.5. ElasticSearch.
5.6. Logstash.
5.7. Kibana.

6. Cloud computing.
6.1. Amazon Web Services.
6.2. Google Cloud Platform.

7. Administración de sistemas big.
7.1. Administración e Instalación de clusters: Cloudera y Hortonworks.
7.2. Optimización y monitorización de servicios.
7.3. Seguridad: Apache Knox, Ranger y Sentry.

8. Visualización de datos.
8.1. Herramientas de visualización: Tableau y CartoDB.
8.2. Librerías de Visualización: D3, Leaflet, Cytoscape.

Requisitos para Programación:
Intersectorial

Objetivos:

Conocer en profundidad los diferentes paradigmas de procesamiento en sistemas Big Data y dominar las principales tecnologías y su utilización para el diseño de arquitecturas escalables adaptadas a cada proyecto.

Contenidos:

  1. Batch processing.

1.1. Hadoop.

1.2. Pig.

1.3. Hive.

1.4. Sqoop.

1.5. Flume.

1.6. Spark Core.

1.7. Spark 2.0.

  1. Streaming processing.

2.1. Fundamentos de Streaming Processing.

2.2. Spark Streaming.

2.3. Kafka.

2.4. Pulsar y Apache Apex.

2.5. Implementación de un sistema real-time.

  1. Sistemas NOSQL.

3.1. Hbase.

3.2. Cassandra.

3.3. MongoDB.

3.4. Neo4J.

3.5. Redis.

3.6. Berkeley DB.

  1. Interactive query.

4.1. Lucene + Solr.

  1. Sistemas de computación híbridos.

5.1. Arquitectura Lambda.

5.2. Arquitectura Kappa.

5.3. Apache Flink e implementaciones prácticas.

5.4. Druid.

5.5. ElasticSearch.

5.6. Logstash.

5.7. Kibana.

  1. Cloud computing.

6.1. Amazon Web Services.

6.2. Google Cloud Platform.

  1. Administración de sistemas big.

7.1. Administración e Instalación de clusters: Cloudera y Hortonworks.

7.2. Optimización y monitorización de servicios.

7.3. Seguridad: Apache Knox, Ranger y Sentry.

  1. Visualización de datos.

8.1. Herramientas de visualización: Tableau y CartoDB.

8.2. Librerías de Visualización: D3, Leaflet, Cytoscape.

Requisitos para Marketing digital:
Intersectorial

Objetivos:

Conocer en profundidad los diferentes paradigmas de procesamiento en sistemas Big Data y dominar las principales tecnologías y su utilización para el diseño de arquitecturas escalables adaptadas a cada proyecto.

Contenidos:

  1. Batch processing.

1.1. Hadoop.

1.2. Pig.

1.3. Hive.

1.4. Sqoop.

1.5. Flume.

1.6. Spark Core.

1.7. Spark 2.0.

  1. Streaming processing.

2.1. Fundamentos de Streaming Processing.

2.2. Spark Streaming.

2.3. Kafka.

2.4. Pulsar y Apache Apex.

2.5. Implementación de un sistema real-time.

  1. Sistemas NOSQL.

3.1. Hbase.

3.2. Cassandra.

3.3. MongoDB.

3.4. Neo4J.

3.5. Redis.

3.6. Berkeley DB.

  1. Interactive query.

4.1. Lucene + Solr.

  1. Sistemas de computación híbridos.

5.1. Arquitectura Lambda.

5.2. Arquitectura Kappa.

5.3. Apache Flink e implementaciones prácticas.

5.4. Druid.

5.5. ElasticSearch.

5.6. Logstash.

5.7. Kibana.

  1. Cloud computing.

6.1. Amazon Web Services.

6.2. Google Cloud Platform.

  1. Administración de sistemas big.

7.1. Administración e Instalación de clusters: Cloudera y Hortonworks.

7.2. Optimización y monitorización de servicios.

7.3. Seguridad: Apache Knox, Ranger y Sentry.

  1. Visualización de datos.

8.1. Herramientas de visualización: Tableau y CartoDB.

8.2. Librerías de Visualización: D3, Leaflet, Cytoscape.

Requisitos para Redes y sistemas:
Telecomunicaciones

Objetivos:

Conocer en profundidad los diferentes paradigmas de procesamiento en sistemas Big Data y dominar las principales tecnologías y su utilización para el diseño de arquitecturas escalables adaptadas a cada proyecto.

Contenidos:

  1. Batch processing.

1.1. Hadoop.

1.2. Pig.

1.3. Hive.

1.4. Sqoop.

1.5. Flume.

1.6. Spark Core.

1.7. Spark 2.0.

  1. Streaming processing.

2.1. Fundamentos de Streaming Processing.

2.2. Spark Streaming.

2.3. Kafka.

2.4. Pulsar y Apache Apex.

2.5. Implementación de un sistema real-time.

  1. Sistemas NOSQL.

3.1. Hbase.

3.2. Cassandra.

3.3. MongoDB.

3.4. Neo4J.

3.5. Redis.

3.6. Berkeley DB.

  1. Interactive query.

4.1. Lucene + Solr.

  1. Sistemas de computación híbridos.

5.1. Arquitectura Lambda.

5.2. Arquitectura Kappa.

5.3. Apache Flink e implementaciones prácticas.

5.4. Druid.

5.5. ElasticSearch.

5.6. Logstash.

5.7. Kibana.

  1. Cloud computing.

6.1. Amazon Web Services.

6.2. Google Cloud Platform.

  1. Administración de sistemas big.

7.1. Administración e Instalación de clusters: Cloudera y Hortonworks.

7.2. Optimización y monitorización de servicios.

7.3. Seguridad: Apache Knox, Ranger y Sentry.

  1. Visualización de datos.

8.1. Herramientas de visualización: Tableau y CartoDB.

8.2. Librerías de Visualización: D3, Leaflet, Cytoscape.

Requisitos para Redes y sistemas:
Servicios a las empresas

Estar empleado en alguno de los sectores que se enumeran, dentro de las actividades del sector de Servicios a las empresas:

107 Contact Center

118 De los servicios de prevención ajenos

12 Empresas de consultoría y estudios de mercados y opinión pública

51 Empresas de ingeniería y oficinas de estudios técnicos

55 Empresas de trabajo temporal

710 Investigación y desarrollo

715 Gestión de la información y de la comunicación

Se reserva un % máximo de plazas destinadas para desempleados sujetas a disponibilidad en cada grupo.

Requisitos específicos:

No existen requisitos específicos para la participación en esta acción formativa, salvo que se deberá aportar la siguiente documentación una vez te matricules: copia NIF justificante de situación laboral (cabecera nómina, recibo autónomo o vida laboral), entre otros, a través del enlace que recibirás en tu Pc o Smartphone.