Cursos de Hadoop

Hadoop Training

Capacitación en Apache Hadoop - una implementación de código abierto de dos soluciones Google BigData: GFS (Google File System) y el paradigma de programación MapReduce.
Es un marco completo destinado a almacenar y procesar grandes conjuntos de datos. Hadoop es utilizado por la mayoría de los proveedore del servicio de nube global como Yahoo, Facebook o LinkedIn.

Testimonios de los Clientes

Subcategorías

Programas de los Cursos de Hadoop

Código Nombre Duración Información General
IntroToAvro Apache Avro: Serialización de Datos para Aplicaciones Distribuidas 14 horas Este curso es para Desarrolladores Formato del curso Conferencias, práctica práctica, pequeñas pruebas en el camino para medir la comprensión
apachedrill Apache Drill for On-the-Fly Analysis of Multiple Big Data Formats 21 horas Apache Drill is a schema-free, distributed, in-memory columnar SQL query engine for Hadoop, NoSQL and and other Cloud and file storage systems. Apache Drill's power lies in its ability to join data from multiple data stores using a single query. Apache Drill supports numerous NoSQL databases and file systems, including HBase, MongoDB, MapR-DB, HDFS, MapR-FS, Amazon S3, Azure Blob Storage, Google Cloud Storage, Swift, NAS and local files. In this instructor-led, live training, participants will learn the fundamentals of Apache Drill, then leverage the power and convenience of SQL to interactively query big data without writing code. Participants will also learn how to optimize their Drill queries for distributed SQL execution. By the end of this training, participants will be able to: Perform "self-service" exploration on structured and semi-structured data on Hadoop Query known as well as unknown data using SQL queries Understand how Apache Drills receives and executes queries Write SQL queries to analyze different types of data, including structured data in Hive, semi-structured data in HBase or MapR-DB tables, and data saved in files such as Parquet and JSON. Use Apache Drill to perform on-the-fly schema discovery, bypassing the need for complex ETL and schema operations Integrate Apache Drill with BI (Business Intelligence) tools such as Tableau, Qlikview, MicroStrategy and Excel Audience Data analysts Data scientists SQL programmers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
HadoopDevAd Hadoop para Desarrolladores y Administradores 21 horas Hadoop is the most popular Big Data processing framework.
BigData_ Una introducción práctica al análisis de datos y Big Data 35 horas Los participantes que completen esta capacitación obtendrán una comprensión práctica y real de Big Data y sus tecnologías, metodologías y herramientas relacionadas. Los participantes tendrán la oportunidad de poner este conocimiento en práctica a través de ejercicios prácticos. La interacción grupal y la retroalimentación del instructor conforman un componente importante de la clase. El curso comienza con una introducción a los conceptos elementales de Big Data, luego avanza hacia los lenguajes de programación y las metodologías utilizadas para realizar el Análisis de datos. Finalmente, discutimos las herramientas y la infraestructura que permiten el almacenamiento de Big Data, el procesamiento distribuido y la escalabilidad. Audiencia Desarrolladores / programadores Consultores de TI Formato del curso Conferencia de parte, discusión en parte, práctica práctica e implementación, quicing ocasional para medir el progreso.
bigddbsysfun Big Data & Fundamentos de Sistemas de Bases de Datos 14 horas El curso forma parte del conjunto de habilidades de Data Scientist (Dominio: Datos y Tecnología).
nifi Apache NiFi para administradores 21 horas Apache NiFi (Hortonworks DataFlow) es una plataforma de procesamiento de eventos y logística de datos integrada en tiempo real que permite mover, rastrear y automatizar los datos entre los sistemas. Está escrito usando programación basada en flujo y proporciona una interfaz de usuario basada en web para administrar flujos de datos en tiempo real. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a implementar y administrar Apache NiFi en un entorno de laboratorio en vivo. Al final de esta capacitación, los participantes podrán: Instalar y configurar Apachi NiFi Fuente, transformar y gestionar datos de fuentes de datos dispersas y distribuidas, incluidas bases de datos y lagos de datos grandes. Automatice los flujos de datos Habilitar análisis de transmisión Aplicar varios enfoques para la ingestión de datos Transformar Big Data y en conocimientos empresariales Audiencia Administradores del sistema Ingenieros de datos Desarrolladores DevOps Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
hadooppython Hadoop with Python 28 horas Hadoop is a popular Big Data processing framework. Python is a high-level programming language famous for its clear syntax and code readibility. In this instructor-led, live training, participants will learn how to work with Hadoop, MapReduce, Pig, and Spark using Python as they step through multiple examples and use cases. By the end of this training, participants will be able to: Understand the basic concepts behind Hadoop, MapReduce, Pig, and Spark Use Python with Hadoop Distributed File System (HDFS), MapReduce, Pig, and Spark Use Snakebite to programmatically access HDFS within Python Use mrjob to write MapReduce jobs in Python Write Spark programs with Python Extend the functionality of pig using Python UDFs Manage MapReduce jobs and Pig scripts using Luigi Audience Developers IT Professionals Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
hivehiveql Análisis de Datos con Hive / HiveQL 7 horas Este curso cubre cómo usar el lenguaje Hive SQL (AKA: Hive HQL, SQL en Hive, HiveQL) para personas que extraen datos de Hive
nifidev Apache NiFi para desarrolladores 7 horas Apache NiFi (Hortonworks DataFlow) es una plataforma de procesamiento de eventos y logística de datos integrada en tiempo real que permite mover, rastrear y automatizar los datos entre los sistemas. Está escrito usando programación basada en flujo y proporciona una interfaz de usuario basada en web para administrar flujos de datos en tiempo real. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los fundamentos de la programación basada en flujo a medida que desarrollan una cantidad de extensiones de demostración, componentes y procesadores que usan Apache NiFi. Al final de esta capacitación, los participantes podrán: Comprender los conceptos de arquitectura y flujo de datos de NiFi Desarrollar extensiones utilizando NiFi y API de terceros Desarrolla a medida su propio procesador Apache Nifi Ingerir y procesar datos en tiempo real de formatos de archivo dispares y poco comunes y fuentes de datos Audiencia Desarrolladores Ingenieros de datos Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica  
graphcomputing Introduction to Graph Computing 28 horas A large number of real world problems can be described in terms of graphs. For example, the Web graph, the social network graph, the train network graph and the language graph. These graphs tend to be extremely large; processing them requires a specialized set of tools and mindset referred to as graph computing. In this instructor-led, live training, participants will learn about the various technology offerings and implementations for processing graph data. The aim is to identify real-world objects, their characteristics and relationships, then model these relationships and process them as data using graph computing approaches. We start with a broad overview and narrow in on specific tools as we step through a series of case studies, hands-on exercises and live deployments. By the end of this training, participants will be able to: Understand how graph data is persisted and traversed Select the best framework for a given task (from graph databases to batch processing frameworks) Implement Hadoop, Spark, GraphX and Pregel to carry out graph computing across many machines in parallel View real-world big data problems in terms of graphs, processes and traversals Audience Developers Format of the course Part lecture, part discussion, exercises and heavy hands-on practice
hbasedev HBase para Desarrolladores 21 horas Este curso introduce HBase - un almacén NoSQL en la parte superior de Hadoop. El curso está dirigido a desarrolladores que usarán HBase para desarrollar aplicaciones y administradores que administrarán los clústeres de HBase. Vamos a recorrer un desarrollador a través de la arquitectura de HBase y modelado de datos y desarrollo de aplicaciones en HBase. También discutirá el uso de MapReduce con HBase y algunos temas de administración relacionados con la optimización del rendimiento. El curso es muy práctico con muchos ejercicios de laboratorio.
datameer Datameer para Analistas de Datos 14 horas Datameer es una plataforma de inteligencia de negocios y análisis construida en Hadoop. Permite a los usuarios finales acceder, explorar y correlacionar datos a gran escala, estructurados, semiestructurados y no estructurados de una manera fácil de usar. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Datameer para superar la pronunciada curva de aprendizaje de Hadoop a medida que avanzan en la configuración y el análisis de una serie de grandes fuentes de datos. Al final de esta capacitación, los participantes podrán: Crea, selecciona e interactivamente explora un lago de datos empresariales Acceda a almacenes de datos de inteligencia empresarial, bases de datos transaccionales y otras tiendas analíticas Use una interfaz de usuario de hoja de cálculo para diseñar las tuberías de procesamiento de datos de extremo a extremo Acceda a funciones preconstruidas para explorar relaciones de datos complejas Utilice asistentes de arrastrar y soltar para visualizar datos y crear paneles Use tablas, cuadros, gráficos y mapas para analizar los resultados de las consultas Audiencia Analistas de datos Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
hadoopadm1 Hadoop para Administradores 21 horas Apache Hadoop es el marco más popular para procesar Big Data en clústeres de servidores. En este curso de tres (opcionalmente, cuatro) días, los asistentes aprenderán sobre los beneficios empresariales y los casos de uso de Hadoop y su ecosistema, cómo planificar el despliegue y crecimiento del clúster, cómo instalar, mantener, monitorear, solucionar y optimizar Hadoop. También practicarán la carga de datos a granel del clúster, se familiarizarán con varias distribuciones de Hadoop y practicarán la instalación y administración de herramientas del ecosistema de Hadoop. El curso finaliza con la discusión sobre la seguridad del clúster con Kerberos. "... Los materiales estaban muy bien preparados y cubiertos a fondo. El laboratorio fue muy servicial y bien organizado " - Andrew Nguyen, Ingeniero Principal de Integración DW, Microsoft Online Advertising Audiencia Administradores de Hadoop Formato Conferencias y laboratorios prácticos, balance aproximado 60% conferencias, 40% laboratorios.
tigon Tigon: Transmisión en Tiempo Real para el Mundo Real 14 horas Tigon es un marco de procesamiento de flujo de fuente abierta, en tiempo real, de baja latencia y alto rendimiento, nativo, que se asienta sobre HDFS y HBase para la persistencia. Las aplicaciones de Tigon abordan casos de uso tales como detección y análisis de intrusiones de red, análisis de mercado de redes sociales, análisis de ubicación y recomendaciones en tiempo real para los usuarios. Este curso presencial, dirigido por un instructor, presenta el enfoque de Tigon para combinar el procesamiento en tiempo real y por lotes a medida que guía a los participantes a través de la creación de una aplicación de muestra. Al final de esta capacitación, los participantes podrán: Cree aplicaciones potentes de procesamiento de flujo para manejar grandes volúmenes de datos Fuentes de flujo de procesos como Twitter y registros de servidor web Utilice Tigon para unir, filtrar y agregar secuencias rápidamente Audiencia Desarrolladores Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica  
hadoopba Hadoop para Analistas de Negocios 21 horas Apache Hadoop es el marco más popular para el procesamiento de Big Data. Hadoop proporciona una capacidad analítica rica y profunda, y está haciendo in-roads en el mundo analítico de BI tradicional. Este curso presentará a un analista a los componentes principales del sistema Hadoop eco y sus análisis Audiencia Analistas de Negocios Duración tres días Formato Conferencias y manos sobre laboratorios.
alluxio Alluxio: Unificando Sistemas de Almacenamiento Dispares 7 horas Alexio es un sistema de almacenamiento distribuido virtual de código abierto que unifica sistemas de almacenamiento dispares y permite que las aplicaciones interactúen con datos a la velocidad de la memoria. Es utilizado por compañías como Intel, Baidu y Alibaba. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Alexio para unir diferentes marcos de computación con sistemas de almacenamiento y administrar de manera eficiente los datos de escala de varios petabytes mientras avanzan en la creación de una aplicación con Alluxio. Al final de esta capacitación, los participantes podrán: Desarrolle una aplicación con Alluxio Conecte aplicaciones y sistemas de big data mientras conserva un espacio de nombres Extrae de manera eficiente el valor de los grandes datos en cualquier formato de almacenamiento Mejorar el rendimiento de la carga de trabajo Implemente y administre Alluxio de forma independiente o en clúster Audiencia Científico de datos Desarrollador Administrador de sistema Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
hadoopdev Hadoop para Desarrolladores (4 días) 28 horas Apache Hadoop es el marco más popular para procesar Big Data en clústeres de servidores. Este curso presentará un desarrollador a varios componentes (HDFS, MapReduce, Pig, Hive y HBase) Hadoop ecosistema.
hdp Hortonworks Data Platform (HDP) para Administradores 21 horas Hortonworks Data Platform es una plataforma de soporte de Apache Hadoop de código abierto que proporciona una base estable para el desarrollo de soluciones de big data en el ecosistema de Apache Hadoop. Esta capacitación en vivo dirigida por un instructor presenta a Hortonworks y guía a los participantes a través del despliegue de la solución Spark + Hadoop. Al final de esta capacitación, los participantes podrán: Use Hortonworks para ejecutar confiablemente Hadoop a gran escala Unifique las capacidades de seguridad, gobierno y operaciones de Hadoop con los flujos de trabajo analíticos ágiles de Spark. Use Hortonworks para investigar, validar, certificar y dar soporte a cada uno de los componentes en un proyecto Spark Procese diferentes tipos de datos, incluidos estructurados, no estructurados, en movimiento y en reposo. Audiencia Administradores de Hadoop Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica  
hadoopdeva Hadoop Avanzado para Desarrolladores 21 horas Apache Hadoop es uno de los frameworks más populares para procesar Big Data en clusters de servidores. Este curso profundiza en el manejo de datos en HDFS, Pig, Hive y HBase. Estas técnicas avanzadas de programación serán beneficiosas para los desarrolladores experimentados de Hadoop. Audiencia: desarrolladores Duración: tres días Formato: conferencias (50%) y laboratorios prácticos (50%).
kylin Apache Kylin: Del clásico OLAP al almacén de datos en tiempo real 14 horas Apache Kylin es un motor de análisis extremo y distribuido para Big Data. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Apache Kylin para configurar un depósito de datos en tiempo real. Al final de esta capacitación, los participantes podrán: Consume datos de transmisión en tiempo real usando Kylin Utilice las potentes funciones de Apache Kylin, incluido el soporte del esquema de copos de nieve, una rica interfaz de SQL, cubicación de chispa y latencia de consulta de segundo plano Nota Usamos la última versión de Kylin (al momento de escribir esto, Apache Kylin v2.0) Audiencia Grandes ingenieros de datos Analistas de Big Data Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
hadoopadm Administración de Hadoop 21 horas El curso está dedicado a especialistas en TI que buscan una solución para almacenar y procesar grandes conjuntos de datos en entornos de sistemas distribuidos Objetivo del curso: Obtención de conocimientos sobre la administración de clúster de Hadoop
ambari Apache Ambari: Administre de manera eficiente los clústeres de Hadoop 21 horas Apache Ambari es una plataforma de administración de código abierto para el aprovisionamiento, la administración, el monitoreo y la seguridad de los clústeres de Apache Hadoop. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán las herramientas y prácticas de administración proporcionadas por Ambari para administrar con éxito los clústeres de Hadoop. Al final de esta capacitación, los participantes podrán: Configure un clúster de Big Data en tiempo real usando Ambari Aplicar las características y funcionalidades avanzadas de Ambari a varios casos de uso Agregue y elimine nodos sin problemas según sea necesario Mejore el rendimiento de un clúster de Hadoop a través de ajustes y ajustes Audiencia DevOps Administradores del sistema DBAs Profesionales de prueba de Hadoop Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
apacheh Capacitación de Administrador para Apache Hadoop 35 horas Audiencia: El curso está dirigido a especialistas en TI que buscan una solución para almacenar y procesar grandes conjuntos de datos en un entorno de sistema distribuido Gol: Conocimiento profundo sobre administración de clúster de Hadoop.
storm Curso de Apache Storm 28 horas Apache Storm es un motor de computación distribuido en tiempo real que se utiliza para habilitar la inteligencia empresarial en tiempo real. Lo hace al permitir que las aplicaciones procesen de forma confiable flujos de datos ilimitados (a.k.a. procesamiento de flujo). "Storm es para procesar en tiempo real lo que Hadoop es para el procesamiento por lotes". En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo instalar y configurar Apache Storm, luego desarrollarán e implementarán una aplicación Apache Storm para procesar Big Data en tiempo real. Algunos de los temas incluidos en esta capacitación incluyen: Apache Storm en el contexto de Hadoop Trabajando con datos ilimitados Cálculo continuo Análisis en tiempo real Procesamiento distribuido de RPC y ETL ¡Solicite este curso ahora! Audiencia Desarrolladores de software y ETL Profesionales de mainframe Científicos de datos Analistas de Big Data Profesionales de Hadoop Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
68736 Hadoop for Developers (2 days) 14 horas
hadoopforprojectmgrs Hadoop para jefes de proyecto 14 horas A medida que más y más proyectos de software y TI migran de procesamiento local y administración de datos a procesamiento distribuido y almacenamiento de big data, los Gerentes de Proyecto encuentran la necesidad de actualizar sus conocimientos y habilidades para comprender los conceptos y prácticas relevantes para proyectos y oportunidades de Big Data. Este curso presenta a los Project Managers al marco de procesamiento de Big Data más popular: Hadoop. En esta capacitación dirigida por un instructor, los participantes aprenderán los componentes principales del ecosistema de Hadoop y cómo estas tecnologías pueden usarse para resolver problemas a gran escala. Al aprender estas bases, los participantes también mejorarán su capacidad de comunicarse con los desarrolladores e implementadores de estos sistemas, así como con los científicos y analistas de datos que involucran muchos proyectos de TI. Audiencia Project Managers que desean implementar Hadoop en su infraestructura de TI o desarrollo existente Los gerentes de proyectos necesitan comunicarse con equipos multifuncionales que incluyen grandes ingenieros de datos, científicos de datos y analistas de negocios Formato del curso Conferencia de parte, discusión en parte, ejercicios y práctica práctica
hadoopmapr Administración de Hadoop en MapR 28 horas Audiencia: Este curso pretende desmitificar la tecnología de datos / hadoop y demostrar que no es difícil de entender.
ApHadm1 Apache Hadoop: manipulación y transformación del rendimiento de los datos 21 horas Este curso está dirigido a desarrolladores, arquitectos, científicos de datos o cualquier perfil que requiera acceso a los datos de forma intensiva o regular. El enfoque principal del curso es la manipulación y transformación de datos. Entre las herramientas del ecosistema de Hadoop, este curso incluye el uso de Pig y Hive, que se utilizan mucho para la transformación y manipulación de datos. Esta capacitación también aborda las métricas de rendimiento y la optimización del rendimiento. El curso es completamente práctico y está marcado por presentaciones de los aspectos teóricos.
68780 Apache Spark 14 horas
voldemort Voldemort: configuración de un almacén de datos distribuidos de clave-valor 14 horas Voldemort es un almacén de datos distribuidos de código abierto que está diseñado como una tienda de valores clave. Se utiliza en LinkedIn por numerosos servicios críticos que alimentan una gran parte del sitio. Este curso presentará la arquitectura y las capacidades de Voldomort y guiará a los participantes a través de la configuración y la aplicación de un almacén de datos distribuidos de valor clave. Audiencia      Desarrolladores de software      Administradores del sistema      Ingenieros de DevOps Formato del curso      Conferencia parcial, discusión parcial, práctica práctica intensa, pruebas ocasionales para medir la comprensión
68737 Hadoop for Data Analysts 14 horas
druid Druid:Construir un Sistema Rápido y en Tiempo Real de Análisis de Datos 21 horas Druid es un almacén de datos distribuido orientado a columnas y de código abierto escrito en Java. Fue diseñado para ingerir rápidamente cantidades masivas de datos de eventos y ejecutar consultas OLAP de baja latencia en esos datos. Druid se usa comúnmente en aplicaciones de inteligencia empresarial para analizar grandes volúmenes de datos históricos y en tiempo real. También es adecuado para alimentar cuadros de mandos analíticos rápidos e interactivos para usuarios finales. Druid es utilizado por compañías como Alibaba, Airbnb, Cisco, eBay, Netflix, Paypal y Yahoo. En este curso, exploramos algunas de las limitaciones de las soluciones de almacenamiento de datos y discutimos cómo Druid puede complementar esas tecnologías para formar una pila de análisis de transmisión flexible y escalable. Analizamos muchos ejemplos, ofreciendo a los participantes la oportunidad de implementar y probar soluciones basadas en Druid en un entorno de laboratorio. Audiencia     Desarrolladores de aplicaciones     Ingenieros de software     Consultores técnicos     Profesionales de DevOps     Ingenieros de arquitectura Formato del curso     Conferencia parcial, discusión parcial, práctica práctica intensa, pruebas ocasionales para medir la comprensión
mdlmrah Model MapReduce y Apache Hadoop 14 horas El curso está destinado al especialista en TI que trabaja con el procesamiento distribuido de grandes conjuntos de datos a través de grupos de computadoras.

Próximos Cursos

CursoFechaPrecio del Curso [A distancia / Presencial]
Apache Spark - Caracas - Centro LidoMar, 2018-03-27 09:303659USD / 4738USD

Otras regiones

Consultoría

Cursos de Fin de Semana de Hadoop, Capacitación por la Tarde de Hadoop, Hadoop boot camp, Clases de Hadoop , Clases de Hadoop ,Capacitación de Fin de Semana de Hadoop, Cursos por la Tarde de Hadoop, Capacitador de Hadoop, Cursos en linea de Hadoop, Hadoop coaching, Hadoop con instructor, Cursos de Formación de Hadoop, Talleres para empresas de Hadoop, Hadoop en sitio, Cursos Privados de Hadoop, Programas de capacitación de Hadoop, Instructor de Hadoop, Capacitación empresarial de Hadoop

Promociones

Descuentos en los Cursos

Respetamos la privacidad de su dirección de correo electrónico. No transmitiremos ni venderemos su dirección a otras personas.
Siempre puede cambiar sus preferencias o cancelar su suscripción por completo.

Algunos de nuestros clientes