Cloudera

Cloudera Training for Apache HBase - Virtual English

21 horas
2230,00 €
Live Virtual Class
Live Virtual Class

Acerca de este curso

TASTE OF TRAINING

Este curso permite a los participantes almacenar y acceder a cantidades masivas de datos multi-estructurados y realizar cientos de miles de operaciones por segundo.

Apache HBase una base de datos NoSQL distribuida y escalable construida sobre Hadoop. HBase puede almacenar datos en tablas masivas que se componen de miles de millones de filas y de millones de columnas, servir los datos a muchos usuarios y aplicaciones en tiempo real, y proporcionar un acceso rápido y aleatorio de lectura/escritura tanto para usuarios como aplicaciones.

PUE, Strategic Partner de Cloudera, está autorizado oficialmente por esta multinacional para impartir formación oficial en tecnologías Cloudera.

PUE está también acreditado y reconocido para realizar servicios de consultoría y mentoring en la implementación de soluciones Cloudera en el ámbito empresarial con el consiguiente valor añadido en el enfoque práctico y de negocio del conocimiento que se traslada en sus cursos oficiales.

A quién va dirigido

Este curso está dirigido a desarrolladores y administradores que tengan la intención de usar HBase. Será útil tener experiencia previa con bases de datos y modelado de datos, pero no es un requisito necesario. Se asume el conocimiento de Java. No se requiere conocimiento previo de Hadoop.

Objetivos del curso

A través de sesiones presenciales e interactivas con ejercicios prácticos, el participante aprenderá:

  • Casos y ocasiones de uso de HBase, Hadoop y RDBMS.
  • Uso del shell de HBase para manipular directamente tablas de HBase.
  • Diseño de esquemas HBase óptimos para un almacenamiento y recuperación eficiente de datos.
  • Cómo conectarse a HBase utilizando Java API para insertar y recuperar datos en tiempo real.
  • Mejores prácticas para identificar y resolver cuellos de botella de rendimiento.

Contenidos

Introducción a Hadoop y Hbase/p>

  • Introducción a Hadoop
  • Componentes de Hadoop
  • ¿Qué es Hbase?
  • ¿Por qué se usa HBase?
  • Puntos fuertes de Hbase
  • HBase en producción
  • Puntos débiles de Hbase

Tablas HBase

  • Conceptos Hbase
  • Fundamentos de una tabla HBase
  • Pensar en el diseño de tabla

HBase Shell

  • Creación de tablas con la HBase Shell
  • Trabajar con tablas
  • Trabajar con los datos de las tablas

Fundamentos de la Arquitectura de HBase

  • Regiones HBase
  • Arquitectura de un Cluster HBase
  • HBase y HDFS: Localidad de Datos

Hbase Schema Design

  • Consideraciones sobre el diseño
  • Diseño centrado en la Aplicación
  • Diseñar HBase Row Keys
  • Otros Características de las tablas

Acceso Básico a los datos mediante la API de HBase

  • Opciones para acceder a los datos
  • Creación y eliminación de las Tablas HBase
  • Recuperación de datos con Get
  • Recuperación de datos con Scan
  • Inserción y Actualización de Datos
  • Eliminación de datos

Características más avanzadas de la API HBase

  • Filtros
  • Mejores Prácticas
  • Coprocesadores HBase

HBase en el Cluster

  • Cómo HBase utiliza HDFS
  • Compactaciones y Splits

HBase Write Path

  • Compaction
  • Splits

HBase Read Path

  • Funcionamiento de HBase para la lectura de datos
  • Block Caches para lectura

HBase Performance Tuning

  • Familias de columnas: Consideraciones
  • Consideraciones sobre el diseño de esquemas
  • Configuración para Caching
  • Consideraciones sobre la memoria
  • Tratar con series de tiempo y datos secuenciales
  • Regiones: Pre-Splitting

Administración de HBase y Administración del Cluster

  • Demonios de HBase
  • Zookeeper
  • Alta Disponibilidad
  • HBase Balancer
  • Reparar tablas con hbck
  • Seguridad HBase

HBase Replicación y Backup

  • HBase replicación
  • Copia de seguridad HBase
  • MapReduce y HBase Clusters

Utilizar Hive e Impala con HBase

  • Uso de Hive e Impala con HBase

Conclusión

Apéndice A: Acceso de datos con Python y Thrift

  • Uso de Thrift
  • Trabajo con tablas
  • Obtención y colocación de datos
  • Escaneo de datos
  • Borrado de datos
  • Contadores
  • Filtros

Apéndice B: OpenTSDB

Convocatorias abiertas