Confluent

Confluent Developer Skills for Building Apache Kafka

21 horas
1995,00 €
Presencial o Live Virtual Class
Presencial o Live Virtual Class

Acerca de este curso

La Plataforma Confluent Kafka es un entorno de transmisión de datos que permite organizar y administrar grandes cantidades de datos que llegan cada segundo a los entry points de organizaciones modernas en diversas industrias desde minoristas, logística, fabricación y servicios financieroshasta redes sociales en línea. Con Confluent, este creciente flujo de datos organizado en un modelo Publish/Subscribe, a menudo no estructurado e increíblemente valioso. Kafka Confluent se convierte en una plataforma de datos de flujo unificado y de fácil acceso que siempre está disponible para muchos usos en toda la organización. Estos usos pueden abarcar fácilmente desde el análisis de Big Data por lotes con Hadoop y la alimentación de sistemas de monitorización en tiempo real hasta las tareas de integración de datos de gran volumen más tradicionales que requieren un backbone de alto rendimiento, extracción, transformación y carga (ETL). Confluent Kafka ofrece a los clientes distintas clases de formación, tanto para los administradores (implementación) como para desarrolladores (creación de clientes pub/sub) y el método más moderno de consulta de datos con KSQL.

En este curso práctico para desarrolladores de Apache Kafka de tres días de duración, aprenderás a crear una aplicación que pueda publicar datos y suscribirlos a un clúster de Kafka. Aprenderás el rol de Kafka en la línea moderna de distribución de datos, analizarás los conceptos y componentes de la arquitectura de Kafka y revisarás las API para desarrolladores de Kafka. El curso también cubre otros componentes en la plataforma Confluent más amplia, como Kafka Connect y Kafka Streams.

PUE es Training Partner oficial de Confluent, autorizado por dicha multinacional para impartir formación oficial en tecnologías Confluent.

PUE está también acreditado y reconocido para realizar servicios de consultoría y mentoring en la implementación de soluciones Confluent en el ámbito empresarial con el consiguiente valor añadido en el enfoque práctico y de negocio del conocimiento que se traslada en sus cursos oficiales.

A quién va dirigido

Esta formación está diseñada para desarrolladores de aplicaciones, desarrolladores de ETL (extracción, transformación y carga) y científicos de datos que necesitan interactuar con clústeres Kafka como fuente o destino de datos.

Se recomienda que los estudiantes estén familiarizados con el desarrollo en Java, .NET, C# o Python. Se requiere conocimiento práctico de la arquitectura de Apache Kafka, adquirida por medio de haber trabajado con la plataforma o mediante el  curso Confluent Fundamentals for Apache Kafka. Puedes comprobar tu conocimiento de Apache Kafka por medio de este cuestionario: https://cnfl.io/fundamentals-quiz

Objetivos del curso

Al final de la formación, el estudiante obtendrá habilidades relacionadas con:

  • Cómo crear una aplicación que pueda publicar y suscribirse a los datos desde un clúster de Apache Kafka®.
  • El rol de Kafka en la línea de distribución de datos moderna, conocer los conceptos y componentes arquitectónicos principales de Kafka.
  • Conocer las APIs de desarrollo de Kafka.
  • Otros componentes en la plataforma Confluent más amplia, como Schema Registry, el proxy REST y KSQL.

Contenidos

Fundamentos de Apache Kafka

  • La Plataforma Streaming
  • El Commit Log y el Log Structured Data Flow
  • Elementos de datos, cuestiones, segmentos y particiones
  • Replicación y compactación de Logs
  • Kafka Clients - Producers, Consumers y Kafka Connect
  • Diseño de un Producer, serialización y particionamiento
  • Consumer Groups

Arquitectura de Kafka

  • Commit Log de Kafka, alta concurrencia y almacenamiento
  • Réplicas para la confiabilidad
  • Particiones y Consumer Groups para la escalabilidad
  • Visión general sobre seguridad en Kafka

Desarrollo con Kafka

  • Acceso programado a Kafka
  • Escribir un Producer en Java
  • Uso de la REST API para escribir un Producer
  • Path de lectura de Kafka
  • Escribir un Consumer en Java
  • Uso de la REST API para escribir un Consumer

Desarrollo avanzado con Kafka

  • Tamaño y durabilidad de los mensajes
  • Habilitar Exactly Once Semantics (EOS)
  • Especificar Offsets
  • Actividad y rebalanceo de un Consumer
  • Realizar manualmente Commit sobre Offsets
  • Particionamiento de datos

Administración de Esquemas en Kafka

  • Introducción a Avro y la serialización de datos
  • Esquemas Avro y evolución de los mismos
  • Uso del registro de Esquemas

Data Pipelines con Kafka Connect

  • Motivos para utilizar Kafka Connect
  • Tipos de Connectors
  • Implementación de Kafka Connect
  • Modo independiente y modo distribuido
  • Configuración de Connectors

Procesamiento en tiempo real con Kafka Streams

  • Introducción a la API de Kafka Streams
  • Conceptos de Kafka Streams
  • Creación de una aplicación Kafka Streams
  • Kafka Streams por medio de ejemplos
  • Administración del procesamiento Kafka Streams

Procesamiento en tiempo real con Confluent KSQL

  • KSQL para Apache Kafka
  • Escribir consultas KSQL

Arquitectura gestionada por eventos

  • Plataforma Event Driven
  • Desde CQRS al abastecimiento de eventos
  • Microservicios

Confluent Cloud

  • Visión general de Confluent Cloud
  • Uso de Cloud CLI y Web UI
  • Configurar Kafka Clients

Convocatorias abiertas