Bitrock logo

Confluent Developer Training

Confluent Developer Training

Costruendo Soluzioni Kafka

In questo corso pratico di tre giorni imparerai a costruire, gestire e monitorare i cluster utilizzando le migliori pratiche del settore sviluppate dai più importanti esperti di Apache Kafka al mondo.

Imparerai il ruolo di Kafka nella moderna pipeline di distribuzione dei dati, discuterete i concetti e i componenti architetturali fondamentali di Kafka ed esaminerai le API per gli sviluppatori di Kafka. Oltre a Kafka, Kafka Connect e Kafka Streams, il corso copre anche altri componenti della più ampia piattaforma Confluent, come Schema Registry e REST Proxy.

Formazione pratica

Nel corso del corso, esercitazioni pratiche rafforzano gli argomenti trattati. Le esercitazioni comprendono:

  • Installazione del cluster
  • Operazioni di base sul cluster
  • Visualizzazione e interpretazione delle metriche del cluster
  • Recupero da un guasto del Broker
  • Messa a punto delle prestazioni del cluster
  • Messa in sicurezza del cluster

Questo corso è rivolto a ingegneri, amministratori di sistema e personale operativo responsabili della creazione, gestione, monitoraggio e messa a punto di cluster Kafka.

Prerequisiti del corso

I partecipanti devono avere una buona conoscenza di Linux/Unix e comprendere i concetti di base della rete TCP/IP. È utile avere familiarità con la Java Virtual Machine (JVM). La conoscenza preliminare di Kafka è utile, ma non necessaria.


Contenuti del Corso

La motivazione di Apache Kafka

  • Complessità dei sistemi
  • L’elaborazione in tempo reale è sempre più diffusa
  • Kafka: Una piattaforma di dati in streaming

    Fondamenti di Kafka

  • Una panoramica di Kafka
  • Kafka Producers
  • Kafka Brokers
  • Kafka Consumers
  • L’uso di ZooKeeper in Kafka
  • Kafka Efficiency

    Architettura di Kafka

  • I file di log di Kafka
  • Repliche per l’affidabilità
  • Il percorso di scrittura di Kafka
  • Il percorso di lettura di Kafka
  • Partizioni e gruppi di consumatori per la scalabilità

    Sviluppare con Kafka

  • Usare Maven per la gestione dei progetti
  • Accesso programmatico a Kafka* Scrivere un produttore in Java
  • Usare l’API REST per scrivere un produttore
  • Scrivere un consumatore in Java
  • Usare l’API REST per scrivere un consumatore

    Sviluppo avanzato di Kafka

  • Creare un consumatore multi-thread
  • Specificare gli offset
  • Riequilibrio del consumatore
  • Impegnare manualmente gli offset
  • Partizionare i dati
  • Durabilità dei messaggi

    Gestione degli schemi in Kafka

  • Introduzione ad Avro
  • Schemi Avro
  • Uso del registro degli schemi

    Kafka Connect per il movimento dei dati

  • La motivazione di Kafka Connect
  • Nozioni di base di Kafka Connect
  • Modalità di lavoro: Standalone e distribuito
  • Configurazione della modalità distribuita
  • Tracciamento degli offset
  • Configurazione del connettore
  • Confronto tra Kafka Connect e altre opzioni

    Installazione e amministrazione di base di Kafka

  • Installazione di Kafka
  • Considerazioni sull’hardware
  • Amministrare Kafka

    Kafka Streams

  • La motivazione dei flussi Kafka
  • Fondamenti dei flussi Kafka
  • Analisi di un’applicazione Kafka Streams

Vuoi saperne di più sui nostri servizi? Compila il modulo e fissa un incontro con il nostro team!

Skip to content