Bitrock logo

Training su Operazioni Confluent per Apache Kafka

In questo corso pratico di tre giorni imparerai a costruire, gestire e monitorare i cluster utilizzando le migliori pratiche del settore sviluppate dai più importanti esperti di Apache Kafka al mondo.

Imparerai il ruolo di Kafka nella moderna pipeline di distribuzione dei dati, discuterete i concetti e i componenti architetturali fondamentali di Kafka ed esaminerai le API per gli sviluppatori di Kafka. Oltre a Kafka, Kafka Connect e Kafka Streams, il corso copre anche altri componenti della più ampia piattaforma Confluent, come Schema Registry e REST Proxy.

Formazione pratica

Nel corso del corso, esercitazioni pratiche rafforzano gli argomenti trattati. Le esercitazioni comprendono:

  • Installazione del cluster
  • Operazioni di base sul cluster
  • Visualizzazione e interpretazione delle metriche del cluster
  • Recupero da un guasto del Broker
  • Messa a punto delle prestazioni del cluster
  • Messa in sicurezza del cluster

Questo corso è rivolto a ingegneri, amministratori di sistema e personale operativo responsabili della creazione, gestione, monitoraggio e messa a punto di cluster Kafka.

Prerequisiti del corso

I partecipanti devono avere una buona conoscenza di Linux/Unix e comprendere i concetti di base della rete TCP/IP. È utile avere familiarità con la Java Virtual Machine (JVM). La conoscenza preliminare di Kafka è utile, ma non necessaria.


Contenuti del Corso

La motivazione di Apache Kafka

  • Complessità dei sistemi
  • L’elaborazione in tempo reale è sempre più diffusa
  • Kafka: Una piattaforma di dati in streaming

    Fondamenti di Kafka

  • Una panoramica di Kafka
  • Kafka Producers
  • Kafka Brokers
  • Kafka Consumers
  • L’uso di ZooKeeper in Kafka
  • Confronto con le code di messaggi tradizionali

    Fornire Durabilità

  • Concetti di base sulla replica
  • Durabilità attraverso la replica intra-cluster
  • Scrivere dati su Kafka in modo affidabile
  • Arresto e guasti del broker
  • Controllori nel cluster
  • I file di log di Kafka
  • Gestione degli offset

    Progettare per l’Alta Disponibilità

  • Architettura di riferimento di Kafka* Broker
  • ZooKeeper
  • Connect
  • Schema Registry
  • REST Proxy
  • Centri dati multipli

    Gestione di un Kafka Cluster

  • Installare ed eseguire Kafka
  • Monitoraggio di Kafka
  • Gestione di base del Cluster
  • Log Retention e Compaction
  • Un Cluster elastico

    Ottimizzare le Prestazioni di Kafka

  • Producer Performance
  • Broker Performance
  • Broker Failures e Recovery Time
  • Load Balancing Consumption
  • Consumption Performance
  • Performance Testing

    Sicurezza di Kafka

  • SSL per crittografia e autenticazione
  • SASL per l’autenticazione* Crittografia dei dati a riposo
  • SProtezione di ZooKeeper e del REST Proxy
  • Migrazione a un Cluster Sicuro

    Integrazione di Sistemi con Kafka Connect

  • La motivazione di Kafka Connect
  • Tipi di Connectors
  • Implementazione di Kafka Connect
  • Standalone e Distributed Modes
  • Configurazione dei Connectors
  • Considerazioni su Deployment
  • Confronto con altri sistemi
Skip to content