Confluent Developer Training
Costruendo Soluzioni Kafka
In questo corso pratico di tre giorni imparerai a costruire, gestire e monitorare i cluster utilizzando le migliori pratiche del settore sviluppate dai più importanti esperti di Apache Kafka al mondo.
Imparerai il ruolo di Kafka nella moderna pipeline di distribuzione dei dati, discuterete i concetti e i componenti architetturali fondamentali di Kafka ed esaminerai le API per gli sviluppatori di Kafka. Oltre a Kafka, Kafka Connect e Kafka Streams, il corso copre anche altri componenti della più ampia piattaforma Confluent, come Schema Registry e REST Proxy.
Formazione pratica
Nel corso del corso, esercitazioni pratiche rafforzano gli argomenti trattati. Le esercitazioni comprendono:
- Installazione del cluster
- Operazioni di base sul cluster
- Visualizzazione e interpretazione delle metriche del cluster
- Recupero da un guasto del Broker
- Messa a punto delle prestazioni del cluster
- Messa in sicurezza del cluster
Questo corso è rivolto a ingegneri, amministratori di sistema e personale operativo responsabili della creazione, gestione, monitoraggio e messa a punto di cluster Kafka.
Prerequisiti del corso
I partecipanti devono avere una buona conoscenza di Linux/Unix e comprendere i concetti di base della rete TCP/IP. È utile avere familiarità con la Java Virtual Machine (JVM). La conoscenza preliminare di Kafka è utile, ma non necessaria.
Contenuti del Corso
La motivazione di Apache Kafka
- Complessità dei sistemi
- L’elaborazione in tempo reale è sempre più diffusa
- Kafka: Una piattaforma di dati in streaming
Fondamenti di Kafka
- Una panoramica di Kafka
- Kafka Producers
- Kafka Brokers
- Kafka Consumers
- L’uso di ZooKeeper in Kafka
- Kafka Efficiency
Architettura di Kafka
- I file di log di Kafka
- Repliche per l’affidabilità
- Il percorso di scrittura di Kafka
- Il percorso di lettura di Kafka
- Partizioni e gruppi di consumatori per la scalabilità
Sviluppare con Kafka
- Usare Maven per la gestione dei progetti
- Accesso programmatico a Kafka* Scrivere un produttore in Java
- Usare l’API REST per scrivere un produttore
- Scrivere un consumatore in Java
- Usare l’API REST per scrivere un consumatore
Sviluppo avanzato di Kafka
- Creare un consumatore multi-thread
- Specificare gli offset
- Riequilibrio del consumatore
- Impegnare manualmente gli offset
- Partizionare i dati
- Durabilità dei messaggi
Gestione degli schemi in Kafka
- Introduzione ad Avro
- Schemi Avro
- Uso del registro degli schemi
Kafka Connect per il movimento dei dati
- La motivazione di Kafka Connect
- Nozioni di base di Kafka Connect
- Modalità di lavoro: Standalone e distribuito
- Configurazione della modalità distribuita
- Tracciamento degli offset
- Configurazione del connettore
- Confronto tra Kafka Connect e altre opzioni
Installazione e amministrazione di base di Kafka
- Installazione di Kafka
- Considerazioni sull’hardware
- Amministrare Kafka
Kafka Streams
- La motivazione dei flussi Kafka
- Fondamenti dei flussi Kafka
- Analisi di un’applicazione Kafka Streams