Data Streaming with KStreams and Confluent’s ksqlDB

Big Data & Algorithmic Business
06.09.2022Workshop abgesagt!

9:00 – 17:00 Uhr
BFH - Berner Fachhochschule
Max. Teilnehmer: 30

Einleitung

Die kontinuierliche Übermittlung von Datensätzen ist heute Teil vieler digitaler Applikationen. Lerne in diesem Workshop die Grundlagen der Data Streaming Architekturen kennen. Auf Basis von Apache Kafka machen wir uns nicht nur mit theoretischem Wissen vertraut, sondern entwickeln unser Können ganz praktisch in sogenannten «Lab-Sessions». Der Fokus liegt dabei auf der Anwendung von Apache KStream und Confluent’s ksqlDB.

Programm

TEIL I

  • KStreams Konzept&Architekturen (Theorie I)
  • LAB – Erste Implementierung einer KStreams App (java + gradle/maven)
  • LAB – Implementierung der KStreams App (java + gradle/maven) mit einem Beispiel für benutzerdefinierte Serden

TEIL II

  • KStreams Konzept&Architekturen (Theorie II)
  • LAB – Implementierung KStreams App (java + gradle/maven) mit verbundenen Datenströme
  • LAB – Implementierung KStreams App (java + gradle/maven) mit API-Prozessor

TEIL III

  • ksqlDB Konzept (Theorie Teil I)
  • LAB – ksqlDB; Datenströme, Tabellen, Abfragen von Daten
  • ksqlDB Konzept (Theorie Teil II)
  • LAB – ksqldb Applikation (Beispiel Pipeline)

 

Kursziel

  • Kennenlernen der Grundlagen von Kafka Streams und ksqldB
  • Erste praktische Erfahrungen im Umgang mit den Data Streaming Technologien

Adressaten

Softwareentwickler und Architekten mit Java Kenntnisse und Interesse an Data Streaming Technologien.

Voraussetzungen

Erfahrung mit Java und Docker

 

Infrastruktur

Die Teilnehmer sollen wenn möglich:

  • docker engine lokal und IDE für Java + gradle/maven installiert haben
  • über einen Internetzugang (github, etc.) verfügen

 

 

Referenten

Pawel Wasowicz

mimacom ag


Pawel Wasowicz ist Softwareentwickler mit einem Hintergrund in JVM/ Spring. Das Entwickeln digitaler Lösungen, bei denen Datenforschung und -analyse, sowie regelbasierte Programmierung zum Einsatz kommen, begeistert ihn. Durch seine langjährige Erfahrung in der Anwendung von Apache Kafka besitzt er ein grosses Fachwissen. Seine Leidenschaft für Data Engineering Technologien und Architekturen lebt er in seiner Funktion als Head of Data Engineering bei der mimacom ag, wo er derzeit den Aufbau dieser Abteilung leitet.