Démarrez avec les recettes KSQL
Pour accélérer votre projet de traitement de flux, nous avons préalablement élaboré une série de cas d'utilisation de traitement de flux et d'exemples de code KSQL. Tout comme une recette, nous fournissons les étapes pour vous aider à démarrer.
Améliorez le niveau de votre KSQL
Que vous soyez novice sur KSQL ou prêt à faire passer en production, vous pouvez désormais analyser en détail les concepts de base, les flux et tableaux, les données brutes et agrégations de données enrichissantes, les configurations d'évolutivité et de sécurité de KSQL, et bien plus.
Cas d’utilisation et exemples
Streaming ETL
Apache Kafka est un choix populaire pour optimiser des pipelines de données. KSQL simplifie la transformation des données dans le pipeline, préparant les messages afin qu'ils arrivent correctement dans un autre système.
CREATE STREAM vip_actions AS
SELECT userid, page, action FROM clickstream c LEFT JOIN users u ON c.userid = u.user_id
WHERE u.level = 'Platinum';
Détection des anomalies
KSQL est un bon choix pour l’identification des modèles ou des anomalies sur les données en temps réel. En traitant le flux au fur et à mesure que les données arrivent, vous pouvez identifier et correctement faire ressortir les événements ordinaires avec une latence de l'ordre de la milliseconde.
CREATE TABLE possible_fraud AS
SELECT card_number, count(*)
FROM authorization_attempts
WINDOW TUMBLING (SIZE 5 SECONDS)
GROUP BY card_number
HAVING count(*) > 3;
Surveillance
La capacité de Kafka à fournir des messages évolutifs ordonnés avec le traitement des flux en font une solution commune pour la surveillance des données de journal et les alertes. KSQL emprunte une syntaxe connue pour le suivi, la compréhension et la gestion des alertes.
CREATE TABLE error_counts AS
SELECT error_code, count(*) FROM monitoring_stream WINDOW TUMBLING (SIZE 1 MINUTE) WHERE type = 'ERROR' GROUP BY error_code;