API Kafka Streams

Traitement de flux de données conçu pour les développeurs

The Streams API in Kafka is an open-source solution that you can integrate into your application to build and execute powerful stream processing functions. If you use Kafka for stream data transport, the Streams API in Kafka can immediately add stream processing capabilities to your application without the burden of adding an entirely separate distributed processing cluster for another stream processing framework. Whether you have an IoT application, a monitoring function, a complex continuous query, or you are tracking inventory changes, the Streams API in Kafka enables you to build your application with ease.

The Streams API in Kafka is included with the Apache Kafka release v 0.10 as well as Confluent Enterprise v3.0.

Télécharger la plateforme Confluent
Kafka

De nos jours, les environnements de traitement des flux sont complexes

Les API de traitement de flux sont des outils très puissants. Cette immense capacité est cependant accompagnée d'une certaine complexité ; elles ont besoin de leur propre cluster dédié de machines et s’appuient souvent sur une base de données distribuée pour effectuer des recherches et des agrégations. Votre application devra probablement gérer séparément le retraitement d’anciennes données.

Le résultat ? Beaucoup de composants mobiles qui doivent rester synchronisés entre eux pour que l’application fonctionne.

Découvrez l'API de streaming de Kafka

Consultez notre blog sur l'API de Streaming de Kafka
De nos jours, les environnements de traitement des flux sont complexes

API Kafka Streams : la puissance sans le poids

  • Icône « Puissant »

    Puissant

    • Hautement évolutif, souple, tolérant aux défaillances
    • Traitement avec statut et sans statut
    • Traitement au moment de l’événement
  • Icône « Léger »

    Léger

    • Aucun cluster dédié requis
    • Aucune couche de conversion de message
    • Aucune dépendance externe
  • Icône d'intégration totale

    Entièrement intégré

    • 100% compatible avec Kafka v0.10
    • Facile à intégrer dans des applications existantes
    • Aucune règle artificielle pour déployer des applications
  • Icône « Temps réel »

    Temps réel

    • Latence de traitement à l'échelle de la milliseconde
    • Ne crée pas de micro-lots de traitement de messages
    • Fenêtrage avec données en désordre
    • Permet une arrivée tardive des données

Cas d'utilisation adaptés pour l'API de streaming de Kafka

  • Microservices basés sur les flux

    Microservices basés sur les flux

    Les microservices sont souvent développés sur un flux de données Kafka. Au lieu d’une application monolithique de grande taille, les microservices fournissent de petits processus découplés qui exécutent une fonction restreinte adossée à un flux de données. Ils conviennent parfaitement aux API de streaming car ils fonctionnent sur des flux en temps réel, dépendent d'une transmission fiable des messages et pourraient ne pas justifier le coût du déploiement d’une structure distincte de traitement de flux.

  • Requêtes continues

    Requêtes continues

    L'une des meilleures façons de profiter des flux de données est de comparer ou d’analyser entre elles des données dans différents flux, ou de regrouper les flux pour obtenir des informations plus explicites. Des requêtes continues sont utilisées pour automatiser des informations en temps réel à l'échelle d'une organisation. L'API de Streaming permet aux fonctions de cette envergure d'être implémentées avec un faible encombrement en matière d'infrastructure et entièrement au sein de l’environnement Kafka.

  • Transformations continues

    Transformations continues

    Les transformations continues modifient ou regroupent les données dans un flux. Ces processus simples mais essentiels sont des services de bas niveau qui préparent les données pour des analyses en temps réel. Leur petite échelle convient bien à une solution légère comme l'API de streaming de Kafka, qui supporte les traitements avec et sans statut.

  • Processus déclenchés par des événements

    Processus déclenchés par des événements

    La quête perpétuelle d'anomalies potentiellement significatives dans les données organisationnelles se traite de plus en plus dans un environnement en temps réel. Si des pipelines de données existent, mettre en œuvre des processus déclenchés par des événements en s'en servant à l’aide de l'API de streaming de Kafka est une simple extension de l’infrastructure de streaming que Kafka fournit déjà.

Vous souhaitez nous parler ?

Demandez à Confluent de vous contacter.

Nous contacter

Nous utilisons des cookies afin de comprendre comment vous utilisez notre site et améliorer votre expérience. Cliquez ici pour en apprendre davantage ou pour modifier vos paramètres de cookies. En poursuivant la navigation, vous consentez à ce que nous utilisions des cookies.