Confluent Cloud, Apache Kafka en tant que service, maintenant disponible sur Google Cloud Platform et AWS.

Choisissez votre forfait
Données en temps réel à grande échelle

Données en temps réel à grande échelle

Identifiez et répondez à chaque événement unique dans votre organisation en temps réel. Comme un système nerveux central, Confluent crée une streaming platform basée sur Apache Kafka pour unir votre organisation autour d’une unique source de vérité.

ORIENTÉ PAR LA DONNÉE

L'accès des données totalement transformé

Aujourd'hui, vos données sont verrouillées dans des systèmes qui ne communiquent pas entre eux. Vous voulez une source unique de vérité en temps réel concernant votre entreprise qui atteint l'ensemble des points terminaux de votre organisation : un système nerveux central qui vous permet de réagir au fur et à mesure que les événements surviennent, transformant les systèmes inaccessibles.

En savoir plus >
Préparez-vous pour la suite

FIABILITE GARANTIE

Préparez-vous pour la suite

Qu'est-ce que la vitesse sans la fiabilité ? La plateforme Confluent ajoute des outils d'administration, de gestion des données, d'exploitation et des tests de qualité pour votre environnement Kafka. Vous pouvez même héberger votre environnement Kafka dans le cloud - par les créateurs originaux d'Apache Kafka®.

En savoir plus >

FAIBLE LATENCE

Prend en charge des trillions de messages

Que ce soit pour des raisons de coûts ou de performance, une architecture basée sur une plateforme de streaming comme Confluent évoluera rapidement avec votre activité et les pipelines de données qui l'accompagnent, accélérant à la fois les performances et les économies de coûts.

En savoir plus >
La platforme de streaming

STOCKER, TRAITER, PUBLIER + S'ABONNER

La platforme de streaming

Une plateforme de streaming combine la force de distribution des données d'un modèle de publication-abonnement avec une couche de stockage et une couche de traitement. Cela facilite encore plus la création de pipelines de données et leur connexion à l'ensemble de tous vos systèmes.

Apprenez-en davantage sur la plateforme Confluent >
Votre plateforme pour les applis et les pipelines de streaming en temps réel

Conçue pour les développeurs

Votre plateforme pour les applis et les pipelines de streaming en temps réel

Les applications modernes reposent sur des données en temps réel pour personnaliser les expériences, reconnaître les comportements frauduleux ou fournir des tableaux de bord. En tant que consommateur, c’est génial ; en tant que développeur, c’est révolutionnaire .

Lancez-vous avez Confluent >
                      #It’s easy to get up and running with all things Confluent 
#once you’ve downloaded and setup the confluent CLI
$confluent start
starting zookeeper
zookeeper is [UP]
starting kafka
kafka is [UP]
starting schema-registry
schema-registry is [UP]





                    

PUISSANT ET FACILE À UTILISER

Une solution unique pour le streaming

Confluent et Apache Kafka® facilitent le travail avec des flux de données continus. Confluent offre une meilleure distribution de Kafka et ajoute des outils de développeur open source pour vous aider à vous lancer rapidement.

  • Java
  • C+/C++
  • Python
  • Go
  • Proxy REST
Lancez-vous avez Confluent >
                      #Vous pouvez utiliser l'API Streams ou KSQL de Kafka pour facilement traiter 
#nos flux sans clusters supplémentaires afin de créer des #choses 
puissantes - comme obtenir le classement des 5 chansons les plus écoutées. Nous commencerons par nous 
#abonner à un flux de chansons qui sont jouées avec un ID(playEvents) 
#et par enrichir cela avec songTable pour récupérer leur nom

KStream final songPlays =
  playEvents.leftJoin(songTable,(value1, song) -> chanson, 
  Serdes.Long(), playEventSerde);

#Ensuite, nous créons un entrepôt d'état, ‘songPlayCounts’ pour effectuer le suivi du nombre de lectures de la chanson

KTable final songPlayCounts =
  songPlays.groupBy((songId, song) -> chanson, keySongSerde, 
  valueSongSerde) .count(SONG_PLAY_COUNT_STORE);

final TopFiveSerde topFiveSerde = new TopFiveSerde();

#Pour finir, nous déterminerons les cinq chansons les mieux classées pour chaque genre. 
#Les résultats de cette analyse seront constamment mis à jour
# l'état pour lequel nous pouvons alors procéder à une requête songPlayCounts.groupBy((song, plays) -> KeyValue.pair(song.getGenre().toLowerCase(), new SongPlayCount(song.getId(), plays)),Serdes.String(), songPlayCountSerde)

QUAND LES STREAMS RENCONTRENT LES TABLES

Le traitement des flux est simplifié

Vos données sont rarement sous le format exact que vous souhaitez. C'est la raison pour laquelle nous les regroupons, filtrons et réunissons avec le plus grand soin. Dans un environnement en temps réel, ces actions sont constamment exécutées avec un moteur de streaming comme KSQL ou Streams API de Kafka. La plateforme Confluent vous offre une solution complète qui minimise la complexité – vous pouvez développer votre application, la déployer comme bon vous semble et commencer à capturer la valeur de vos données avec une latence de l'ordre de la milliseconde, de fortes garanties et une fiabilité éprouvée.

  • Java
  • KSQL
Lancez-vous avec le traitement de flux >
                      L'API Connect de #Kafka facilite la gestion des sources et des collecteurs -
#par exemple, ce collecteur elasticsearch est un
#fichier de configuration convivial facile à préparer
#Nom d'instance de connecteur défini par l'utilisateur. name = elasticsearch-sink #La classe qui implémente le connector connector.class =
io.confluent.connect.elasticsearch.ElasticsearchSinkConnector #Nombre maximum de tâches pour exécuter cette instance de connector tasks.max = 1 topics = test-elasticsearch-sink key.ignore = true connection.url = http://localhost:9200 type.name = kafka-connect #Une fois prêts, nous pouvons donc exécuter le connecteur elasticsearch
#sur une ligne $confluent load elasticsearch

Connectez tout ce qui concerne les

données, là où vous en avez besoin

Que ce soit un index de recherche, une couche de mise en cache, ou l’entraînement d’un algorithme d’apprentissage, Confluent simplifie le développement de pipelines de données en temps réel pour obtenir des données là où vous en avez besoin avec fiabilité. La plateforme Confluent inclut des Connecteurs Kafka certifiés et pré-compilés pour les banques et systèmes de données populaires.

  • Amazon S3
  • Elasticsearch
  • HDFS
  • MySQL
  • +Plus
Commencez avec l'intégration des données >

Real-Time in the Real World with Confluent Customers

Afficher tous nos témoignages clients

NOUS SOMMES IMPATIENTS DE DÉCOUVRIR VOS PROJETS DE STREAMINGS

Nous utilisons des cookies afin de comprendre comment vous utilisez notre site et améliorer votre expérience. Cliquez ici pour en apprendre davantage ou pour modifier vos paramètres de cookies. En poursuivant la navigation, vous consentez à ce que nous utilisions des cookies.