Partage de technologie

65. Présentation des connecteurs DataStream de Flink

2024-07-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

1. Vue d'ensemble
1. Source et récepteur prédéfinis

Les sources de données prédéfinies prennent en charge la lecture des données à partir de fichiers, de répertoires, de sockets, ainsi que de collections et d'itérateurs.

Les récepteurs de données prédéfinis prennent en charge l'écriture de données dans des fichiers, la sortie standard (stdout), la sortie d'erreur standard (stderr) et les sockets.

2. Connecteur inclus

Le connecteur peut interagir avec divers systèmes tiers et prend actuellement en charge les systèmes suivants.

Apache Kafka (source/sink)
Apache Cassandra (source/sink)
Amazon DynamoDB (sink)
Amazon Kinesis Data Streams (source/sink)
Amazon Kinesis Data Firehose (sink)
DataGen (source)
Elasticsearch (sink)
Opensearch (sink)
FileSystem (sink)
RabbitMQ (source/sink)
Google PubSub (source/sink)
Hybrid Source (source)
Apache Pulsar (source)
JDBC (sink)
MongoDB (source/sink)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
3. Connecteurs dans Apache Bahir

Flink dispose également de connecteurs supplémentaires distribués via Apache Bahir, notamment :

Apache ActiveMQ (source/sink)
Apache Flume (sink)
Redis (sink)
Akka (sink)
Netty (source)
  • 1
  • 2
  • 3
  • 4
  • 5
4. Autres moyens de se connecter à Flink
a) E/S asynchrones

L’utilisation de connecteurs n’est pas le seul moyen d’obtenir des données entrantes ou sortantes de Flink.

Vous pouvez interroger des données à partir d'une base de données externe ou d'un service Web pour obtenir le flux de données initial, puis transmettre Map ouFlatMap Pour le traitement initial du flux de données, Flink fournit une API d'E/S asynchrone pour rendre ce processus plus simple, plus efficace et plus stable.