2024-07-12
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Les sources de données prédéfinies prennent en charge la lecture des données à partir de fichiers, de répertoires, de sockets, ainsi que de collections et d'itérateurs.
Les récepteurs de données prédéfinis prennent en charge l'écriture de données dans des fichiers, la sortie standard (stdout), la sortie d'erreur standard (stderr) et les sockets.
Le connecteur peut interagir avec divers systèmes tiers et prend actuellement en charge les systèmes suivants.
Apache Kafka (source/sink)
Apache Cassandra (source/sink)
Amazon DynamoDB (sink)
Amazon Kinesis Data Streams (source/sink)
Amazon Kinesis Data Firehose (sink)
DataGen (source)
Elasticsearch (sink)
Opensearch (sink)
FileSystem (sink)
RabbitMQ (source/sink)
Google PubSub (source/sink)
Hybrid Source (source)
Apache Pulsar (source)
JDBC (sink)
MongoDB (source/sink)
Flink dispose également de connecteurs supplémentaires distribués via Apache Bahir, notamment :
Apache ActiveMQ (source/sink)
Apache Flume (sink)
Redis (sink)
Akka (sink)
Netty (source)
L’utilisation de connecteurs n’est pas le seul moyen d’obtenir des données entrantes ou sortantes de Flink.
Vous pouvez interroger des données à partir d'une base de données externe ou d'un service Web pour obtenir le flux de données initial, puis transmettre Map
ouFlatMap
Pour le traitement initial du flux de données, Flink fournit une API d'E/S asynchrone pour rendre ce processus plus simple, plus efficace et plus stable.