2024-07-12
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Vordefinierte Datenquellen unterstützen das Lesen von Daten aus Dateien, Verzeichnissen, Sockets sowie Sammlungen und Iteratoren.
Vordefinierte Datensenken unterstützen das Schreiben von Daten in Dateien, die Standardausgabe (stdout), die Standardfehlerausgabe (stderr) und Sockets.
Der Connector kann mit einer Vielzahl von Drittsystemen interagieren und unterstützt derzeit die folgenden Systeme.
Apache Kafka (source/sink)
Apache Cassandra (source/sink)
Amazon DynamoDB (sink)
Amazon Kinesis Data Streams (source/sink)
Amazon Kinesis Data Firehose (sink)
DataGen (source)
Elasticsearch (sink)
Opensearch (sink)
FileSystem (sink)
RabbitMQ (source/sink)
Google PubSub (source/sink)
Hybrid Source (source)
Apache Pulsar (source)
JDBC (sink)
MongoDB (source/sink)
Flink verfügt außerdem über zusätzliche Konnektoren, die über Apache Bahir verteilt werden, darunter:
Apache ActiveMQ (source/sink)
Apache Flume (sink)
Redis (sink)
Akka (sink)
Netty (source)
Die Verwendung von Konnektoren ist nicht die einzige Möglichkeit, Daten in oder aus Flink zu übertragen.
Sie können Daten von einer externen Datenbank oder einem Webdienst abfragen, um den anfänglichen Datenstrom zu erhalten, und ihn dann übergeben Map
oderFlatMap
Für die anfängliche Datenstromverarbeitung stellt Flink eine asynchrone I/O-API bereit, um diesen Prozess einfacher, effizienter und stabiler zu machen.