Technologieaustausch

65. Übersicht über die DataStream-Konnektoren von Flink

2024-07-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

1. Übersicht
1. Vordefinierte Quelle und Senke

Vordefinierte Datenquellen unterstützen das Lesen von Daten aus Dateien, Verzeichnissen, Sockets sowie Sammlungen und Iteratoren.

Vordefinierte Datensenken unterstützen das Schreiben von Daten in Dateien, die Standardausgabe (stdout), die Standardfehlerausgabe (stderr) und Sockets.

2. Stecker im Lieferumfang enthalten

Der Connector kann mit einer Vielzahl von Drittsystemen interagieren und unterstützt derzeit die folgenden Systeme.

Apache Kafka (source/sink)
Apache Cassandra (source/sink)
Amazon DynamoDB (sink)
Amazon Kinesis Data Streams (source/sink)
Amazon Kinesis Data Firehose (sink)
DataGen (source)
Elasticsearch (sink)
Opensearch (sink)
FileSystem (sink)
RabbitMQ (source/sink)
Google PubSub (source/sink)
Hybrid Source (source)
Apache Pulsar (source)
JDBC (sink)
MongoDB (source/sink)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
3. Konnektoren in Apache Bahir

Flink verfügt außerdem über zusätzliche Konnektoren, die über Apache Bahir verteilt werden, darunter:

Apache ActiveMQ (source/sink)
Apache Flume (sink)
Redis (sink)
Akka (sink)
Netty (source)
  • 1
  • 2
  • 3
  • 4
  • 5
4. Andere Möglichkeiten, eine Verbindung zu Flink herzustellen
a) Asynchrone E/A

Die Verwendung von Konnektoren ist nicht die einzige Möglichkeit, Daten in oder aus Flink zu übertragen.

Sie können Daten von einer externen Datenbank oder einem Webdienst abfragen, um den anfänglichen Datenstrom zu erhalten, und ihn dann übergeben Map oderFlatMap Für die anfängliche Datenstromverarbeitung stellt Flink eine asynchrone I/O-API bereit, um diesen Prozess einfacher, effizienter und stabiler zu machen.