技術共有

65. Flink の DataStream コネクタの概要

2024-07-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

1。概要
1. 事前定義されたソースとシンク

事前定義されたデータ ソースは、ファイル、ディレクトリ、ソケットに加え、コレクションやイテレータからのデータの読み取りをサポートします。

事前定義されたデータ シンクは、ファイル、標準出力 (stdout)、標準エラー出力 (stderr)、およびソケットへのデータの書き込みをサポートします。

2.コネクタ付属

コネクタはさまざまなサードパーティ システムと対話でき、現在次のシステムをサポートしています。

Apache Kafka (source/sink)
Apache Cassandra (source/sink)
Amazon DynamoDB (sink)
Amazon Kinesis Data Streams (source/sink)
Amazon Kinesis Data Firehose (sink)
DataGen (source)
Elasticsearch (sink)
Opensearch (sink)
FileSystem (sink)
RabbitMQ (source/sink)
Google PubSub (source/sink)
Hybrid Source (source)
Apache Pulsar (source)
JDBC (sink)
MongoDB (source/sink)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
3. Apache Bahir のコネクタ

Flink には、Apache Bahir を通じて配布される次のような追加のコネクタもあります。

Apache ActiveMQ (source/sink)
Apache Flume (sink)
Redis (sink)
Akka (sink)
Netty (source)
  • 1
  • 2
  • 3
  • 4
  • 5
4. Flink に接続するその他の方法
a) 非同期 I/O

Flink にデータを入出力する唯一の方法はコネクタの使用ではありません。

外部データベースまたは Web サービスからデータをクエリして初期データ ストリームを取得し、それを渡すことができます。 Map またはFlatMap 初期データ ストリーム処理のために、Flink は非同期 I/O API を提供し、このプロセスをよりシンプル、より効率的、より安定させます。