Compartilhamento de tecnologia

65. Visão geral dos conectores DataStream do Flink

2024-07-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

1. Visão Geral
1. Fonte e coletor predefinidos

Fontes de dados predefinidas suportam a leitura de dados de arquivos, diretórios, soquetes, bem como coleções e iteradores.

Os coletores de dados predefinidos suportam a gravação de dados em arquivos, saída padrão (stdout), saída de erro padrão (stderr) e soquetes.

2. Conector incluído

O conector pode interagir com vários sistemas de terceiros e atualmente oferece suporte aos sistemas a seguir.

Apache Kafka (source/sink)
Apache Cassandra (source/sink)
Amazon DynamoDB (sink)
Amazon Kinesis Data Streams (source/sink)
Amazon Kinesis Data Firehose (sink)
DataGen (source)
Elasticsearch (sink)
Opensearch (sink)
FileSystem (sink)
RabbitMQ (source/sink)
Google PubSub (source/sink)
Hybrid Source (source)
Apache Pulsar (source)
JDBC (sink)
MongoDB (source/sink)
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
3. Conectores no Apache Bahir

O Flink também possui conectores adicionais distribuídos pelo Apache Bahir, incluindo:

Apache ActiveMQ (source/sink)
Apache Flume (sink)
Redis (sink)
Akka (sink)
Netty (source)
  • 1
  • 2
  • 3
  • 4
  • 5
4. Outras maneiras de se conectar ao Flink
a) E/S assíncrona

Usar conectores não é a única maneira de entrar ou sair dados do Flink.

Você pode consultar dados de um banco de dados externo ou serviço Web para obter o fluxo de dados inicial e depois passar Map ouFlatMap Para o processamento inicial do fluxo de dados, o Flink fornece uma API de E/S assíncrona para tornar esse processo mais simples, eficiente e estável.