le mie informazioni di contatto
Posta[email protected]
2024-07-12
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Le origini dati predefinite supportano la lettura di dati da file, directory, socket, nonché raccolte e iteratori.
I sink di dati predefiniti supportano la scrittura di dati su file, output standard (stdout), output di errore standard (stderr) e socket.
Il connettore può interagire con una varietà di sistemi di terze parti e attualmente supporta i seguenti sistemi.
Apache Kafka (source/sink)
Apache Cassandra (source/sink)
Amazon DynamoDB (sink)
Amazon Kinesis Data Streams (source/sink)
Amazon Kinesis Data Firehose (sink)
DataGen (source)
Elasticsearch (sink)
Opensearch (sink)
FileSystem (sink)
RabbitMQ (source/sink)
Google PubSub (source/sink)
Hybrid Source (source)
Apache Pulsar (source)
JDBC (sink)
MongoDB (source/sink)
Flink dispone inoltre di connettori aggiuntivi distribuiti tramite Apache Bahir, tra cui:
Apache ActiveMQ (source/sink)
Apache Flume (sink)
Redis (sink)
Akka (sink)
Netty (source)
L'uso dei connettori non è l'unico modo per inserire o estrarre dati da Flink.
È possibile eseguire query sui dati da un database esterno o da un servizio Web per ottenere il flusso di dati iniziale e quindi trasmetterlo Map
OFlatMap
Per l'elaborazione iniziale del flusso di dati, Flink fornisce un'API I/O asincrona per rendere questo processo più semplice, più efficiente e più stabile.