informasi kontak saya
Surat[email protected]
2024-07-12
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Sumber data yang telah ditentukan sebelumnya mendukung pembacaan data dari file, direktori, soket, serta koleksi dan iterator.
Data sink yang telah ditentukan sebelumnya mendukung penulisan data ke file, output standar (stdout), output kesalahan standar (stderr), dan soket.
Konektor dapat berinteraksi dengan berbagai sistem pihak ketiga, dan saat ini mendukung sistem berikut.
Apache Kafka (source/sink)
Apache Cassandra (source/sink)
Amazon DynamoDB (sink)
Amazon Kinesis Data Streams (source/sink)
Amazon Kinesis Data Firehose (sink)
DataGen (source)
Elasticsearch (sink)
Opensearch (sink)
FileSystem (sink)
RabbitMQ (source/sink)
Google PubSub (source/sink)
Hybrid Source (source)
Apache Pulsar (source)
JDBC (sink)
MongoDB (source/sink)
Flink juga memiliki konektor tambahan yang didistribusikan melalui Apache Bahir, antara lain:
Apache ActiveMQ (source/sink)
Apache Flume (sink)
Redis (sink)
Akka (sink)
Netty (source)
Menggunakan konektor bukan satu-satunya cara untuk memasukkan atau mengeluarkan data dari Flink.
Anda bisa menanyakan data dari database eksternal atau layanan Web untuk mendapatkan aliran data awal, lalu meneruskannya Map
atauFlatMap
Untuk pemrosesan aliran data awal, Flink menyediakan API I/O asinkron untuk menjadikan proses ini lebih sederhana, lebih efisien, dan lebih stabil.