プライベートな連絡先の最初の情報
送料メール:
2024-07-12
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
目次
CPU名 | IPアドレス | 主なソフトウェア |
---|---|---|
es01 | 192.168.9.114 | エラスティックサーチ |
es02 | 192.168.9.115 | エラスティックサーチ |
es03 | 192.168.9.116 | ElasticSearch、キバナ |
nginx01 | 192.168.9.113 | nginx、ログスタッシュ |
該当なし | 192.168.9.111 | nginx、ファイルビート |
該当なし | 192.168.9.210 | 動物園の飼育係、カフカ |
該当なし | 192.168.9.120 | 動物園の飼育係、カフカ |
該当なし | 192.168.9.140 | 動物園の飼育係、カフカ |
ELK、Filebead、Zookeeper、および Kafka は、以前のブログをクエリするために構築されています
- cd /usr/local/filebeat
-
- vim filebeat.yml
- 注释162、164行内容
- 163行起添加
- output.kafka:
- enabled: true
- hosts: ["192.168.9.210:9092","192.168.9.120","192.168.9.140"] #指定 Kafka 集群配置
- topic: "nginx" #指定 Kafka 的 topic
-
- ————————————
ブラウザが filebeat にアクセスし、新しいログ データを生成します。
(http://192.168.9.111/test.html、http://192.168.9.111/test1.html、http://192.168.9.111/)
- 启动 filebeat
- ./filebeat -e -c filebeat.yml
- cd /etc/logstash/conf.d/
- vim kafka.conf
- input {
- kafka {
- bootstrap_server => "192.168.9.210:9092,192.168.9.120:9092,192.168.9.140:9092"
- topics => "nginx"
- type => "nginx_kafka"
- auto_offset_reset => "latest"
- }
- }
-
- #filter {}
-
- output {
- elasticsearch {
- hosts => ["192.168.9.114:9200", "192.168.9.115:9200", "192.168.9.116:9200"]
- index => "nginx_kafka-%{+yyyy.MM.dd}"
- }
- }
-
-
-
- logstash -t -f kafka.conf
- logstash -f kafka.conf
ブラウザで http://192.168.9.116:5601 にアクセスし、Kibana にログインし、[Manage] ボタンをクリックして [Create Index Mode] をクリックし、[nginx_kafka-*] を検索し、[Next] ボタンをクリックして作成し、[ @timestamp]ボタン、[インデックス作成モード]; チャート情報とログ情報を表示できます。