2024-07-12
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Table des matières
2. Configuration du stockage de journaux
3. Vérification de l'accès au navigateur Kibana
Nom du processeur | adresse IP | Logiciel principal |
---|---|---|
es01 | 192.168.9.114 | Recherche élastique |
es02 | 192.168.9.115 | Recherche élastique |
es03 | 192.168.9.116 | ElasticSearch, Kibana |
nginx01 | 192.168.9.113 | nginx, Logstash |
N / A | 192.168.9.111 | nginx, Filebeat |
N / A | 192.168.9.210 | Gardien de zoo, Kafka |
N / A | 192.168.9.120 | Gardien de zoo, Kafka |
N / A | 192.168.9.140 | Gardien de zoo, Kafka |
ELK, Filebead, zookeeper, kafka peuvent être construits pour interroger les blogs précédents
- cd /usr/local/filebeat
-
- vim filebeat.yml
- 注释162、164行内容
- 163行起添加
- output.kafka:
- enabled: true
- hosts: ["192.168.9.210:9092","192.168.9.120","192.168.9.140"] #指定 Kafka 集群配置
- topic: "nginx" #指定 Kafka 的 topic
-
- ————————————
Le navigateur accède à filebeat et génère de nouvelles données de journal
(http://192.168.9.111/test.html, http://192.168.9.111/test1.html、http://192.168.9.111/)
- 启动 filebeat
- ./filebeat -e -c filebeat.yml
- cd /etc/logstash/conf.d/
- vim kafka.conf
- input {
- kafka {
- bootstrap_server => "192.168.9.210:9092,192.168.9.120:9092,192.168.9.140:9092"
- topics => "nginx"
- type => "nginx_kafka"
- auto_offset_reset => "latest"
- }
- }
-
- #filter {}
-
- output {
- elasticsearch {
- hosts => ["192.168.9.114:9200", "192.168.9.115:9200", "192.168.9.116:9200"]
- index => "nginx_kafka-%{+yyyy.MM.dd}"
- }
- }
-
-
-
- logstash -t -f kafka.conf
- logstash -f kafka.conf
Visitez http://192.168.9.116:5601 avec le navigateur, connectez-vous à Kibana, cliquez sur le bouton [Gérer] [Mode Créer un index], recherchez [nginx_kafka-*], cliquez sur le bouton [Suivant] pour créer, sélectionnez le [ @timestamp], [Créer un mode d'index] ; vous pouvez afficher les informations du graphique et les informations du journal.