Mi informacion de contacto
Correo[email protected]
2024-07-12
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Tabla de contenido
3. Verificación de acceso al navegador kibana
nombre de la CPU | dirección IP | software principal |
---|---|---|
es01 | 192.168.9.114 | Búsqueda elástica |
es02 | 192.168.9.115 | Búsqueda elástica |
es03 | 192.168.9.116 | ElasticSearch, Kibana |
nginx01 | 192.168.9.113 | nginx, Logstash |
N / A | 192.168.9.111 | nginx, Filebeat |
N / A | 192.168.9.210 | El guardián del zoológico, Kafka |
N / A | 192.168.9.120 | El guardián del zoológico, Kafka |
N / A | 192.168.9.140 | El guardián del zoológico, Kafka |
ELK, Filebead, zookeeper y kafka están diseñados para consultar blogs anteriores
- cd /usr/local/filebeat
-
- vim filebeat.yml
- 注释162、164行内容
- 163行起添加
- output.kafka:
- enabled: true
- hosts: ["192.168.9.210:9092","192.168.9.120","192.168.9.140"] #指定 Kafka 集群配置
- topic: "nginx" #指定 Kafka 的 topic
-
- ————————————
El navegador accede a filebeat y genera nuevos datos de registro.
(http://192.168.9.111/prueba.html、http://192.168.9.111/test1.html、http://192.168.9.111/)
- 启动 filebeat
- ./filebeat -e -c filebeat.yml
- cd /etc/logstash/conf.d/
- vim kafka.conf
- input {
- kafka {
- bootstrap_server => "192.168.9.210:9092,192.168.9.120:9092,192.168.9.140:9092"
- topics => "nginx"
- type => "nginx_kafka"
- auto_offset_reset => "latest"
- }
- }
-
- #filter {}
-
- output {
- elasticsearch {
- hosts => ["192.168.9.114:9200", "192.168.9.115:9200", "192.168.9.116:9200"]
- index => "nginx_kafka-%{+yyyy.MM.dd}"
- }
- }
-
-
-
- logstash -t -f kafka.conf
- logstash -f kafka.conf
Visite http://192.168.9.116:5601 con el navegador, inicie sesión en Kibana, haga clic en el botón [Administrar] [Crear modo de índice], busque [nginx_kafka-*], haga clic en el botón [Siguiente] para crear, seleccione el [ Botón @timestamp], [Crear modo de índice] puede ver información del gráfico y registrar información.