Condivisione della tecnologia

Plug-in comunemente utilizzati e distribuzione ELFK del modulo filtro ELFK logstash

2024-07-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Plug-in comunemente utilizzati per il modulo filtro ELK

Plug-in comunemente utilizzati per il modulo filtro logstash:

filtro: rappresenta il livello di elaborazione dei dati, inclusa la formattazione dei dati, la conversione del tipo di dati, il filtraggio dei dati, ecc. e supporta le espressioni regolari

  1. grok suddivide diversi campi di testo di grandi dimensioni in campi piccoli (?<nome campo>espressione regolare) Nome campo: contenuto corrispondente all'espressione regolare
  2. date unifica e formatta il formato dell'ora nei dati
  3. mutate può rinominare, eliminare, sostituire e modificare i campi negli eventi.Ad esempio, elimina alcuni campi inutili o aggiungi campi personalizzati.
  4. multilinea dispone in modo uniforme più righe di dati e riepiloga più righe di dati in un'unica riga

GROK: normale plug-in di acquisizione

Utilizza la segmentazione dei frammenti di testo per segmentare gli eventi del registro, che sono suddivisi in regole regolari integrate e regole regolari personalizzate.

Chiamata all'espressione regolare incorporata: % (espressione regolare incorporata: nome campo)
 

Chiamata all'espressione regolare personalizzata: (?<nome campo>espressione regolare personalizzata)

         

multilinea: unifica più righe di dati e riepiloga più righe di dati in un'unica riga

pattern (corrisponde alle linee tramite espressione regolare)
negate(false|true, se negare. False significa non negare e le righe che corrispondono all'espressione regolare verranno unite in base all'impostazione di cosa
vero significa negazione e le righe corrispondenti all'espressione regolare non verranno unite in base all'impostazione di cosa)
cosa(precedente|successivo, precedente significa unione verso l'alto, successivo significa unione verso il basso

date: Unifica il formato del timestamp @timestamp degli eventi di log raccolti da logstash con l'orario di stampa effettivo del log.

1. Configurare innanzitutto il plug-in grok per separare i campi dell'ora di registro e dell'ora di stampa.
2. Utilizzare la corrispondenza nella configurazione del plug-in della data per far corrispondere il formato dell'ora del campo dell'ora del registro.
3. Quindi utilizzare target per l'output nel campo @timestamp per unificare il formato dell'ora.
 

Distribuzione Filebeat ottimizzata per ELK

indirizzo dell'hostnomeServire
192.168.73.80es01ricerca elastica
192.168.73.100es02ricerca elastica
192.168.73.110es03ricerca elastica
192.168.73.120ngixn01nginx kibana
192.168.73.130FILEfilebeat di ngixn

Installa NGINX

  1. cd /etc/yum.repos.d/
  2. 上传nginx.repo文件
  3. yum install -y nginx
  4. systemctl enable --now nginx
  5. cd /usr/share/nginx/html
  6. #准备测试页面
  7. echo '<h1>this is web page</h1>' > test.html
  8. echo '<h1>this is web2 page</h1>' > test1.html

Installa Filebeat

  1. 上传软件包 filebeat-6.7.2-linux-x86_64.tar.gz 到/opt目录
  2. tar xf filebeat-6.7.2-linux-x86_64.tar.gz
  3. mv filebeat-6.7.2-linux-x86_64 /usr/local/filebeat

Imposta il file di configurazione principale di filebeat

  1. cd /usr/local/filebeat
  2. cp filebeat.yml filebeat.yml.bak
  3. vim filebeat.yml
  4. filebeat.inputs:
  5. - type: log #指定 log 类型,从日志文件中读取消息
  6. enabled: true #24
  7. paths:
  8. - /var/log/nginx/access.log #28行指定监控的日志文件
  9. - /var/log/nginx/error.log
  10. tags: ["filebeat"] #设置索引标签
  11. fields: #46行可以使用 fields 配置选项设置一些参数字段添加到 output
  12. service_name: nginx
  13. log_from: 192.168.73.130
  14. --------------output-------------------
  15. (全部注释掉)
  16. ----------------Logstash output---------------------
  17. output.logstash: #162
  18. hosts: ["192.168.73.120:5044"] #164行指定 logstash 的 IP 和端口

Modifica la configurazione di Logstash

  1. cd /etc/logstash/conf.d
  2. vim filebeat.conf
  3. input {
  4. beats {
  5. port => "5044"
  6. }
  7. }
  8. #filter {}
  9. output {
  10. elasticsearch {
  11. hosts => ["192.168.73.80:9200", "192.168.73.100:9200", "192.168.73.110:9200"] #集群els地址
  12. index => "nginx-%{+yyyy.MM.dd}"
  13. }
  14. }
  15. logstash -t -f filebeat.conf #检查文件

Avvia il filebeat di configurazione

192.168.73.130

Avvia ./filebeat -e -c filebeat.yml

Avvia logstash

192.168.73.120

Avvia logstashlogstash -f filebeat.conf