Partage de technologie

Proxy direct et proxy inverse nginx

2024-07-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Proxy direct et proxy inverse nginx

Configuration du proxy de transfert et du cache :
Proxy : Le client n'accède plus directement au serveur, mais accède au serveur via un serveur proxy.

Forward proxy : Face au client, on accède au serveur cible via l'adresse IP du serveur proxy.
Le serveur ne connaît que l'adresse du serveur proxy et la véritable adresse IP du client peut être masquée. (Internet scientifique)

Insérer la description de l'image ici

Insérer la description de l'image ici

Définissez la zone tampon sur 256 et la taille sur 4K
taille_max_du_fichier_temp_proxy 0
#Lorsque le serveur nginx sert de proxy, la taille maximale du fichier temporaire pour stocker temporairement les données de réponse est de 0. 0 signifie qu'aucun fichier temporaire n'est utilisé.
proxy_cache_valide 200 302 1m;
#Lorsque le code d'état est 200 et 302, la période de validité du cache est d'une minute.
proxy_cache_valide 301 1h;
#Lorsque le code d'état est 301, la durée de validité du cache est de 1 heure
proxy_cache_valid tout 1m ;
#En plus des valeurs de retour du code d'état ci-dessus, les autres durées de stockage du cache sont de 1 min ;
)

server {
        listen       8888;
        server_name  localhost;
        resolver 8.8.8.8 valid=300 ipv6=off;
        #设置dns解析地址,解析器的缓存时间300秒,每300秒重新解析一次,关闭ipv6
        resolver_timeout 3s;
        #解析超时的时间3秒
        proxy_read_timeout 30s;
        #读取代理服务器的超时时间,30s,默认是60s.
        proxy_send_timeout 30s;
        #向服务端发送数据的超时时间是30s,默认是60s.
        proxy_connect_timeout 30s;
        #和服务器建立连接的超时时间,30s,默认也是60s
        charset utf-8;

        #access_log  logs/host.access.log  main;

        location / {
            root   html;
            index  index.html index.htm;
            proxy_pass  $scheme://$http_host$request_uri;
            proxy_set_header Host $http_host;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
            proxy_set_header X-Forwarded-Proto $scheme;
            proxy_set_header X-Forwarded-Host $host;
            proxy_set_header X-Forwarded-Port $server_port;
            #需要把客户端的真实ip,客户端的主机名,客户端的请求方式,服务端的端口,真实的ip地址添加在请求头当中
           # 请求转发到$url的地址,通过代理服务器地址可以直接访问百度 http://$url:端口
           # 设置页面的缓存:
            proxy_buffers 256 4k;
           #设置缓冲区为256个,大小是4k
            proxy_max_temp_file_size 0;
           # nginx服务器做为代理的时候暂时存放的响应数据的最大临时文件的大小为0,不使用临时文件
            proxy_cache_valid 200 302 1m;
           #当状态吗是200和302时,缓存的有效期是1分钟
            proxy_cache_valid 301 1h;
           #当状态吗是301,缓存的有效期是1小时
            proxy_cache_valid any 1m;
           #除了上述的三个状态吗,其他的缓存保存时间1分钟。

        }
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42

proxy inverse

Pour le proxy direct, nous connaissons l'adresse du serveur proxy et le serveur Web auquel nous accédons.

Dans le proxy inverse, le client accède toujours à l'adresse du proxy, mais nous ne savons pas à quel serveur Web spécifique il accède :
Fonction : Distribuez les requêtes à plusieurs serveurs backend pour partager la charge du serveur et assurer la disponibilité et la stabilité du système.
accélération du cache
Protection de sécurité

La différence entre les proxys de couche quatre et de couche sept
Proxy de transfert, serveur et emplacement du module http
Le module http est configuré avec sept couches

La septième couche est la couche application, qui utilise le protocole http et peut demander l'analyse et le traitement. Le proxy de la septième couche utilise le mode utilisateur, les protocoles d'application et les fonctions du programme.
La vitesse de traitement de la couche sept est relativement lente, mais elle peut fournir des fonctions plus avancées et une meilleure expérience utilisateur.
Il peut s'agir soit d'un nom de domaine, soit d'une IP+port

La quatrième couche est la couche de transport, IP + port. La requête est transmise au backend. La requête ne peut pas être analysée et traitée en profondeur. Elle transmet uniquement le trafic de la requête.
Le transfert à quatre couches est dans l'état du noyau, avec un traitement et un transfert du noyau, ce qui est plus rapide.
Scénario d'application : le proxy à sept couches fournit généralement un accès externe et doit traiter les demandes. Contient la sécurité, le filtrage et le contrôle de flux.
Le proxy à quatre couches, généralement utilisé en interne, ne nécessite pas de traitement particulier du trafic et des requêtes.

Proxy inverse = équilibrage de charge
Méthode de configuration :
La septième couche ne peut être écrite que dans le module http, et la commande est en amont. Elle ne peut être écrite que dans le grand module de http, et ne peut pas être écrite sur le serveur ou l'emplacement.
La quatrième couche ne peut être écrite que dans la configuration globale, pas dans le flux du module http

Insérer la description de l'image ici

test2 192.168.11.137 proxy : configurer le proxy inverse
test3 192…168.11.138 serveur d'arrière-plan
test4 192.168.11.139 serveur d'arrière-plan
Client : Google Chrome

Algorithme d'équilibrage de charge :
1. Sondage à la ronde rr : L'algorithme d'interrogation est l'algorithme le plus simple et le plus basique, et c'est également l'algorithme par défaut. Les requêtes sont à leur tour distribuées aux serveurs backend.
L'algorithme d'interrogation convient aux situations dans lesquelles les capacités de traitement du serveur principal sont les mêmes.Et lorsque le nombre de visites n’est pas important, l’algorithme par défaut peut être omis.

2. Interrogation pondérée : en fonction de l'interrogation, définissez des pondérations différentes pour chaque serveur principal. La répartition du trafic n'est pas nécessairement basée sur le rapport poids.
Ceux qui ont un poids élevé ont une probabilité plus élevée d'être interrogés, tandis que ceux qui ont un poids faible ont une probabilité plus faible.

Les performances des serveurs back-end sont différentes. Si les performances sont élevées, le poids sera plus élevé. Si les performances sont faibles, le poids sera inférieur.
poids

http {

upstream xy102 {
       server 192.168.11.138 weight=3;
       server 192.168.11.139 weight=2;

    }
}

 server {
        listen       80;
        server_name  localhost;
        location / {
            root   html;
            index  index.html index.htm;
            proxy_pass http://xy102;
        }
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17

3. Algorithme du nombre minimum de connexions, utilisé avec pondération
least_conn enverra la requête au serveur backend avec moins de connexions actuelles.
Lorsque les serveurs back-end effectuent des tâches de traitement différentes, cela peut empêcher les requêtes d'être concentrées sur des serveurs dotés de capacités de traitement plus puissantes.

4. Comment maintenir une session avec ip_hash* ?

ip_hash calcule la valeur de hachage de l'adresse IP du client en fonction de l'algorithme, puis transmet la demande au serveur répondant.
Lors du premier accès au site Web, la valeur de hachage sera calculée et la demande sera attribuée à un serveur. Cependant, si le client accède à nouveau au site Web en utilisant la même adresse IP la prochaine fois, elle ne sera pas attribuée à un autre serveur. serveurs à moins que l'algorithme du serveur principal ne change ou que le serveur d'arrière-plan envoie des modifications, ce qui modifiera le serveur accédé.
**Scénario d'utilisation : concurrence élevée** Si le client entre et fait tourner constamment le serveur, cela augmentera la charge sur le serveur. Fixé sur un serveur, cela réduit non seulement la pression sur le serveur proxy, mais économise également des ressources.

Comment maintenir une session dans nginx ?
ip_hash peut atteindre la persistance de la session
Configurez la session dans la page dynamique sessionc.

5. URL_hash adresse la valeur de hachage en fonction de l'adresse URL demandée, puis la transmet si l'URL demandée est la même à chaque fois, elle sera attribuée au même serveur. Si l'adresse transférée change, le serveur backend efface le cache ou. le nombre de serveurs backend change.

http {
upstream xy102 {
        hash $request_uri consistent;
       server 192.168.11.138 weight=4;
       server 192.168.11.139 weight=2;

    }
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

Les éléments ci-dessus sont tous utilisés dans la septième couche. Il n'y a pas d'algorithme ip_hash et url_hash dans la quatrième couche.

expérience:

                                     基于域名实验负载均衡

给每个主机设置服务域名,去/etc/hosts中进行域名映射,重启nginx服务,进入虚拟机测试。
test2  192.168.11.137   客户端  www.xy33.com
test3 192..168.11.138   后台服务器  www.xy11.com
test4  192.168.11.139   后台服务器  www.xy22.com


[root@test2 conf]# vim nginx.conf
http {
    include       mime.types;
    default_type  application/octet-stream;
    sendfile        on;
    keepalive_timeout  65;
     upstream xy102 {
       server www.xy11.com weight=4;
       server www.xy22.com weight=2;

    }
    
    server {
        listen       80;
        server_name  www.xy33.com;
        }
[root@test2 conf]# vim /etc/hosts       
192.168.11.137   www.xy33.com
192.168.11.138   www.xy11.com
192.168.11.139   www.xy22.com



[root@test3 conf]# vim nginx.conf
 server {
        listen       80;
        server_name  www.xy11.com;
        }
        
[root@test3 conf]# vim /etc/hosts       
192.168.11.137   www.xy33.com
192.168.11.138   www.xy11.com
192.168.11.139   www.xy22.com


[root@test4 conf]# vim nginx.conf
 server {
        listen       80;
        server_name  www.xy22.com;
        }
        
[root@test4 conf]# vim /etc/hosts       
192.168.11.137   www.xy33.com
192.168.11.138   www.xy11.com
192.168.11.139   www.xy22.com
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53

Proxy à quatre niveaux :
La méthode de configuration ne peut être que dans le module global, il y a relativement peu d'algorithmes, cela ne peut être que ip+port

test2  192.168.11.137   客户端      192.168.11.137:81
test3 192..168.11.138   后台服务器  192.168.11.138:8081
test4  192.168.11.139   后台服务器  192.168.11.139:8082
客户端配置页面负载均衡搞的


[root@test2 conf]# vim nginx.conf
events {
    worker_connections  1024;
}
stream {
    upstream test {
     server 192.168.11.138:8081 weight=2;
    server  192.168.11.139:8082 weight=2;

   }
    server {
    listen 81;
    proxy_pass  test;
}
}



[root@test3 conf]# vim nginx.conf
    #keepalive_timeout  0;
    keepalive_timeout  65;

    #gzip  on;

    server {
        listen       8081;
        
        
[root@test4 conf]# vim nginx.conf
    #keepalive_timeout  0;
    keepalive_timeout  65;

    server {
        listen       8082;
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40

optimisation nginx
Correspondance, priorité et redirection de l'emplacement nginx
Proxy direct et proxy inverse nginx

Tomact
Tomcat, comme PHP, est utilisé pour traiter des pages dynamiques.
Tomcat peut également être utilisé comme serveur d'applications Web et est open source.
PHP gère .php
nginx.html
tomcat.jsp

Tomcat est un programme écrit en code Java et exécute une application Web Java.
Caractéristiques et fonctions de Tomcat :
1. Conteneur de service : exécutez le programme Java côté serveur du servlet Java, traitez la requête http du client et répondez.
2. Conteneur jsp Page Javasever Il s'agit d'une technologie de page dynamique qui peut également intégrer du code Java dans la page HTML.
3. C'est aussi un serveur http lui-même
4. Tomcat est une page dynamique légère et n'est pas utilisée dans les scénarios à forte concurrence.

Optimisation Tomcat : optimisation de Tomcat lui-même, ainsi que optimisation du noyau système et optimisation JVM.

**Servlet :** est un composant clé du langage Java utilisé pour développer des applications Web.
Gérez les requêtes http, produisez du contenu dynamique et répondez aux demandes des clients.
Gérer les requêtes http
Générer du contenu dynamique
Gestion de la logique métier en Java
Gestion des sessions, conservation des informations sur le statut de l'utilisateur, synchronisation du panier, connexion de l'utilisateur, etc.
Vous pouvez également transmettre les requêtes dynamiques nginx à la base de données

jsp:
L'interface de l'application web, le langage de cette interface est implémenté en Java.
Fichiers se terminant par .jsp
index.jsp

Composants Tomcat :
Connecteur : responsable de l'acceptation et de la réponse aux demandes externes. Il s'agit d'un hub de communication entre Tomcat et le client. Le port d'écoute accepte les demandes externes pour le traitement. Une fois le traitement terminé, il retourne au connecteur et répond au client.

Connecteur : responsable du traitement de la logique métier, le wrapper de contexte hôte Engin se compose de quatre fonctions
moteur : gère plusieurs hôtes virtuels. Un service n'a qu'un seul moteur et un moteur peut avoir plusieurs hôtes.
Hôte : Un hôte est un hôte, qui peut également être appelé un site. En configurant l'hôte, plusieurs sites peuvent être ajoutés.
contexte : un contexte représente une application Web
wrapper : wrapper, utilisé pour gérer la logique de niveau le plus bas

service : Fournir des services externes au monde extérieur, y compris un connecteur et un conteneur
Tomcat peut avoir plusieurs services, chaque service est indépendant les uns des autres.

Insérer la description de l'image ici

Le rôle du répertoire tomcat :
1. bin stocke les fichiers qui démarrent et arrêtent les scripts Tomcat. startup.sh arrêt.sh

2. conf stocke le fichier de configuration principal de Tomcat, le fichier de configuration principal server.xml context.xml : les informations de configuration par défaut de l'hôte
tomcat-user.xml : informations relatives à l'authentification de l'utilisateur et du mot de passe lors de la connexion. Le fichier du gestionnaire doit être autorisé et modifié avant de pouvoir être ouvert.

3. lib : package jar requis lorsque Tomcat est en cours d'exécution.généralement immobile

4. journaux : fichier journal, fichier journal principal catalina.out

5. Temp : stocke les fichiers générés lors de l'exécution de Tomcat.

6. webapps : répertoire de déploiement d'applications Web, similaire au HTML de nginx

------主要目录说明----------------------------------------------------------------------------------------------
●bin:存放启动和关闭Tomcat的脚本文件,比较常用的是 catalina.sh、startup.sh、shutdown.sh三个文件
●conf:存放Tomcat 服务器的各种配置文件,比较常用的是 server.xml、context.xml、tomcat-users.xml、web.xml 四个文件。
① server.xml: Tomcat的主配置文件,包含Service,Connector,Engine,Realm,Valve,Hosts主组件的相关配置信息;
② context.xml:所有host的默认配置信息;
③ tomcat-user.xml:Realm认证时用到的相关角色、用户和密码等信息,Tomcat自带的manager默认情况下会用到此文件,在Tomcat中添加/删除用户,为用户指|定角色等将通过编辑此文件实现;
④ web.xml:遵循Servlet规范标准的配置文件,用于配置servlet,并为所有的web应用程序提供包括MIME映射等默认配置信息;
●lib:存放Tomcat运行需要的库文件的jar 包,一般不作任何改动,除非连接第三方服务,比如 redis,那就需要添加相对应的jar 包
●logs:存放 Tomcat 执行时的日志
●temp:存放 Tomcat 运行时产生的文件
●webapps:存放 Tomcat 默认的 Web 应用部署目录
●work:Tomcat工作日录,存放jsp编译后产生的class文件,一般清除Tomcat缓存的时候会使用到
●src:存放Tomcat 的源代码
●doc:存放Tomcat文档
----------------------------------------------------------------------------------------------------------

查看manager文件:
cd /usr/local/tomcat/webapps/manager/META-INF
vim context.xml

<Context antiResourceLocking="false" privileged="true" >
  <Valve className="org.apache.catalina.valves.RemoteAddrValve"
         allow=".*" /> #允许所有主机访问。


在conf,tomcat-users.xml中,添加账户密码
<role rolename="manager-gui"/>
<user username="tomcat" password="tomcat" roles="manager-gui"/>

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
---------------------Tomcat 虚拟主机配置-------------------------
很多时候公司会有多个项目需要运行,一般不会是在一台服务器上运行多个 Tomcat 服务,这样会消耗太多的系统资源。此时, 就需要使用到 Tomcat 虚拟主机。
例如现在新增两个域名 www.kgc.com 和 www.benet.com, 希望通过这两个域名访问到不同的项目内容。

1.创建 kgc 和 benet 项目目录和文件
mkdir /usr/local/tomcat/webapps/kgc   
mkdir /usr/local/tomcat/webapps/benet
echo "This is kgc page!" > /usr/local/tomcat/webapps/kgc/index.jsp
echo "This is benet page!" > /usr/local/tomcat/webapps/benet/index.jsp

2.修改 Tomcat 主配置文件 server.xml
vim /usr/local/tomcat/conf/server.xml
--165行前--插入
<Host name="www.kgc.com" appBase="webapps" unpackWARs="true" autoDeploy="true" xmlValidation="false" xmlNamespaceAware="false">
	<Context docBase="/usr/local/tomcat/webapps/kgc" path="" reloadable="true" />
</Host>   

<Host name="www.benet.com" appBase="webapps" unpackWARs="true" autoDeploy="true" xmlValidation="false" xmlNamespaceAware="false">
	<Context docBase="/usr/local/tomcat/webapps/benet" path="" reloadable="true" />
</Host>

----------------------------------------------------------------------------------------------------------
Host name:主机名
appBase:Tomcat程序工作目录,即存放web应用程序的目录;相对路径为webapps,绝对路径为 /usr/local/tomcat/webapps
unpackWARs:在启用此webapps时是否对WAR格式的归档文件先进行展开;默认为true
autoDeploy:在Tomcat处于运行状态时放置于appBase目录中的应用程序文件是否自动进行deploy;默认为true
xmlValidation:是否验证xml文件执行有效性检验的标志
xmlNamespaceAware:是否启用xml命名空间,设置该值与xmlValidation为true,表示对web.xml文件执行有效性检验

docBase:相应的Web应用程序的存放位置;也可以使用相对路径,起始路径为此Context所属Host中appBase定义的路径;
path:相对于Web服务器根路径而言的URI;如果为空“”,则表示为此webapp的根路径 / ;
reloadable:是否允许重新加载此context相关的Web应用程序的类;默认为false
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
---------------------Tomcat 服务部署-------------------------
在部署 Tomcat 之前必须安装好 jdk,因为 jdk 是 Tomcat 运行的必要环境。
1.关闭防火墙,将安装 Tomcat 所需软件包传到/opt目录下
jdk-8u201-linux-x64.rpm
apache-tomcat-9.0.16.tar.gz

systemctl stop firewalld
systemctl disable firewalld
setenforce 0

2.安装JDK
cd /opt
rpm -ivh jdk-8u201-linux-x64.rpm 
java -version

3.设置JDK环境变量
vim /etc/profile.d/java.sh
export JAVA_HOME=/usr/java/jdk1.8.0_201-amd64
export CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar
export PATH=$JAVA_HOME/bin:$PATH

export JAVA_HOME=/usr/java/jdk1.8.0_201-amd64:
这个命令设置了一个名为JAVA_HOME的环境变量,它指向Java JDK的安装路径。
这对于告诉系统和其他应用程序Java的安装位置非常重要。你需要将路径替换为你实际安装Java的路径。

export CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar:
这个命令设置了一个名为CLASSPATH的环境变量,它用于指定Java类的搜索路径。
在这个命令中,.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar 表示当前目录(.)
以及Java工具库(tools.jar)和Java远程调试库(dt.jar)的路径。这些库通常包含一些Java开发所需的类。

export PATH=$JAVA_HOME/bin:$PATH:
这个命令将Java可执行文件的路径添加到系统的PATH环境变量中。
这使得你可以在终端中直接运行Java工具,而不需要输入完整的路径。
这将Java的bin目录添加到了PATH中,使得java、javac等命令可以直接运行。

source /etc/profile.d/java.sh
java -version

----------------------------------------------------------------------------------------------------------
CLASSPATH:编译、运行Java程序时,JRE会去该变量指定的路径中搜索所需的类(.class)文件。
dt.jar:是关于运行环境的类库,主要是可视化的 swing 的包。
tools.jar:主要是一些jdk工具的类库,包括javac、java、javap(jdk自带的一个反编译工具)、javadoc等。
JDK (Java Development Kit):JDK是Java开发工具包,它是用于开发Java应用程序的软件包。
JDK包括了编译器(javac)、调试器、各种工具、Java标准类库(Java API)、以及Java文档等。
JDK是开发者用来创建、编译和运行Java应用程序的重要组件。

JRE (Java Runtime Environment):JRE是Java运行时环境,它是用于执行Java应用程序的部分。
JRE包括了Java虚拟机(JVM)以及Java类库(Java API),这使得用户能够在计算机上运行已编译的Java程序,
而不需要进行开发。JRE是终端用户需要安装的部分,以便能够运行Java应用程序。

JVM (Java Virtual Machine):JVM是Java虚拟机,它是Java应用程序在计算机上运行的核心组件。
JVM负责将编译后的Java字节码(.class文件)解释或编译成本地机器码,以便计算机能够执行它。
JVM提供了内存管理、垃圾回收、线程管理等功能,以确保Java程序在不同平台上具有相似的行为。
----------------------------------------------------------------------------------------------------------

首先使用文本工具编写java源代码,比如 Hello.java ;
在命令行中,输入命令:javac 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
首先使用文本工具编写java源代码,比如 Hello.java ;
在命令行中,输入命令:javac Hello.java,对源代码进行编译,生成 class 字节码文件;
编译完成后,如果没有报错信息,输入命令:java Hello,运行 class 字节码文件,由 JVM 对字节码进行解释和运行,
打印 “Hello World”。


vim Hello.java

public class Hello {			
  public static void main(String[] args){
    System.out.println("Hello world!");
  }
}

javac Hello.java
java Hello


public: 这是一个访问修饰符,表示类是公共的,可以从其他地方访问。
class: 关键字用于定义一个类。
Hello: 这是类的名称,这里是一个叫做 "Hello" 的类。


public static void main(String[] args){
public: 访问修饰符,表示这个方法是公共的,可以从其他地方访问。
static: 静态修饰符,表示这个方法属于类而不是实例,可以通过类名直接调用。
void: 这是方法的返回类型,void 表示方法没有返回值。
main: 这是方法的名称,是程序的入口点,当程序运行时会从这里开始执行。
(String[] args): 这是方法的参数列表,args 是一个字符串数组,可以在命令行传递参数给程序。

System.out.println("Hello world!");
System.out: System 是一个类,out 是这个类的一个静态成员,它代表标准输出流。
println: 这是输出方法的名称,它会在控制台输出一行内容。
"Hello world!": 这是要输出的内容,是一个字符串。

4.安装启动Tomcat
cd /opt
tar zxvf apache-tomcat-9.0.16.tar.gz
mv apache-tomcat-9.0.16 /usr/local/tomcat
##启动tomcat ##
#后台启动
/usr/local/tomcat/bin/startup.sh 
或
/usr/local/tomcat/bin/catalina.sh start
	
#前台启动
/usr/local/tomcat/bin/catalina.sh run		

netstat -natp | grep 8080

浏览器访问Tomcat的默认主页 http://192.168.233.21:8080

5.优化tomcat启动速度
第一次启动tomcat可能会发现 Tomcat 启动很慢,默认情况下可能会需要几十秒,可以修改jdk参数进行改。
vim /usr/java/jdk1.8.0_201-amd64/jre/lib/security/java.security
--117行--修改
securerandom.source=file:/dev/urandom
----------------------------------------------------------------------------------------------------------
/dev/urandom是/dev/random的非阻塞版本,/dev/random的 random pool 依赖于系统中断,因此在系统的中断数不足时,
/dev/random 设备会一直封锁,尝试读取的进程就会进入等待状态,直到系统的中断数充分够用,
/dev/random设备可以保证数据的随机性。 /dev/urandom不依赖系统的中断,也就不会造成进程忙等待,
但是数据的随机性也不高,所以该随机数的安全性理论上不高。如果应用对安全性要求很高,那么应该使用/dev/random。
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62

Tomcat démarre très lentement. Cela peut prendre des dizaines de secondes par défaut. Vous pouvez modifier les paramètres du jdk pour le changer.
vim /usr/java/jdk1.8.0_201-amd64/jre/lib/security/java.security
– Ligne 117 – Modification
securerandom.source=fichier:/dev/urandom

/dev/urandom est une version non bloquante de /dev/random. Le pool aléatoire de /dev/random repose sur les interruptions système. Par conséquent, lorsque le nombre d'interruptions système est insuffisant,
Le périphérique /dev/random sera toujours bloqué et le processus essayant de lire entrera dans l'état d'attente jusqu'à ce que le nombre d'interruptions du système soit suffisant.
Le périphérique /dev/random peut garantir le caractère aléatoire des données. /dev/urandom ne s'appuie pas sur les interruptions du système, il n'entraîne donc pas d'attente des processus.
Cependant, le caractère aléatoire des données n’est pas élevé, donc la sécurité du nombre aléatoire n’est pas théoriquement élevée. Si l'application a des exigences de sécurité élevées, /dev/random doit être utilisé.


  • 1