リバースプロキシとNginxによるロードバランシング

1 Star2 Stars3 Stars4 Stars5 Stars (まだ評価されていません)
Loading...

基本的に、あなたはインターネットプロジェクトを開発するためにnginxを使用しなければなりません。以下はnginxの要約です。

Ngnixは、ロシアが開発した軽量のWebサーバーであり、メモリの消費量が少なく、同時処理能力が高いという利点があります。現在、中国のインターネットプロジェクトの多くはngnixを使用しています。

コア機能:要求を分散する。 配布要求はnginxの中核的機能です。これは、ngnixリバースプロキシとロードバランシングを実装するための前提条件です。

一般にプロジェクトでは、ngnixを使用して2つの機能

httpサーバとしてのNgnix

イメージサーバーや静的ページなどのリモートサーバーリソースをロードする場合、ブラウザーはこれらの静的リソースに直接アクセスすることはできず、httpプロトコルに従わなければなりません。
Ngnixは、これらのリモートサーバーリソースへのアクセスをhttpプロトコルに従ってhttpサーバーとして実装できます。

リバースプロキシサーバーとしてのNgnix

フォワードプロキシでは、中間プロキシサーバーがクライアントに表示され(通常はクライアントの構成が必要です)、クライアントはプロキシサーバー経由でリモートサーバーにアクセスします。
リバースプロキシはクライアントには表示されません。通常、リモートサーバーにバインドされています。ユーザーは要求を送信するだけです。リモートサーバーにアクセスするプロキシがあるかどうかわかりません。

負荷分散のためのNgnix

負荷分散:すべての要求を各サーバーに均等に分散します。
役割:リバースプロキシサーバーとしての実装を通じて、クラスタプロジェクトで使用する必要があります。これにより、プロジェクトの同時アクセスとフォールトトレランスが向上し、プロジェクトの高可用性と高い並行性が実現します。

Ngnix実行プロセス

ngnix根目录结构
conf:核心配置文件
html:静态资源
sbin:执行命令文件

confディレクトリには、ngnix.confファイルがあります。このファイルはngnixのコア構成ファイルで、ngnixサービスポート、ロケーション範囲リソースのパス、ngnixが起動するとngnixのデフォルトの構成ファイルになりますリバースプロキシとロード機能の設定も、このファイルを設定することで実装されます。

Ngnixはリバースプロキシと負荷分散の設定例を実装しています

ngnixの設定はconfディレクトリにngnixを設定することです。 Conf設定ファイル。
2つの異なるサーバーリバースエージェントを実装する

worker_processes  1;
events {
worker_connections  1024;
}
http {
include       mime.types;
default_type  application/octet-stream;
sendfile        on;
keepalive_timeout  65;
upstream e3mall{
server 192.168.66.66:9001;
}
upstream jd{
server 192.168.66.66:9000;
}
server {
listen       80;
server_name  www.e3mall.cn;
location / {
#root   html;
#index  index.html index.htm;
proxy_pass http://e3mall;
}
error_page   500 502 503 504  /50x.html;
location = /50x.html {
root   html;
}
}
server {
listen       80;
server_name  www.jd.com;
location / {
#root   html-81;
#index  index.html index.htm;
proxy_pass http://jd;
}
error_page   500 502 503 504  /50x.html;
location = /50x.html {
root   html;
}
} 
}

サーバは、プロキシアドレスproxy_pass http:// e3mallを宣言しており、その後、上流のe3mall {}を介して実際のIPアドレスを設定しています。

ロードバランシング

worker_processes  1;
events {
worker_connections  1024;
}
http {
include       mime.types;
default_type  application/octet-stream;
sendfile        on;
keepalive_timeout  65;
upstream e3mall{
server 192.168.66.66:9000 weight=2;
server 192.168.66.66:9001 weight=1;
server 192.168.66.66:9002 weight=1;
}
server {
listen       80;
server_name  www.e3mall.cn;
location / {
#root   html;
#index  index.html index.htm;
proxy_pass http://e3mall;
}
error_page   500 502 503 504  /50x.html;
location = /50x.html {
root   html;
}
}   
}

まず、リバースプロキシproxy_pass http:// e3mallを使用して、上流のe3mall {}を介していくつかのサーバーIPアドレスの負荷分散を設定します。重みは配信要求の割合を示します。要求をポーリング方式で配布するために書き込みます。


1 Star2 Stars3 Stars4 Stars5 Stars (まだ評価されていません)
Loading...
      この投稿は審査処理中  | 元のサイトへ