nginx uwsgi websockets 502 Плохое соединение вверх по течению преждевременно закрытого соединения при чтении заголовка ответа от восходящего потока
Я уже несколько дней стучаю головой по этому вопросу и, наконец, достиг кирпичной стены.
Я пытаюсь запустить мой стек:
http://django-websocket-redis.readthedocs.org/en/latest/running.html#django-with-websockets-for-redis-behind-nginx-using-uwsgi
Я смотрел на некоторые другие статьи SO, подобные этой:
nginx - настройка uWSGI HTTP + websocket
У них, похоже, есть аналогичная проблема, с которой я сталкиваюсь, но решение не работает для меня.
В основном, я постоянно сталкиваюсь с экраном nginx 502 bad gateway, когда я пытаюсь запустить мои процессы uWSGI. У меня есть два отдельных процесса uwsgi, выполняемых в соответствии с инструкциями в документации.
Когда я запускаю экземпляр uwsgi websocket, я получаю следующее:
*** running gevent loop engine [addr:0x487690] ***
[2015-05-27 00:45:34,119 wsgi_server] DEBUG: Subscribed to channels: subscribe-broadcast, publish-broadcast
который говорит мне, что экземпляр uwsgi работает нормально. Затем я запускаю свой следующий uwsgi-процесс и журналы ошибок там...
Когда я перехожу к странице в браузере, страница с зависанием в течение нескольких секунд, прежде чем получить 502 Bad Gateway Screen.
Согласно журналам NGINX, NGINX говорит:
2015/05/26 22:46:08 [error] 18044#0: *3855 upstream prematurely closed connection while reading response header from upstream, client: 192.168.59.3, server: , request: "GET /chat/ HTTP/1.1", upstream: "uwsgi://unix:/opt/django/django.sock:", host: "192.168.59.103:32768"
Это единственный журнал ошибок, который я получаю при попытке доступа к странице в веб-браузере.
Любые идеи кто-нибудь???
Ниже приведены некоторые из моих конфигурационных файлов:
nginx.conf
user www-data;
worker_processes 4;
pid /run/nginx.pid;
events {
worker_connections 768;
}
http {
##
# Basic Settings
##
sendfile on;
tcp_nopush on;
tcp_nodelay on;
keepalive_timeout 65;
types_hash_max_size 2048;
# server_tokens off;
# server_names_hash_bucket_size 64;
# server_name_in_redirect off;
include /etc/nginx/mime.types;
default_type application/octet-stream;
##
# SSL Settings
##
ssl_protocols TLSv1 TLSv1.1 TLSv1.2; # Dropping SSLv3, ref: POODLE
ssl_prefer_server_ciphers on;
##
# Logging Settings
##
access_log /var/log/nginx/access.log;
error_log /var/log/nginx/error.log;
##
# Gzip Settings
##
gzip on;
gzip_disable "msie6";
# gzip_vary on;
# gzip_proxied any;
# gzip_comp_level 6;
# gzip_buffers 16 8k;
# gzip_http_version 1.1;
# gzip_types text/plain text/css application/json application/javascript text/xml application/xml application/xml+rss text/javascript;
##
# Virtual Host Configs
##
include /etc/nginx/conf.d/*.conf;
include /etc/nginx/sites-enabled/django.conf;
}
У меня есть следующий файл django.conf, который расширяет nginx.conf
upstream django {
server unix:/opt/django/django.sock;
}
server {
listen 80 default_server;
charset utf-8;
client_max_body_size 20M;
sendfile on;
keepalive_timeout 0;
large_client_header_buffers 8 32k;
location /media {
alias /opt/django/app/media/media;
}
location /static {
alias /opt/django/app/static;
}
location / {
include /opt/django/uwsgi_params;
}
location /ws/ {
proxy_http_version 1.1;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection "upgrade";
proxy_pass http://unix:/opt/django/app.sock;
proxy_buffers 8 32k;
proxy_buffer_size 64k;
}
}
И два файла, которые отвечают за мои процессы uwsgi, следующие:
runserver_uwsgi.ini:
[uwsgi]
ini = :runserver
[default]
userhome = /opt/django
chdir = %dapp/
master = true
module = chatserver.wsgi:application
no-orphans = true
threads = 1
env = DJANGO_SETTINGS_MODULE=myapp.settings
vacuum = true
[runserver]
ini = :default
socket = /opt/django/app.sock
module = wsgi_django
buffer-size = 32768
processes = 4
chmod-socket=666
и wsserver_uwsgi.ini
[uwsgi]
ini = :wsserver
[default]
userhome = /opt/django
chdir = %dapp/
master = true
module = chatserver.wsgi:application
no-orphans = true
threads = 1
env = DJANGO_SETTINGS_MODULE=chatserver.settings
vacuum = true
[wsserver]
ini = :default
http-socket = /opt/django/django.sock
module = wsgi_websocket
http-websockets = true
processes = 2
gevent = 1000
chmod-socket=666
Ответы
Ответ 1
Я нашел проблему.
Мой сокет [runningerver] (app.sock) должен указываться под upstream django
а мой [wsserver] сокет (django.sock) должен указываться в location/ws/
like so:
upstream django {
server unix:/opt/django/app.sock;
}
server {
listen 80 default_server;
charset utf-8;
client_max_body_size 20M;
sendfile on;
keepalive_timeout 0;
large_client_header_buffers 8 32k;
location /media {
alias /opt/django/app/media/media;
}
location /static {
alias /opt/django/app/static;
}
location / {
include /opt/django/uwsgi_params;
}
location /ws/ {
proxy_http_version 1.1;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection "upgrade";
proxy_pass http://unix:/opt/django/django.sock;
proxy_buffers 8 32k;
proxy_buffer_size 64k;
}
}
Ответ 2
У меня была та же проблема, но это была не моя конфигурация NGINX, это были мои процессы UWSGI, вызывающие ошибки тайм-аута, когда я отправлял JSON с клиентской стороны на сервер. У меня были процессы как 5, я изменил его на 1, и это решило проблему. Для моего приложения мне нужно было запустить только 1 процесс, поскольку AWS не нужно было перегружать несколькими процессами.
Вот рабочий INI файл конфигурации UWSGI, который решил проблему тайм-аута и, таким образом, проблему шлюза 502.
autoboot.ini
#!/bin/bash
[uwsgi]
socket = /tmp/app.sock
master = true
chmod-socket = 660
module = app.wsgi
chdir = home/app
close-on-exec = true # Allow linux shell via uWSGI
processes = 1
threads = 2
vacuum = true
die-on-term = true
Здесь мой конфиг nginx тоже.
nginx.conf
# the upstream component nginx needs to connect to
upstream django {
server unix:///app/tmp/app.sock; # for a file socket
# server 127.0.0.1:6000; # for a web port socket (we'll use this first)
}
# configuration of the server
server {
# the port your site will be served on
listen 80;
# the domain name it will serve for
server_name XXX.XXX.XX.X #actual IP in here
charset utf-8;
# max upload size
client_max_body_size 75M; # adjust to taste
error_log /var/log/nginx/error.log;
access_log /var/log/nginx/access.log;
# Finally, send all non-media requests to the Django server.
location / {
uwsgi_pass django;
include uwsgi_params;
}
location /static {
autoindex on;
alias app/static; # your Django project static files - amend as required
}
error_page 502 /502.html;
location = /502.html {
alias app/templates/502autoreload.html;
}
client_body_timeout 100s;
uwsgi_read_timeout 500s;
keepalive_timeout 300;
}
Ответ 3
У меня была похожая проблема, когда под нагрузкой я начинаю получать 502 обратно от uWSGI.
Короче говоря, убедитесь, что вы используете HTTP/1.1
, используете --http11-socket
и используете uWSGI=2.0.16
или новее.
http/1.1 делает постоянное соединение по умолчанию. Я обнаружил, что 502 происходит, когда очередь прослушивания растет и соединения начинают прерываться. Посмотрите на мою статью для всей истории
https://wontonst.blogspot.com/2019/06/squishing-performance-bug-in.html