Имбирь - твой спиритический овощ. Войти !bnw Сегодня Клубы
Привет, TbI — HRWKA! 1239.1 пользователей не могут ошибаться!
?6946
прекрасное6443
говно5907
говнорашка5512
хуита4716
anime3066
linux2654
music2636
bnw2602
рашка2565
log2357
ололо2179
дунч1834
pic1815
сталирасты1491
украина1439
быдло1437
bnw_ppl1422
дыбр1238
гімно1158

https://nginx.org/ru/docs/stream/ngx_stream_ssl_preread_module.html Сегодня я обнаружил, что при должной всратости из nginx можно сделать sniproxy, sslh и ещё некоторую хтонь.
#0I7AZO (4) / @stiletto / 920 дней назад
Тем временем рамблер пытается отжать nginx. // На самом скорее просто чтобы откупились
#GZ4E8U (3+2) / @stiletto / 1840 дней назад
подскажите какой пиздатый и современный мануал по настройке веб-сервера с похапэ для хостинга. чтобы у каждого юзера отдельный процесс был, права доступа и т.д.
#T7ZEG6 (5) / @anonymous / 2474 дня назад

ngx-export — nginx module for sourcing and running haskell code in config files.

#DCIPSO (0+2) / @minoru / 3149 дней назад

proxy_pass http://host:port; и proxy_pass http://host:port/; — это две большие разницы. Во втором случае текущий location не будет дописан к uri

#KY2CQ1 (0+1) / @hirthwork / 3320 дней назад

Прочитал тут: http://www.opennet.ru/opennews/art.shtml?num=41903 и возник вопрос, а зачем операции с файлами они выносят в отдельный пул потоков, если эти операции, так же как и работу с сокетами можно сделать неблокирующимися?

#S5JN2J (29+1) / @hirthwork / 3564 дня назад

Боги нжинкса, а из-за чего может быть такая пепяка в error.log?

no live upstreams while connecting to upstream

Нет, не потому что я мудак, ибо:
1. Апстрим один, локальный, в tcpdump никаких попыток коннекта к нему нет
2. В лимит коннектов тоже не могли упереться, ибо за две секунды до этого обменялись FIN-ACK'ами c апстримом
3. Просто не хочется думать о плохом

#59GUPN (7) / @hirthwork / 3590 дней назад

В1. Вы настроили nginx кэшировать тело POST-запроса, но на любое тело отдаётся закэшированный результат от первого запроса?
О1. Вам нужно использовать $request_body в proxy_cache_key. Например, так: proxy_cache_key "$request_uri\n$request_body";

В2. На запросы с большим (десятки кб) телом вы получаете 500 Internal Server Error?
О2. Вам нужно задать временную директорию для сохранения тела запроса. Например, так: client_body_temp_path /tmp/nginx/body_temp_cache 1 2;

В3. Теперь на большие запросы с разным телом отдаётся закэшированный результат первого запроса?
О3. Вы можете прочитать историю целиком, но если в кратце, то если дело дошло до сохранения тела на диск, то в $request_body оказывается пустота. Зато в $request_body_file оказывается путь к файлу и такие запросы можно пустить в обход кэша: proxy_no_cache $request_body_file; Чтобы увеличить размер тела для которого кэширование будет выполняться, нужно поправить два параметра: client_body_buffer_size 64k; proxy_buffer_size 64k;

Кэшируйте и процветайте!

#7TTPWQ (12) / @hirthwork / 3610 дней назад

собираюсь на nginx включить кэширование POST-запросов (GET-запросы уже кэширую). В теле запроса будет пара килобайт json'а. кто-нибудь, расскажите мне какой я мудак и почему

#NK9GL2 (2) / @hirthwork / 3624 дня назад

Избавился от костылей для чтения rss из i2p. Добавил в nginx перенаправление всех запросов на 127.0.0.1:80 в похапэскрипт, который все i2p запросы заворачивает в i2p-проксю:

        server {
            listen 127.0.0.1;

            root /var/www/localhost/htdocs;

            rewrite ^(.*)$ /i2p-proxy.php break;

            location / {
                proxy_read_timeout 5m;
                include fastcgi.conf;
                fastcgi_index i2p-proxy.php;
                fastcgi_pass 127.0.0.1:9000;
            }
        }

Ну и прописал саму проксю в /var/www/localhost/htdocs/tt-rss/config.php:
define('_CURL_HTTP_PROXY', '127.0.0.1:80');

Теперь rss-фиды из i2p добавляются точно так же как фиды из большого интернета, и, при этом, грузятся фавиконки и всякое

#8YAJG5 (0) / @hirthwork / 3630 дней назад

объясните нубу, как избавиться от дубликации конфига тута вот:
```nginx
server {
listen 10.100.0.1;
server_name *.i2p;

        root /var/www/localhost/htdocs;

        rewrite ^(.*)$ /i2p-proxy.php break;

        location / {
            proxy_read_timeout 5m;
            include fastcgi.conf;
            fastcgi_index i2p-proxy.php;
            fastcgi_pass 127.0.0.1:9000;
        }
    }

    server {
        listen 127.0.0.1;

        root /var/www/localhost/htdocs;

        rewrite ^(.*)$ /i2p-proxy.php break;

        location / {
            proxy_read_timeout 5m;
            include fastcgi.conf;
            fastcgi_index i2p-proxy.php;
            fastcgi_pass 127.0.0.1:9000;
        }
    }
как видно, две секции отличаются только listen и наличием/отсутствием server_name
#9DR42A (6) / @hirthwork / 3630 дней назад

поделитесь кто-нибудь примером конфига nginx, который бы служил обычной кэширующей проксёй для хождения в интернеты, типа сквида. а то поднимать на одной машине и нжинкс и сквид не хочется, а нагуглить работающий конфиг у меня что-то не получается никак

#6OX9BF (6) / @hirthwork / 3630 дней назад

очередной (костыль)[https://gist.github.com/hirthwork/f07b4a4d2a3245500b53], чтобы tt-rss на впске читал rss с i2p-сайтов. Приходится каждый раз править конфиг и добавлять в tt-rss новые фиды как http://127.0.0.1:82/rss20.xml, но хоть какое-то решение

#4SEEV5 (10+1) / @hirthwork / 3651 день назад

Буду краток: теперь я с телефона открываю адреса вида http://tracker2.postman.i2p
Как этого добился:
1. С телефона коннекчусь к vpn на vps. Ключевой момент в конфиге openvpn это пробрасывание DNS на клиент:
push "dhcp-option DNS 10.100.0.1"
2. Далее делаем резолвинг i2p на этот же хост в конфиге dnsmasq:
address=/.i2p/10.100.0.1
3. Там же висит nginx с таким вот сервером (этот же nginx tt-rss обслуживает):
```
server {
listen 10.100.0.1;
server_name *.i2p;

root /var/www/localhost/htdocs;

rewrite ^(.*)$ /i2p-proxy.php break;

location / {
    include fastcgi.conf;
    fastcgi_index i2p-proxy.php;
    fastcgi_pass 127.0.0.1:9000;
}

}
``
4. Финальный аккорд — сам i2p-proxy.php, который делает так:
$url = 'http://' . $_SERVER['HTTP_HOST'] . $_SERVER['REQUEST_URI'];`. Вот он целиком:

<?php
session_start();
ob_start();

$url = 'http://' . $_SERVER['HTTP_HOST'] . $_SERVER['REQUEST_URI'];

// Open the cURL session
$curlSession = curl_init();

curl_setopt($curlSession, CURLOPT_URL, $url);
curl_setopt($curlSession, CURLOPT_HEADER, 1);
curl_setopt($curlSession, CURLOPT_PROXY, '10.100.0.1:4444');
#curl_setopt($curlSession, CURLOPT_HTTPHEADER,
#    array('Host: ' . $_SERVER['HTTP_HOST']));


if($_SERVER['REQUEST_METHOD'] == 'POST'){
        $postinfo = '';
        foreach($_POST as $key=>$value) {
                $postinfo .= $key.'='.urlencode($value).'&';
        }
        rtrim($postinfo,'&');

        curl_setopt ($curlSession, CURLOPT_POST, 1);
        curl_setopt ($curlSession, CURLOPT_POSTFIELDS, $postinfo);
}

curl_setopt($curlSession, CURLOPT_RETURNTRANSFER,1);
curl_setopt($curlSession, CURLOPT_TIMEOUT,300);

//Send the request and store the result in an array
$response = curl_exec ($curlSession);

// Check that a connection was made
if (curl_error($curlSession)){
        // If it wasn't...
        print curl_error($curlSession);
} else {
        $ar = explode("\r\n\r\n", $response, 2);

        $header = $ar[0];
        $body = $ar[1];

        //handle headers - simply re-outputing them
        $header_ar = explode("\r\n",$header);
        foreach($header_ar as $header){
                $header = trim($header);
                if(!preg_match("/^Transfer-Encoding/",$header)){
                        header($header);
                }
        }

        print $body;
}

curl_close ($curlSession);
?>

Пока не знаю нахуя, но уже дважды кончил от собственной охуенности.

#XO4BOU (12) / @hirthwork / 3698 дней назад
http://rny.io/nginx/postgresql/2013/07/26/simple-api-with-nginx-and-postgresql.html > Sometimes it’s overkill to use a web framework if you only need to develop a very simple REST API. It turns out that Nginx can be used to develop a full fledged REST API and PostgreSQL can easily be used for persistence.
#TJEBTY (2) / @stiletto / 3712 дней назад
продолжение #VMBUDS tl;dr: Существование Б-га не доказано. Ровно как и существование хэш-коллизий в продакшене Анализ: Если бы у меня была хэш-коллизия в кэше, то nginx бы отдал ответ мгновенно (там 20 КБ). Однако же время выполнения запроса было больше шести секунд (вчера ещё раз проявилась проблема, и там вообще семь секунд nginx думал). Да в и логе написано `[proxy (-) : 127.0.0.1:8081 6.368 200 ]`, а не proxy (HIT). Но факт остаётся фактом, я сам всё это видел — nginx отдал на POST запрос (которые у меня не кэшируются), данные от закэшированного GET запроса (абсолютно с другим uri). Как это дальше это говно дебажить?
#6TU4OY (2) / @hirthwork / 3718 дней назад
огрёб хэш-коллизию
#VMBUDS (37) / @hirthwork / 3719 дней назад
> 768 worker_connections are not enough lol
#567F47 (3) / @kb / 3758 дней назад

всё утро фиксишь багу в nginx-1.4.7 @ оказывается, что в nginx-1.6.0 она уже починена

#C9MQFI (6) / @hirthwork / 3864 дня назад
ipv6 ready BnW для ведрофона BnW на Реформале Викивач Котятки

Цоперайт © 2010-2016 @stiletto.