Имбирь - твой спиритический овощ. Войти !bnw Сегодня Клубы
Привет, TbI — HRWKA! 1053.7 пользователей не могут ошибаться! Официальная конфочка бнвача: bnw@conference.jabber.ru
?5905
говно5817
прекрасное5175
говнорашка4449
хуита3852
anime2658
linux2442
music2278
bnw2232
log2020
рашка1942
pic1860
ололо1757
быдло1421
украина1326
гімно1109
дыбр1074
роботы_не_одобряют991
сталирасты849
bnw_ppl833

подскажите какой пиздатый и современный мануал по настройке веб-сервера с похапэ для хостинга. чтобы у каждого юзера отдельный процесс был, права доступа и т.д.
#T7ZEG6 (5) / @anonymous / 38 дней назад
TIL nginx для апстримов необходимо указывать resolver 127.0.0.11 valid=30s, иначе эта пиздятина в случае обновления кластера не подхватывает новые ip'шники, пока сервис не пезднется (а он не пезднется). Называется девопс ушел в отпуск, а я выхватывай за его оркестратор!
#XO12F6 (2) / @je / 42 дня назад

ngx-export — nginx module for sourcing and running haskell code in config files.

#DCIPSO (0+2) / @minoru / 713 дней назад

proxy_pass http://host:port; и proxy_pass http://host:port/; — это две большие разницы. Во втором случае текущий location не будет дописан к uri

#KY2CQ1 (0+1) / @hirthwork / 885 дней назад

Прочитал тут: http://www.opennet.ru/opennews/art.shtml?num=41903 и возник вопрос, а зачем операции с файлами они выносят в отдельный пул потоков, если эти операции, так же как и работу с сокетами можно сделать неблокирующимися?

#S5JN2J (29+1) / @hirthwork / 1128 дней назад

Боги нжинкса, а из-за чего может быть такая пепяка в error.log?

no live upstreams while connecting to upstream

Нет, не потому что я мудак, ибо:
1. Апстрим один, локальный, в tcpdump никаких попыток коннекта к нему нет
2. В лимит коннектов тоже не могли упереться, ибо за две секунды до этого обменялись FIN-ACK'ами c апстримом
3. Просто не хочется думать о плохом

#59GUPN (7) / @hirthwork / 1154 дня назад

В1. Вы настроили nginx кэшировать тело POST-запроса, но на любое тело отдаётся закэшированный результат от первого запроса?
О1. Вам нужно использовать $request_body в proxy_cache_key. Например, так: proxy_cache_key "$request_uri\n$request_body";

В2. На запросы с большим (десятки кб) телом вы получаете 500 Internal Server Error?
О2. Вам нужно задать временную директорию для сохранения тела запроса. Например, так: client_body_temp_path /tmp/nginx/body_temp_cache 1 2;

В3. Теперь на большие запросы с разным телом отдаётся закэшированный результат первого запроса?
О3. Вы можете прочитать историю целиком, но если в кратце, то если дело дошло до сохранения тела на диск, то в $request_body оказывается пустота. Зато в $request_body_file оказывается путь к файлу и такие запросы можно пустить в обход кэша: proxy_no_cache $request_body_file; Чтобы увеличить размер тела для которого кэширование будет выполняться, нужно поправить два параметра: client_body_buffer_size 64k; proxy_buffer_size 64k;

Кэшируйте и процветайте!

#7TTPWQ (12) / @hirthwork / 1175 дней назад

собираюсь на nginx включить кэширование POST-запросов (GET-запросы уже кэширую). В теле запроса будет пара килобайт json'а. кто-нибудь, расскажите мне какой я мудак и почему

#NK9GL2 (2) / @hirthwork / 1189 дней назад

Избавился от костылей для чтения rss из i2p. Добавил в nginx перенаправление всех запросов на 127.0.0.1:80 в похапэскрипт, который все i2p запросы заворачивает в i2p-проксю:

        server {
            listen 127.0.0.1;

            root /var/www/localhost/htdocs;

            rewrite ^(.*)$ /i2p-proxy.php break;

            location / {
                proxy_read_timeout 5m;
                include fastcgi.conf;
                fastcgi_index i2p-proxy.php;
                fastcgi_pass 127.0.0.1:9000;
            }
        }

Ну и прописал саму проксю в /var/www/localhost/htdocs/tt-rss/config.php:
define('_CURL_HTTP_PROXY', '127.0.0.1:80');

Теперь rss-фиды из i2p добавляются точно так же как фиды из большого интернета, и, при этом, грузятся фавиконки и всякое

#8YAJG5 (0) / @hirthwork / 1195 дней назад

объясните нубу, как избавиться от дубликации конфига тута вот:
```nginx
server {
listen 10.100.0.1;
server_name *.i2p;

        root /var/www/localhost/htdocs;

        rewrite ^(.*)$ /i2p-proxy.php break;

        location / {
            proxy_read_timeout 5m;
            include fastcgi.conf;
            fastcgi_index i2p-proxy.php;
            fastcgi_pass 127.0.0.1:9000;
        }
    }

    server {
        listen 127.0.0.1;

        root /var/www/localhost/htdocs;

        rewrite ^(.*)$ /i2p-proxy.php break;

        location / {
            proxy_read_timeout 5m;
            include fastcgi.conf;
            fastcgi_index i2p-proxy.php;
            fastcgi_pass 127.0.0.1:9000;
        }
    }
как видно, две секции отличаются только listen и наличием/отсутствием server_name
#9DR42A (6) / @hirthwork / 1195 дней назад

поделитесь кто-нибудь примером конфига nginx, который бы служил обычной кэширующей проксёй для хождения в интернеты, типа сквида. а то поднимать на одной машине и нжинкс и сквид не хочется, а нагуглить работающий конфиг у меня что-то не получается никак

#6OX9BF (6) / @hirthwork / 1195 дней назад

очередной (костыль)[https://gist.github.com/hirthwork/f07b4a4d2a3245500b53], чтобы tt-rss на впске читал rss с i2p-сайтов. Приходится каждый раз править конфиг и добавлять в tt-rss новые фиды как http://127.0.0.1:82/rss20.xml, но хоть какое-то решение

#4SEEV5 (10+1) / @hirthwork / 1216 дней назад

Буду краток: теперь я с телефона открываю адреса вида http://tracker2.postman.i2p
Как этого добился:
1. С телефона коннекчусь к vpn на vps. Ключевой момент в конфиге openvpn это пробрасывание DNS на клиент:
push "dhcp-option DNS 10.100.0.1"
2. Далее делаем резолвинг i2p на этот же хост в конфиге dnsmasq:
address=/.i2p/10.100.0.1
3. Там же висит nginx с таким вот сервером (этот же nginx tt-rss обслуживает):
```
server {
listen 10.100.0.1;
server_name *.i2p;

root /var/www/localhost/htdocs;

rewrite ^(.*)$ /i2p-proxy.php break;

location / {
    include fastcgi.conf;
    fastcgi_index i2p-proxy.php;
    fastcgi_pass 127.0.0.1:9000;
}

}
``
4. Финальный аккорд — сам i2p-proxy.php, который делает так:
$url = 'http://' . $_SERVER['HTTP_HOST'] . $_SERVER['REQUEST_URI'];`. Вот он целиком:

<?php
session_start();
ob_start();

$url = 'http://' . $_SERVER['HTTP_HOST'] . $_SERVER['REQUEST_URI'];

// Open the cURL session
$curlSession = curl_init();

curl_setopt($curlSession, CURLOPT_URL, $url);
curl_setopt($curlSession, CURLOPT_HEADER, 1);
curl_setopt($curlSession, CURLOPT_PROXY, '10.100.0.1:4444');
#curl_setopt($curlSession, CURLOPT_HTTPHEADER,
#    array('Host: ' . $_SERVER['HTTP_HOST']));


if($_SERVER['REQUEST_METHOD'] == 'POST'){
        $postinfo = '';
        foreach($_POST as $key=>$value) {
                $postinfo .= $key.'='.urlencode($value).'&';
        }
        rtrim($postinfo,'&');

        curl_setopt ($curlSession, CURLOPT_POST, 1);
        curl_setopt ($curlSession, CURLOPT_POSTFIELDS, $postinfo);
}

curl_setopt($curlSession, CURLOPT_RETURNTRANSFER,1);
curl_setopt($curlSession, CURLOPT_TIMEOUT,300);

//Send the request and store the result in an array
$response = curl_exec ($curlSession);

// Check that a connection was made
if (curl_error($curlSession)){
        // If it wasn't...
        print curl_error($curlSession);
} else {
        $ar = explode("\r\n\r\n", $response, 2);

        $header = $ar[0];
        $body = $ar[1];

        //handle headers - simply re-outputing them
        $header_ar = explode("\r\n",$header);
        foreach($header_ar as $header){
                $header = trim($header);
                if(!preg_match("/^Transfer-Encoding/",$header)){
                        header($header);
                }
        }

        print $body;
}

curl_close ($curlSession);
?>

Пока не знаю нахуя, но уже дважды кончил от собственной охуенности.

#XO4BOU (12) / @hirthwork / 1262 дня назад
http://rny.io/nginx/postgresql/2013/07/26/simple-api-with-nginx-and-postgresql.html > Sometimes it’s overkill to use a web framework if you only need to develop a very simple REST API. It turns out that Nginx can be used to develop a full fledged REST API and PostgreSQL can easily be used for persistence.
#TJEBTY (2) / @stiletto / 1276 дней назад
продолжение #VMBUDS tl;dr: Существование Б-га не доказано. Ровно как и существование хэш-коллизий в продакшене Анализ: Если бы у меня была хэш-коллизия в кэше, то nginx бы отдал ответ мгновенно (там 20 КБ). Однако же время выполнения запроса было больше шести секунд (вчера ещё раз проявилась проблема, и там вообще семь секунд nginx думал). Да в и логе написано `[proxy (-) : 127.0.0.1:8081 6.368 200 ]`, а не proxy (HIT). Но факт остаётся фактом, я сам всё это видел — nginx отдал на POST запрос (которые у меня не кэшируются), данные от закэшированного GET запроса (абсолютно с другим uri). Как это дальше это говно дебажить?
#6TU4OY (2) / @hirthwork / 1283 дня назад
огрёб хэш-коллизию
#VMBUDS (37) / @hirthwork / 1283 дня назад
> 768 worker_connections are not enough lol
#567F47 (3) / @kb / 1322 дня назад

всё утро фиксишь багу в nginx-1.4.7 @ оказывается, что в nginx-1.6.0 она уже починена

#C9MQFI (6) / @hirthwork / 1429 дней назад

Сычи, есть один сервер, который пишет HTTP-ответ в transfer chunked encoding, также есть один nginx, который делает proxy_cache над этим сервером. Всё заебись работает кроме того случая, когда сервер умирает во время записи ответа в сокет. Т.е. zero chunk не записывается, но при этом nginx считает этот ответ полным и сохраняет себе в кэш. Как сделать так чтобы nginx обрезанные ответы не сохранял и в следующий раз снова пошёл на сервер?

#YPDU1M (24) / @hirthwork / 1430 дней назад

в сегодняшнем выпуске: статические сайты на nginx — производительность и упорство, кэширующая прокся поверх ssi — насколько вы задрачиваете производительность? дефолтная 404.html — тайное послание от Игоря Сысоева, какие тайны он решил нам открыть?

#V6Y6MO (3) / @hirthwork / 1434 дня назад
ipv6 ready BnW для ведрофона BnW на Реформале Викивач Котятки

Цоперайт © 2010-2016 @stiletto.