Призываю в тред гениев HTTP.
По интернету ходят роботы, которые меня бесят. Я хочу максимально изощренно кормить их говном.
Генерировать тысячи ссылок и выдавать гигабайты дерьма в ответе (без указания размера, разумеется) — это как-то скучно, и потом, поди предусмотрено везде.
В какие заголовки я могу напихать говна, чтобы у робота HTTP-парсер выжрал всю память и ебнулся?
Что еще можно придумать?

размер и количество заголовков обычно лимитируются (см MessageConstraints у Apache HttpClient) нелимитированное говно без указания размера принято пихать в Response Entity при Transfer-Encoding: chunked, но не все HTTP/1.0 клиенты в него умеют
@gds libcurl позволяет задавать минимальную скорость и максимальное время выполнения запроса
@komar я пользуюсь. из PHP
как?
почему просто не отдавать HTTP 302 Moved Temporarily с Location: http://2ch.hk/ga ?
@komar ну, тогда только нелимитированный body в chunked encoding.
@komar комарота
@komar смотреть надо на заголовок Accept-Encoding, с которым запрос приходит
@komar не понял твоего вопроса, но nginx-прокси если видит в Accept-Encoding: gzip, то всё проксируемое начинает на ходу сжимать
@komar маловато. с -9?
@stiletto у нас по работе два хттп-клиента используются и второй тупо не умеет распаковывать gzip
@komar Apache HttpClient из таких, да