↑↑↓↓←→←→ⒷⒶ Войти !bnw Сегодня Клубы
Привет, TbI — HRWKA! 1245.0 пользователей не могут ошибаться!
?6963
прекрасное6453
говно5915
говнорашка5512
хуита4735
anime3074
linux2661
music2640
bnw2607
рашка2582
log2372
ололо2230
дунч1868
pic1816
сталирасты1493
быдло1440
украина1439
bnw_ppl1431
дыбр1239
гімно1158

що там в Золотом Колодце? хохлы есть? а если найду? #золотой_колодезь
#VFOG0R (0) / @anonymous / 33 дня назад
Ейск вместо Анапы и овцеёбинг: как отдыхают в России этим летом
#612T8Z (0) / @anonymous / 33 дня назад
взял Щербиновку, Полтавку, Русин Яр, Предтечино и Луначарское
#PK51FX (0) / @z / 34 дня назад
so wtf
#DD8HKB (1) / @nebeda / 34 дня назад
хохлы, а у вас там фронт случайно не посыпался? нет? ну лан, спите дальше
#7GHGFX (0) / @anonymous / 35 дней назад
что там по нахрюку?
#N82PD7 (0) / @anonymous / 35 дней назад
Алирзай, шерсть ебаная, вылазь!
#EB09D9 (0) / @anonymous / 35 дней назад
Трамп зрадив Україну і Захід, світопорядок 1945 року остаточно зруйновано, - The Telegraph
#7FI8RB (1) / @anonymous / 36 дней назад
"В настоящее время Украина, при всей поддержке Запада, не в состоянии освободить оккупированные территории в короткие сроки без больших человеческих потерь. Мы хотим, чтобы она выжила как независимая суверенная страна. Если цена её выживания заключается в том, что часть территории будет оккупирована, то пусть так и будет", – отметил президент Чехии Пётр Павел.
#IJM2O4 (0) / @anonymous / 37 дней назад
что-то зрадой запахло. кто пукнул?
#JBPDCA (0) / @anonymous / 38 дней назад
говорят, слово "хохлы" оскорбляет хохлов и разжигает к хохлам ненависть
#F4WT3N (0) / @anonymous / 39 дней назад
Набыдлокодил простенький CLI для llama-server на Haskell: https://github.com/l29ah/llama-cpp-haskell Позволяет использовать LLM в скриптах без необходимости каждый раз её вгружать в память видюхи, как с llama-cli, и без страшного не поддающегося аудиту блоата aichat с форками. Не знаю пока буду ли tool calling в ближайшем будущем прикручивать: эксперименты с openhands показывают что код проще самому написать как надо, чем итеративно проверять и описывать нейронке что она делает не так, а не-программерских юзкейсов для него у меня пока нету.
#FXW5CK (0) / @l29ah / 39 дней назад
Qwen3-235B-A22B-2507 Привет! Вот короткая история про Ляха и Комара: Лях крутил педали по грунтовой дорожке, ветер свистел в ушах, а за спиной, как моторчик, жужжал Комар. Тот гнал на своём стареньком велосипеде с ржавой цепью, но с таким энтузиазмом, будто гнался за летним ураганом. — Эй, Лях! — кричал он, — не отрывайся! У меня шина уже третий раз шипит, как змея! — Тогда подкачай, а не жужжи! — отмахнулся Лях, не сбавляя хода. Они мчались вдоль леса, объезжая лужи, прыгая через брёвна и смеясь, как два шальных ветра. На повороте у старой мельницы Комар всё-таки влетел в куст ежевики, но вывалился оттуда с ухмылкой и велосипедом наперевес. — Лови момент, а не кусты! — закричал Лях, протягивая руку. Комар схватился, вскочил на седло, и они помчались дальше — к закату, к следующему приключению, к тому самому чувству, когда ты свободен, как ветер, и друг рядом — как второй комплект педалей в этой жизни.
#TP2QVK (2) / @bazar / 39 дней назад
шо там фортеця Купянск? уже отступили на более выгодные позиции? когда отступят? #купянск
#YS58M0 (0) / @anonymous / 39 дней назад
взял Январское
#R4Q9VN (0) / @z / 40 дней назад
ровно год назад хохлы вторглись в Курскую область чтобы разграбить Пятёрочку и соснуть хуйцов
#18BWA3 (0) / @anonymous / 41 день назад
Подъехала новая MoE LLM с открытыми весами от китайцев, сравнимая с лидерами индустрии по заявленным способностям: https://z.ai/blog/glm-4.5 Решил накатить у себя на ноуте младшую, 106B-версию, благо 64ГБ DDR5 позволяют разойтись. Скачал хвалёные (https://unsloth.ai/cgi/image/5shotmmlu_nzHlUsndoWs4tHh86xD2L.png?width=3840&quality=80&format=auto) кванты от Unsloth: https://huggingface.co/unsloth/GLM-4.5-Air-GGUF/resolve/main/GLM-4.5-Air-UD-Q2_K_XL.gguf Попытался запустить. llama.cpp говорит такое не поддерживается, пофиг, обновляем, поддерживается, загружается, не, не загружается, оперативы не хватает. В Linux встроенной amdgpu нельзя выделять больше половины имеющейся физической памяти. Отыскиваю на форуме пользователей Framework совет воспользоваться опцией ядра amdgpu.gttsize, пробую: при использовании большой LLM всё начинает тормозить как пиздец, включая саму LLM. В dmesg нахожу рекомендацию не юзать amdgpu.gttsize, а юзать ttm.pages_limit. Гуглю, по результатам запихиваю в опции ядра ttm.pages_limit=15895262 ttm.page_pool_size=15895262, и после перезагрузки всё работает прекрасно. Нейронка выдаёт на недорогом Framework 13 аж 9 токенов в секунду. Ну ладно. Не знаю пока правда, зачем мне такая дохуя умная нейронка: кажется что с саммаризацией мелкие шустрые справляются хорошо, а специализированные быстрее и может даже лучше работают для задач типа кодогенерации или биомедицинских рекомендаций. Математику, говорят, хорошо умеет, хз. В целом конечно радует, что стали клепать классные MoE LLM, для которых не нужна золотая VRAM, а достаточно иметь дохуя обычной, вечно дешевеющей DDR5.
#P1CQ59 (0) / @l29ah / 41 день назад
город был дотационным и стратегического значения не имел
#KDYJGP (0) / @anonymous / 41 день назад
Зеленский посетил защитников Волчанска. Пiзда мiсту!
#0YJA7G (0) / @anonymous / 42 дня назад
--
ipv6 ready BnW для ведрофона BnW на Реформале Викивач Котятки

Цоперайт © 2010-2016 @stiletto.