БЕГЕМОТИКОВ МОЖНО! Войти !bnw Сегодня Клубы
Привет, TbI — HRWKA! 1245.2 пользователей не могут ошибаться!
?6965
прекрасное6456
говно5915
говнорашка5512
хуита4734
anime3076
linux2661
music2640
bnw2607
рашка2583
log2372
ололо2234
дунч1868
pic1816
сталирасты1494
быдло1440
украина1438
bnw_ppl1433
дыбр1238
гімно1158

взял Щербиновку, Полтавку, Русин Яр, Предтечино и Луначарское
#PK51FX (0) / @z / 85 дней назад
so wtf
#DD8HKB (1) / @nebeda / 85 дней назад
хохлы, а у вас там фронт случайно не посыпался? нет? ну лан, спите дальше
#7GHGFX (0) / @anonymous / 85 дней назад
что там по нахрюку?
#N82PD7 (0) / @anonymous / 86 дней назад
Алирзай, шерсть ебаная, вылазь!
#EB09D9 (0) / @anonymous / 86 дней назад
Трамп зрадив Україну і Захід, світопорядок 1945 року остаточно зруйновано, - The Telegraph
#7FI8RB (1) / @anonymous / 87 дней назад
"В настоящее время Украина, при всей поддержке Запада, не в состоянии освободить оккупированные территории в короткие сроки без больших человеческих потерь. Мы хотим, чтобы она выжила как независимая суверенная страна. Если цена её выживания заключается в том, что часть территории будет оккупирована, то пусть так и будет", – отметил президент Чехии Пётр Павел.
#IJM2O4 (0) / @anonymous / 87 дней назад
что-то зрадой запахло. кто пукнул?
#JBPDCA (0) / @anonymous / 88 дней назад
говорят, слово "хохлы" оскорбляет хохлов и разжигает к хохлам ненависть
#F4WT3N (0) / @anonymous / 89 дней назад
Набыдлокодил простенький CLI для llama-server на Haskell: https://github.com/l29ah/llama-cpp-haskell Позволяет использовать LLM в скриптах без необходимости каждый раз её вгружать в память видюхи, как с llama-cli, и без страшного не поддающегося аудиту блоата aichat с форками. Не знаю пока буду ли tool calling в ближайшем будущем прикручивать: эксперименты с openhands показывают что код проще самому написать как надо, чем итеративно проверять и описывать нейронке что она делает не так, а не-программерских юзкейсов для него у меня пока нету.
#FXW5CK (0) / @l29ah / 89 дней назад
Qwen3-235B-A22B-2507 Привет! Вот короткая история про Ляха и Комара: Лях крутил педали по грунтовой дорожке, ветер свистел в ушах, а за спиной, как моторчик, жужжал Комар. Тот гнал на своём стареньком велосипеде с ржавой цепью, но с таким энтузиазмом, будто гнался за летним ураганом. — Эй, Лях! — кричал он, — не отрывайся! У меня шина уже третий раз шипит, как змея! — Тогда подкачай, а не жужжи! — отмахнулся Лях, не сбавляя хода. Они мчались вдоль леса, объезжая лужи, прыгая через брёвна и смеясь, как два шальных ветра. На повороте у старой мельницы Комар всё-таки влетел в куст ежевики, но вывалился оттуда с ухмылкой и велосипедом наперевес. — Лови момент, а не кусты! — закричал Лях, протягивая руку. Комар схватился, вскочил на седло, и они помчались дальше — к закату, к следующему приключению, к тому самому чувству, когда ты свободен, как ветер, и друг рядом — как второй комплект педалей в этой жизни.
#TP2QVK (2) / @bazar / 90 дней назад
шо там фортеця Купянск? уже отступили на более выгодные позиции? когда отступят? #купянск
#YS58M0 (0) / @anonymous / 90 дней назад
взял Январское
#R4Q9VN (0) / @z / 91 день назад
ровно год назад хохлы вторглись в Курскую область чтобы разграбить Пятёрочку и соснуть хуйцов
#18BWA3 (0) / @anonymous / 91 день назад
Подъехала новая MoE LLM с открытыми весами от китайцев, сравнимая с лидерами индустрии по заявленным способностям: https://z.ai/blog/glm-4.5 Решил накатить у себя на ноуте младшую, 106B-версию, благо 64ГБ DDR5 позволяют разойтись. Скачал хвалёные (https://unsloth.ai/cgi/image/5shotmmlu_nzHlUsndoWs4tHh86xD2L.png?width=3840&quality=80&format=auto) кванты от Unsloth: https://huggingface.co/unsloth/GLM-4.5-Air-GGUF/resolve/main/GLM-4.5-Air-UD-Q2_K_XL.gguf Попытался запустить. llama.cpp говорит такое не поддерживается, пофиг, обновляем, поддерживается, загружается, не, не загружается, оперативы не хватает. В Linux встроенной amdgpu нельзя выделять больше половины имеющейся физической памяти. Отыскиваю на форуме пользователей Framework совет воспользоваться опцией ядра amdgpu.gttsize, пробую: при использовании большой LLM всё начинает тормозить как пиздец, включая саму LLM. В dmesg нахожу рекомендацию не юзать amdgpu.gttsize, а юзать ttm.pages_limit. Гуглю, по результатам запихиваю в опции ядра ttm.pages_limit=15895262 ttm.page_pool_size=15895262, и после перезагрузки всё работает прекрасно. Нейронка выдаёт на недорогом Framework 13 аж 9 токенов в секунду. Ну ладно. Не знаю пока правда, зачем мне такая дохуя умная нейронка: кажется что с саммаризацией мелкие шустрые справляются хорошо, а специализированные быстрее и может даже лучше работают для задач типа кодогенерации или биомедицинских рекомендаций. Математику, говорят, хорошо умеет, хз. В целом конечно радует, что стали клепать классные MoE LLM, для которых не нужна золотая VRAM, а достаточно иметь дохуя обычной, вечно дешевеющей DDR5.
#P1CQ59 (0) / @l29ah / 91 день назад
город был дотационным и стратегического значения не имел
#KDYJGP (0) / @anonymous / 92 дня назад
Зеленский посетил защитников Волчанска. Пiзда мiсту!
#0YJA7G (0) / @anonymous / 93 дня назад

Помню, двадцать лет назад читал про сложности с фреймами в MP3 и то, как проблему решили добавлением новых метаданных о точной длине аудио в сэмплах. Этот монстр с тех пор вырос.

Why is gapless so hard?
https://www.youtube.com/watch?v=havQ2hKGSog

#Q0SE0O (1) / @ceyt / 94 дня назад
взял Часов Яр
#PDYPZ8 (0) / @z / 97 дней назад
--
ipv6 ready BnW для ведрофона BnW на Реформале Викивач Котятки

Цоперайт © 2010-2016 @stiletto.