БЕГЕМОТИКОВ МОЖНО! Войти !bnw Сегодня Клубы
Привет, TbI — HRWKA! 1245.0 пользователей не могут ошибаться!
?6969
прекрасное6456
говно5915
говнорашка5512
хуита4735
anime3076
linux2661
music2640
bnw2607
рашка2584
log2372
ололо2237
дунч1868
pic1816
сталирасты1494
быдло1440
украина1438
bnw_ppl1433
дыбр1238
гімно1158

шо там фортеця Купянск? уже отступили на более выгодные позиции? когда отступят? #купянск
#YS58M0 (0) / @anonymous / 114 дней назад
взял Январское
#R4Q9VN (0) / @z / 114 дней назад
ровно год назад хохлы вторглись в Курскую область чтобы разграбить Пятёрочку и соснуть хуйцов
#18BWA3 (0) / @anonymous / 115 дней назад
Подъехала новая MoE LLM с открытыми весами от китайцев, сравнимая с лидерами индустрии по заявленным способностям: https://z.ai/blog/glm-4.5 Решил накатить у себя на ноуте младшую, 106B-версию, благо 64ГБ DDR5 позволяют разойтись. Скачал хвалёные (https://unsloth.ai/cgi/image/5shotmmlu_nzHlUsndoWs4tHh86xD2L.png?width=3840&quality=80&format=auto) кванты от Unsloth: https://huggingface.co/unsloth/GLM-4.5-Air-GGUF/resolve/main/GLM-4.5-Air-UD-Q2_K_XL.gguf Попытался запустить. llama.cpp говорит такое не поддерживается, пофиг, обновляем, поддерживается, загружается, не, не загружается, оперативы не хватает. В Linux встроенной amdgpu нельзя выделять больше половины имеющейся физической памяти. Отыскиваю на форуме пользователей Framework совет воспользоваться опцией ядра amdgpu.gttsize, пробую: при использовании большой LLM всё начинает тормозить как пиздец, включая саму LLM. В dmesg нахожу рекомендацию не юзать amdgpu.gttsize, а юзать ttm.pages_limit. Гуглю, по результатам запихиваю в опции ядра ttm.pages_limit=15895262 ttm.page_pool_size=15895262, и после перезагрузки всё работает прекрасно. Нейронка выдаёт на недорогом Framework 13 аж 9 токенов в секунду. Ну ладно. Не знаю пока правда, зачем мне такая дохуя умная нейронка: кажется что с саммаризацией мелкие шустрые справляются хорошо, а специализированные быстрее и может даже лучше работают для задач типа кодогенерации или биомедицинских рекомендаций. Математику, говорят, хорошо умеет, хз. В целом конечно радует, что стали клепать классные MoE LLM, для которых не нужна золотая VRAM, а достаточно иметь дохуя обычной, вечно дешевеющей DDR5.
#P1CQ59 (0) / @l29ah / 115 дней назад
город был дотационным и стратегического значения не имел
#KDYJGP (0) / @anonymous / 115 дней назад
Зеленский посетил защитников Волчанска. Пiзда мiсту!
#0YJA7G (0) / @anonymous / 117 дней назад

Помню, двадцать лет назад читал про сложности с фреймами в MP3 и то, как проблему решили добавлением новых метаданных о точной длине аудио в сэмплах. Этот монстр с тех пор вырос.

Why is gapless so hard?
https://www.youtube.com/watch?v=havQ2hKGSog

#Q0SE0O (1) / @ceyt / 118 дней назад
взял Часов Яр
#PDYPZ8 (0) / @z / 121 день назад
шо там Покровск? фортеця уже хрю-хрю? когда хрю-хрю? #покровск
#Z2UOWJ (0) / @anonymous / 121 день назад
Infected Mushroom - Head of NASA and the 2 Amish Boys magnet:?xt=urn:btih:80aeaf44a84e60a92a26001f9146431000c9e996
#78Z26C (0) / @l29ah / 121 день назад
взял Темировку
#N5TO81 (0) / @z / 122 дня назад
взял Бойковку
#2YP2F1 (0) / @z / 123 дня назад
взял Александрово-Калиново и Малиевку
#GFFWG3 (0) / @z / 124 дня назад
Доктор, я хочу пи-пи. - Сестра дайте ему кря-кря.
#HZPY52 (0) / @anonymous / 125 дней назад
взял Радьковку, Голубовку, Яблоновку, Новоэкономическое и Зверево
#RLD8M5 (0) / @z / 127 дней назад
Сидят в тюрьме некрофил, зоофил, педофил и куркума. Зоофил говорит: "Эх, вот бы сейчас сюда кошечку - красивую, мягкую". Педофил: "Нет, лучше котенка - маленького, толстенького"... Некрофил продолжает: "и мертвого". Куркума подумал-подумал и говорит: "Мяу-мяу-мяу!"
#KVS4D6 (0) / @anonymous / 127 дней назад
взял Новоторецкое
#G4H019 (0) / @z / 129 дней назад
шо там саломёты мираж две тыщи? чому не летають? тяжолые слишкам?
#MP9G23 (0) / @anonymous / 129 дней назад
--
ipv6 ready BnW для ведрофона BnW на Реформале Викивач Котятки

Цоперайт © 2010-2016 @stiletto.