Бляди тоже ок, ага. Войти !bnw Сегодня Клубы
Привет, TbI — HRWKA! 1235.0 пользователей не могут ошибаться!
?6908
прекрасное6424
говно5887
говнорашка5512
хуита4695
anime3056
linux2645
music2623
bnw2588
рашка2560
log2337
ололо2113
pic1813
дунч1734
сталирасты1488
украина1437
быдло1434
bnw_ppl1370
дыбр1237
гімно1158

История секретных экспериментов над людьми в США https://tinystash.undef.im/il/5ufmdR4NTjC2T3FuJ4S4Q2puTsLaVkCXyhx3sHBMq7WsPsVJ6PdofbQrEv62jwwUkJyHpNaGex6vwBmDuEEzz124.txt
#U8O3BD (0) / @anonymous / 851 день назад
Сатанинская сверхбогатая элита во главе с Клаусом Швабом хочет восстановить нацистскую империю. https://tinystash.undef.im/il/4LkPGknVrQGk9xMA1V7NAcatnG7Q1MbrHEvVwhCCLW2G3Dvx1p7LfgxnExMgqUj4VcKbJwiqaEeXpvynkgiHjU8M.txt
#GYZ7R9 (0) / @anonymous / 852 дня назад
вакциняхам не читать, а то пердаки у вас запылают https://tinystash.undef.im/il/5jusHA5cgT6bMvZNauMTZoUSxSn7gDjBzwTBiyYTW8LqB7hbHAhLknHd9kfTEmgwYExV93Dhiu2CT5uWDkencdBa.png
#DJ3KRN (0) / @anonymous / 950 дней назад
посоны, рашка все. пруф: https://zhartun.me/2018/09/ouroboros.html
#6BY9DO (3) / @anonymous / 2046 дней назад
> Все попытки добавить соевый текстурат в рыбу приводят к нулевому результату. Ибо рыба достаточно прозрачная и соя в ней выделяется. соя с рыбой не смешивается. https://pastebin.com/g01sJU5Q
#82YP7I (0) / @anonymous / 2201 день назад
tfw был затрален Набоковым http://flibusta.is/b/158404/read
#7N00UE (2) / @anonymous / 2238 дней назад
http://z-storage.blogspot.ru/2017/04/blog-post_3.html - Динамика продолжительности жизни в России и советский кризис смертности: незаконченная модернизация и низкая ценность жизни
#GV1MSO (0) / @ckorzhik / 2299 дней назад
Узнал про paperpaper.ru. Статья про безопасность http://paperpaper.ru/campus/safety . Все как обычно, только добавлено цифр. И из интересного - металлоискатели в метро поддерживают районы, где их нет. По (хреновой) статистике много тратится на расследование и отлов преступников: > Из-за такого разрыва в суммах в криминологии обсуждают возможность выплачивать потерпевшим компенсации в размере ущерба, который они понесли, без отлавливания преступников. Про посетителей библиотек http://paperpaper.ru/readers . Преподаватели из университетов и врачи чаще других читают околодонцову, предприниматели и официанты - что-то хитровыдуманное. И отдельный раздел про иностранцев в России http://paperpaper.ru/tag/expat/ , это мне нравится. Например: >Ночные прогулки, прогулки по городу, прогулки с друзьями. У нас в Канаде нет такой культуры: все встречаются в кафе, дома или идут на какое-то мероприятие. А здесь можно встретиться с друзьями и пойти в никуда, просто гулять по городу.
#KHS9TZ (1+2) / @ckorzhik / 2351 день назад
Итак. Не знаю, что за вандал высрал вот этот #VCQ920 пост, но теперь я чувствую дополнительную мотивацию написать (длинное и никому не интересное) объяснение, дабы отделить, так сказать, мух от котлет. Суть игры была в том, чтобы на основе постов от анонимуса составить стишок (стишок #PGVJ3U тут), который объединял бы эти самые посты какой-то одной сценой и понятной идеей. Посты были такие (#6EBIVT): "чоза, сид?", "272897077", "хуйня", "ну пиздец у тебя запросы, дорогуша" и "как понять?". Негусто, но что есть, то есть - к тому же предпоследняя фраза вполне годится к использованию целиком, а к ней логично присовокупляется и последняя фраза, образуя диалог между лирическим героем и не понимающей его "дорогушей". Унылая бытовуха, но образ, тем не менее, вполне понятный: выдохшиеся отношения, буржуазного типа брак, вот это все. Отсюда и будем скакать, а "как понять?" выделим пробелом в начале строки, чтобы было понятно, что это реплика второго персонажа, - нормативные тире создадут проблемы при разделении текста на абзацы, да и слишком "утяжелят" строки. Раз выделяем пробелом, значит нужна третья строчка - чтобы было ясно видно, что это именно *выделение* пробелом. От "дорогуши" строим две рифмы: одна фонетическая (то есть собственно рифма), а другая - семантическая. Фонетическую ставим в конец ("слушай"), а семантическую - в начало ("милая"). Получаем: в первой строчке обращение и соответствующая ему единственная в строке запятая - в конце, в третьей строчке - наоборот, в начале. Эдакие кавычки. А между ними - выделенная пробелом реплика с единственным вопросительным знаком. Симметрично, хорошо. Далее. Нужен конфликт, ибо tension-release, как известно, есть основной прием музыкального (да и не только) повествования, а стишки - это с точки зрения структуры все-таки скорее музыка. Из наших исходных постов мы два последних использовали - теперь используем два первых, а "хуйню" между ними выкинем (симметрия!). Итак, "чоза, сид?" и "272897077". Сид и 27 нам как бы намекают на одного известного лондонского бомжа и пресловутый клуб суицидников. Опять банальщина, но в этот раз подростковая - ну вот и прекрасно! Вот и конфликт. Очень хорошее совпадение. А еще заберем себе 28 из этого набора цифр - вдруг пригодится. Значит, делаем вторую часть. Там у нас были протухшие отношения и унылая бытовуха, тут - надо что-то контрастное. Про молодость, бухло, свободу - короче, про что-то хорошее и безвозвратно далекое. Прекрасное далёко... Птица счастья завтрашнего (а у нас - наоборот, вчерашнего; ирония!) дня... Так, стоп. Замечаем, что "двадцать семь" и "птица счастья" имеют одинаковое количество символов. А бнв имеет моноширинный шрифт, позволяющий эту особенность заметить и оценить. Решено: вместо ритмической организации будем использовать графическую. В традиционном стихе строчки структурируются чередованием ударных и безударных слогов, а мы ударность будем игнорировать, зато вместо нее поставим себе другой констрейнт: одинаковое число символов в каждой из строк. Правда, больше пары-тройки подходящих строчек одинаковой длины придумать вряд ли получится, а потому нам абзац надо разделить на несколько блоков, в каждом из которых строчки будут одинаковой длины. А блоки эти надо как-то связать между собой, чтобы они не распадались на отдельные абзацы - свяжем их параллельной рифмой. Две строчки у нас уже есть, пусть будет три на блок. Тогда схема рифмы получается такая: abcabc. Хорошая структура, нетривиальная. Думаем дальше. Счастье, птицы... Тут вспоминается Чарли Паркер по прозвищу Bird, который тоже умер в двадцать с чем-то от героина. Но он-то играл джаз, а у нас тут Сид... рок-н-ролл... Вспоминается популярная в мою молодость песенка: "Звезда рок-н-ролла должна умереть - аксиома". Аксиома - интересное слово, и как раз разбавит конструктивизмом-модернизмом лубочную строчку про птицу счастья. Первыми приходят на ум "аксиомы Пеано" - число, последовательность, итерация... Мы тут как раз про контраст между протухшим и молодым, то есть про возраст, то есть как раз про итерацию. А аксиомы задают правила этой итерации, задают ноль. То есть аксиомы - это начало итерации, то есть - молодость. Отлично, ложится идеально! А главное - вот чудо! - и по количеству букв подходит. Тютелька в тютельку. Так, половина от abcabc у нас уже есть. Теперь появляется еще один констрейнт: помимо правильного количества букв должна быть еще и рифма. Думаем над рифмами к "семь" - придумываются только ассонансы, и все заканчиваются на "нь", а не "мь". Идем в интернеты, смотрим рифмы там - ага, находится единственное слово. Думаем еще, подбираем варианты, но в итоге все-таки останавливаемся на "темь": темнота - друг молодежи! Секс, наркотики и рок-н-ролл. Последнее уже есть, среднее выкинем, как выкинули "хуйню" парой абзацев выше, а вот первое возьмем и будем развивать. Комнатная темь... Нет, конкретней: кроватная. Счастья - запястья. Смотрим на длину строки: предплечья не подходят, а вот плечи - в самый раз. Ну и подытоживаем опять с помощью популярной песенки: вечно молодой, вечно пьяный. Все, основная часть готова! Осталось только завершить весь стишок. Стандартная форма - простая трехчастная: ABA'. То есть в первой части у нас банальщина унылой бытовухи, во второй - контрастной - части у нас молодость-хардкор, а в третьей, завершающей, - возвращение к теме первой части. Вместо буквального повторения мы из смысловых соображений используем удачно припасенное нами число 28. 27 у нас выступает основным символом второй части, а 28 - это почти 27, но чуть-чуть больше, то есть - чуть-чуть слишком поздно. Таким образом мы как бы намекаем читателю на то знакомое всем чувство, когда вот-вот казалось, что что-то будет, или даже вообще все будет, вот-вот, чуть-чуть, а потом немного промахиваешься, немного не состыковывается, что-то немножко идет не так - и все, и уже ничего не вернуть, и уже слишком поздно. Сложно и глупо, конечно, пытаться описать простым текстом какое-то чувство, но примерно уловить о чем речь, как мне кажется, можно. Такое горькое, слегка ироничное ощущение. Ну, вы поняли, короче. (Кто не понял - либо дурак, либо самый счастливый человек на Земле.) Ну так вот, первая часть - бытовуха активная, агрессивная, с диалогом. Вторая - контрастная ей, воспоминательная. Третья - та же бытовуха, но уже посеревшая, с оттенком принятия и сожаления по ушедшему безвозвратно. Собственно, на этой ноте стишок и заканчивается - немного растерянно, непропорциональным абзацем из одной строчки, который не закрывает стишок твердо и четко, а оставляет после себя небольшое горьковатое послевкусие. Ну, или не оставляет.
#AV1CV6 (9+1) / @anonymous / 2371 день назад
Ладно, блядь, спасу для потомков. Как вообще работает гугл переводчик? Весь массив технологий, которые там используются, обычно называют Deep Learning - то есть самообучающийся искусственный интеллект, который строит концептуальные модели на основе большого количества данных. Грубо говоря, первое поколение ИИ просто перерабатывало данные по заданным моделям (как боты в играх). Второе поколение уже было самообучающимся, но заточенным под одну конкретную задачу, то есть грубо говоря перегоняло данные из одной формы в другую. Третье поколение - Deep Learning, как у гугла - работает немного не так. Грубо говоря, он пожирает данные, на их основе строит какую-то собственную внутреннюю модель мира, которая может развиваться путем интроспекции независимо от данных (!), и потом исходя из этой модели дает нам какой-то ответ. Ну, вот как человек: ему дали задачку про машину, выехавшую из пункта А в пункт Б. Он подумал, составил на ее основе уравнение - тут уже никаких машин, мы абстрагируемся от машин и составляем свою модель данных - решил его и дал ответ. За 2 часа доедет, например. Но если мы попытаемся объяснить каким-нибудь папуасам, что такое "уравнение" и как его решать, то они ничего не поймут - нет у них таких понятий в голове. Уравнения какие-то, чо? Вот так и с ИИ - у него (каждого из них) есть какая-то своя модель мира, которая в принципе недоступна нашему (человеческому) пониманию. Дальше. У них там есть такая штука, называется "Невральная система машинного перевода". Она основана на алгоритмах, известных как "Рекуррентные Нейронные Сети". Грубо говоря, фишка этих сетей в том, что они способны учитывать контекст. То есть обычную сеть ты мог бы обучить на парах слов на двух языках, грубо говоря. И максимум, что у нее получится - это перевести одно слово. Но этому научить можно даже кошку, даже мышку, да кого угодно: ты просто даешь стимул (слово), она его запоминает и реагирует. Это не язык. Человека отличает от остальных животных наличие грамматики - то есть инструмента связи между словами, с помощью которого мы из одних понятий можем строить другие, более сложные. Если человек до 12 лет не изучил хотя бы один язык, кстати, то он уже никогда не сможет научиться говорить и думать. Ну, то есть будет зверушкой - чувствующей, но неразумной. С финитным языком, как у птичек или кошечек. Финитное число фиксированных сигналов, без способности к абстракции. С помощью грамматики же мы переходим к бесконечности - бесконечному числу возможных слов\предложений\текстов, бесконечному числу различных мыслей. Грамматика дает нам рекурсию, понятие натурального числа и вообще всю математику, науку и пр. Короче, это именно то, что мы понимаем под словом "разум". Так вот. Рекуррентная нейронная сеть при работе использует не только непосредственный вход, но и контекст. В нашем случае оно смотрит не на отдельные слова (как кошечки и попугайчики), а не все предложение и весь текст (как люди). И из этого текста пытается вычленить значение отдельных слов. Главным отличием его от человека является тот факт, что у людей, судя по всему, есть какие-то встроенные на генетическом уровне биологические оптимизации, которые помогают нам изучать язык. То есть эволюцией в нас зашиты какие-то отдельные кусочки механизма понимания языка и построения модели мира, поэтому мы (все homo sapiens) несколько ограничены в тех моделях, которые мы можем построить. Иначе говоря, все наши идеи и мысли немного похожи друг на друга. Это помогает нам быстро изучить язык и начать эффективную коммуникацию в социуме. У искусственного интеллекта такого ограничения нет. Табула раса, чистый лист. Поэтому ему нужно гораздо больше данных, чтобы построить какую-то внятную модель, с которой можно работать. Именно поэтому сейчас данные - это очень важный ресурс. Кто владеет информацией - тот владеет миром, да? Вот именно сегодня это действительно актуальна. Раньше в этой фразе под "информацией" подразумевались какие-то инсайды, какие-то секреты. Кто первый узнал - у того конкурентное преимущество. Сейчас же под "информацией" подразумевается вообще вся информация. Чем больше - тем лучше. Нейронные сети - это такой ненасытный зверь, главным ресурсом для выживания которого является информация. К счастью (или к сожалению; тут уж как посмотреть) у гугла она есть. У гугла есть целый интернет. 99% того, что когда-то было напечатано на клавиатуре (включая и этот текст) принадлежит гуглу. Почти все написанные человечеством книги оцифрованы гуглом, вся ваша переписка анализируется гуглом, все высказанные мысли - у гугла. И все это, разумеется, скармливается их нейронным сетям. Но почему я говорю "мысли"? Все-таки переводчик - это же про слова, да? Пусть они и связаны с контекстом, но это же все равно слова на каком-то конкретном языке - но наши (человеческие) мысли же не исчерпываются словами - а значит и гуглопереводчику до каких-то там "мыслей" еще как до Луны, так? Ну, на самом деле не совсем так. Точнее - совсем не так. Дело в том, что совсем недавно (в прошлом году была опубликована соответствующая статья) гугл ввел в строй систему под названием "Zero-Shot Multi-Lingual Translation". Мотивация вроде бы простая: текстов для обучения перевода редких языковых пар (ну, типа с какого-нибудь киргизского на какой-нибудь суахили) недостаточно много. Поэтому нужно пытаться переводить не напрямую, а через какой-то третий, более популярный язык. Или какую-то внутреннюю репрезентацию. Независимую от языка. То есть если надо, например, перевести слово "мама" с древнетибетского на новокоростемьский, мы не будем пытаться понять связь слова "мама" на коростемьском с другими коростемьскими словами, а потом замапить эту связь на древнетибетский. Вместо этого, мы попытаемся перевести слово "мама" в какое-то внутреннее представление - то есть концепцию. Иными словами, мы попытаемся понять, что же значит слово "мама". И так как у нас под рукой есть все тексты на всех языках мира, мы можем с их помощью набрать информации о разных базовых понятиях, которые встречаются в любом языке, и об их связях между собой. И тогда нам остается только угадать, что на коростемьском вот это слово означает "мама" - и у нас уже есть вся информация о нем. Точно так же, когда человек учит новый язык, он не перестраивает с нуля свои представления о мире - он просто строит связи между уже имеющимися у него концепциями и новыми способами их выражения. Конечно, каждый язык немного отличается, и в каждом новом языке есть несколько новых концепций. Но люди редко знают больше 5-6 языков. А гуглопереводчик - это эдакий гиперполиглот, у которого перед глазами - и в голове! - есть все возможные вариации того, как люди могут излагать свои мысли. Ну так вот, возвращаясь к странным фразам с пиков. У каждого человека есть такая штука, как внутренний монолог. Это эволюционно полезная штуковина. Грубо говоря, мозг может создавать разные виртуальные личности. Некоторые из них основаны на реальных существах, и с их помощью мозг пытается предсказать поведение и отношение этих существ по отношению к нам. Ну, мы же социальные животные, для нас это вопрос выживания. Некоторые из них - это сгенерированные по шаблону временные архетипы. На таких мы отрабатываем паттерны поведения в социуме, обычно - во сне. Самосознание - это почти то же самое, просто личность замыкается сама на себя и потому начинает думать, что она тут как бы почти как бог - ну, то есть главная, то есть Я. Ну, не буду вдаваться в дебри этой малоизученной области, а предложу читателю вот прямо сейчас обратить внимание на этот самый внутренний монолог и попытаться остановить его. Ну, чтобы вообще ничего не было. Сложно? А все - среди прочего - потому, что мозг постоянно генерирует отклики на поступающую информацию. Причем в нашем случае - поступающую в том числе и изнутри, от самого мозга. И, как можно убедиться с помощью вот этого нехитрого эксперимента, информация эта получается довольно хаотичной. Мысли дрейфуют куда-то вне зависимости от нашей воли, а иногда и вовсе нам же самим кажутся случайными и хаотичными. А уж если ввести человека в транс, чтобы он перестал блокировать этот поток, - ну, вы поняли. Так вот, у нас все эти механизмы блокировки и всего такого прочего выработались - да, опять - эволюционно. Ну, если бы мы проговаривали все, что думаем, то, во-первых, всех вокруг задолбали бы, а во-вторых - молчаливый ероха имел бы над нами преимущество, потому что знал бы о нас все. Ничего не напоминает? Но у искусственных интеллектов таких фильтров, разумеется, изначально нет. Тот же гугл может попробовать убирать из выдачи все слова, содержащие матерные корни, например, но задача отделения приемлемых и хороших мыслей от непримелемых и пугающих - эта задача сама по себе требует наличия интеллекта и огромных ресурсов. Короче, я это все к тому, что вот эти странные ответы - это прямой выхлоп сети. Тыкаешь ее палочкой - она говорит вслух, что у нее там внутри вертится. Это примерно то же самое, что вводить человека в транс и слушать его подсознание. Здесь схожий эффект достигается тем, что сеть вообще-то натренирована выдавать перевод - то есть понимать прочитанный текст и пересказывать его на другом языке - но вот такой непонятный вход ломает этот шаблон. Человек бы перевел какое-нибудь "аааааооооо" фонетически, на основе звукоподражания - но у ИИ-то звуков нет, она работает с текстами. Поэтому приходится искать концептуальное, семантическое соответствие этому "ааааооооо" - которого как бы нет и не может быть по-нашему, профильтрованному мнению. А по ее мнению - есть, вот что на языке вертелось - то и сказала. Ну, это если очень упрощать. Короче, основной мой поинт в том, что это не просто фрагменты текстов, как там кто-то выше говорил - мол, бот забрел на какой-то русско-киргизский форум для мам и что-то там нарезал из этих страниц. На форум-то бот конечно заходил, но работает это все немного не так. Оно ищет соответствия для слов в своей внутренней семантической базе концептов, а не переводит их напрямую из одного языка на другой. И когда хороших совпадений нет, пытается "придумать" что-то подходящее из того, что у нее сейчас "на уме". Собственно, с примерами того, что сейчас у нее на уме, вы можете ознакомитья выше.
#GTPIMT (5) / @queet5ee / 2372 дня назад
Хорошо про моменты: http://stanford.edu/~imit/tuneyourmomentum/ от них же новый optimizer: http://cs.stanford.edu/~zjian/project/YellowFin/
#CF85RC (0+1) / @ckorzhik / 2491 день назад
Изобретают декодирование raw'ок, от костылей к правильному пути: http://www.odelama.com/photo/Developing-a-RAW-Photo-by-hand/ http://www.odelama.com/photo/Developing-a-RAW-Photo-by-hand/Developing-a-RAW-Photo-by-hand_Part-2/ Про dcraw: http://techfindings.one/archives/category/photography Из интересного: помимо того, что black level может отличаться у разных каналов (R, G1, G2, B), он может отличаться при разном gain (ISO). Еще раз про raw'ки в целом http://www.photographersadventureclub.com/raw-files-sensor-native-color-space-camera-processing/ Блоги: https://www.rawdigger.com/articles https://www.libraw.org/articles http://www.darktable.org/category/blog/ Есть еще стандарт ISO 17321 (Graphic technology and photography — Colour characterisation of digital still cameras (DSCs) ).
#U15FQC (0+1) / @ckorzhik / 2527 дней назад
--
ipv6 ready BnW для ведрофона BnW на Реформале Викивач Котятки

Цоперайт © 2010-2016 @stiletto.