ビリャチピスデツナフイ Войти !bnw Сегодня Клубы
Привет, TbI — HRWKA! 1011.3 пользователей не могут ошибаться! Официальная конфочка бнвача: bnw@conference.jabber.ru
говно5727
?5695
прекрасное4871
говнорашка4195
хуита3548
anime2559
linux2385
music2197
bnw2174
log1971
рашка1838
pic1829
ололо1727
быдло1417
украина1308
гімно1058
дыбр1037
роботы_не_одобряют825
сталирасты787
bnw_ppl781

Узнал про paperpaper.ru. Статья про безопасность http://paperpaper.ru/campus/safety . Все как обычно, только добавлено цифр. И из интересного - металлоискатели в метро поддерживают районы, где их нет. По (хреновой) статистике много тратится на расследование и отлов преступников: > Из-за такого разрыва в суммах в криминологии обсуждают возможность выплачивать потерпевшим компенсации в размере ущерба, который они понесли, без отлавливания преступников. Про посетителей библиотек http://paperpaper.ru/readers . Преподаватели из университетов и врачи чаще других читают околодонцову, предприниматели и официанты - что-то хитровыдуманное. И отдельный раздел про иностранцев в России http://paperpaper.ru/tag/expat/ , это мне нравится. Например: >Ночные прогулки, прогулки по городу, прогулки с друзьями. У нас в Канаде нет такой культуры: все встречаются в кафе, дома или идут на какое-то мероприятие. А здесь можно встретиться с друзьями и пойти в никуда, просто гулять по городу.
#KHS9TZ (1+2) / @ckorzhik / 2 дня назад
Итак. Не знаю, что за вандал высрал вот этот #VCQ920 пост, но теперь я чувствую дополнительную мотивацию написать (длинное и никому не интересное) объяснение, дабы отделить, так сказать, мух от котлет. Суть игры была в том, чтобы на основе постов от анонимуса составить стишок (стишок #PGVJ3U тут), который объединял бы эти самые посты какой-то одной сценой и понятной идеей. Посты были такие (#6EBIVT): "чоза, сид?", "272897077", "хуйня", "ну пиздец у тебя запросы, дорогуша" и "как понять?". Негусто, но что есть, то есть - к тому же предпоследняя фраза вполне годится к использованию целиком, а к ней логично присовокупляется и последняя фраза, образуя диалог между лирическим героем и не понимающей его "дорогушей". Унылая бытовуха, но образ, тем не менее, вполне понятный: выдохшиеся отношения, буржуазного типа брак, вот это все. Отсюда и будем скакать, а "как понять?" выделим пробелом в начале строки, чтобы было понятно, что это реплика второго персонажа, - нормативные тире создадут проблемы при разделении текста на абзацы, да и слишком "утяжелят" строки. Раз выделяем пробелом, значит нужна третья строчка - чтобы было ясно видно, что это именно *выделение* пробелом. От "дорогуши" строим две рифмы: одна фонетическая (то есть собственно рифма), а другая - семантическая. Фонетическую ставим в конец ("слушай"), а семантическую - в начало ("милая"). Получаем: в первой строчке обращение и соответствующая ему единственная в строке запятая - в конце, в третьей строчке - наоборот, в начале. Эдакие кавычки. А между ними - выделенная пробелом реплика с единственным вопросительным знаком. Симметрично, хорошо. Далее. Нужен конфликт, ибо tension-release, как известно, есть основной прием музыкального (да и не только) повествования, а стишки - это с точки зрения структуры все-таки скорее музыка. Из наших исходных постов мы два последних использовали - теперь используем два первых, а "хуйню" между ними выкинем (симметрия!). Итак, "чоза, сид?" и "272897077". Сид и 27 нам как бы намекают на одного известного лондонского бомжа и пресловутый клуб суицидников. Опять банальщина, но в этот раз подростковая - ну вот и прекрасно! Вот и конфликт. Очень хорошее совпадение. А еще заберем себе 28 из этого набора цифр - вдруг пригодится. Значит, делаем вторую часть. Там у нас были протухшие отношения и унылая бытовуха, тут - надо что-то контрастное. Про молодость, бухло, свободу - короче, про что-то хорошее и безвозвратно далекое. Прекрасное далёко... Птица счастья завтрашнего (а у нас - наоборот, вчерашнего; ирония!) дня... Так, стоп. Замечаем, что "двадцать семь" и "птица счастья" имеют одинаковое количество символов. А бнв имеет моноширинный шрифт, позволяющий эту особенность заметить и оценить. Решено: вместо ритмической организации будем использовать графическую. В традиционном стихе строчки структурируются чередованием ударных и безударных слогов, а мы ударность будем игнорировать, зато вместо нее поставим себе другой констрейнт: одинаковое число символов в каждой из строк. Правда, больше пары-тройки подходящих строчек одинаковой длины придумать вряд ли получится, а потому нам абзац надо разделить на несколько блоков, в каждом из которых строчки будут одинаковой длины. А блоки эти надо как-то связать между собой, чтобы они не распадались на отдельные абзацы - свяжем их параллельной рифмой. Две строчки у нас уже есть, пусть будет три на блок. Тогда схема рифмы получается такая: abcabc. Хорошая структура, нетривиальная. Думаем дальше. Счастье, птицы... Тут вспоминается Чарли Паркер по прозвищу Bird, который тоже умер в двадцать с чем-то от героина. Но он-то играл джаз, а у нас тут Сид... рок-н-ролл... Вспоминается популярная в мою молодость песенка: "Звезда рок-н-ролла должна умереть - аксиома". Аксиома - интересное слово, и как раз разбавит конструктивизмом-модернизмом лубочную строчку про птицу счастья. Первыми приходят на ум "аксиомы Пеано" - число, последовательность, итерация... Мы тут как раз про контраст между протухшим и молодым, то есть про возраст, то есть как раз про итерацию. А аксиомы задают правила этой итерации, задают ноль. То есть аксиомы - это начало итерации, то есть - молодость. Отлично, ложится идеально! А главное - вот чудо! - и по количеству букв подходит. Тютелька в тютельку. Так, половина от abcabc у нас уже есть. Теперь появляется еще один констрейнт: помимо правильного количества букв должна быть еще и рифма. Думаем над рифмами к "семь" - придумываются только ассонансы, и все заканчиваются на "нь", а не "мь". Идем в интернеты, смотрим рифмы там - ага, находится единственное слово. Думаем еще, подбираем варианты, но в итоге все-таки останавливаемся на "темь": темнота - друг молодежи! Секс, наркотики и рок-н-ролл. Последнее уже есть, среднее выкинем, как выкинули "хуйню" парой абзацев выше, а вот первое возьмем и будем развивать. Комнатная темь... Нет, конкретней: кроватная. Счастья - запястья. Смотрим на длину строки: предплечья не подходят, а вот плечи - в самый раз. Ну и подытоживаем опять с помощью популярной песенки: вечно молодой, вечно пьяный. Все, основная часть готова! Осталось только завершить весь стишок. Стандартная форма - простая трехчастная: ABA'. То есть в первой части у нас банальщина унылой бытовухи, во второй - контрастной - части у нас молодость-хардкор, а в третьей, завершающей, - возвращение к теме первой части. Вместо буквального повторения мы из смысловых соображений используем удачно припасенное нами число 28. 27 у нас выступает основным символом второй части, а 28 - это почти 27, но чуть-чуть больше, то есть - чуть-чуть слишком поздно. Таким образом мы как бы намекаем читателю на то знакомое всем чувство, когда вот-вот казалось, что что-то будет, или даже вообще все будет, вот-вот, чуть-чуть, а потом немного промахиваешься, немного не состыковывается, что-то немножко идет не так - и все, и уже ничего не вернуть, и уже слишком поздно. Сложно и глупо, конечно, пытаться описать простым текстом какое-то чувство, но примерно уловить о чем речь, как мне кажется, можно. Такое горькое, слегка ироничное ощущение. Ну, вы поняли, короче. (Кто не понял - либо дурак, либо самый счастливый человек на Земле.) Ну так вот, первая часть - бытовуха активная, агрессивная, с диалогом. Вторая - контрастная ей, воспоминательная. Третья - та же бытовуха, но уже посеревшая, с оттенком принятия и сожаления по ушедшему безвозвратно. Собственно, на этой ноте стишок и заканчивается - немного растерянно, непропорциональным абзацем из одной строчки, который не закрывает стишок твердо и четко, а оставляет после себя небольшое горьковатое послевкусие. Ну, или не оставляет.
#AV1CV6 (9+1) / @anonymous / 22 дня назад
Ладно, блядь, спасу для потомков. Как вообще работает гугл переводчик? Весь массив технологий, которые там используются, обычно называют Deep Learning - то есть самообучающийся искусственный интеллект, который строит концептуальные модели на основе большого количества данных. Грубо говоря, первое поколение ИИ просто перерабатывало данные по заданным моделям (как боты в играх). Второе поколение уже было самообучающимся, но заточенным под одну конкретную задачу, то есть грубо говоря перегоняло данные из одной формы в другую. Третье поколение - Deep Learning, как у гугла - работает немного не так. Грубо говоря, он пожирает данные, на их основе строит какую-то собственную внутреннюю модель мира, которая может развиваться путем интроспекции независимо от данных (!), и потом исходя из этой модели дает нам какой-то ответ. Ну, вот как человек: ему дали задачку про машину, выехавшую из пункта А в пункт Б. Он подумал, составил на ее основе уравнение - тут уже никаких машин, мы абстрагируемся от машин и составляем свою модель данных - решил его и дал ответ. За 2 часа доедет, например. Но если мы попытаемся объяснить каким-нибудь папуасам, что такое "уравнение" и как его решать, то они ничего не поймут - нет у них таких понятий в голове. Уравнения какие-то, чо? Вот так и с ИИ - у него (каждого из них) есть какая-то своя модель мира, которая в принципе недоступна нашему (человеческому) пониманию. Дальше. У них там есть такая штука, называется "Невральная система машинного перевода". Она основана на алгоритмах, известных как "Рекуррентные Нейронные Сети". Грубо говоря, фишка этих сетей в том, что они способны учитывать контекст. То есть обычную сеть ты мог бы обучить на парах слов на двух языках, грубо говоря. И максимум, что у нее получится - это перевести одно слово. Но этому научить можно даже кошку, даже мышку, да кого угодно: ты просто даешь стимул (слово), она его запоминает и реагирует. Это не язык. Человека отличает от остальных животных наличие грамматики - то есть инструмента связи между словами, с помощью которого мы из одних понятий можем строить другие, более сложные. Если человек до 12 лет не изучил хотя бы один язык, кстати, то он уже никогда не сможет научиться говорить и думать. Ну, то есть будет зверушкой - чувствующей, но неразумной. С финитным языком, как у птичек или кошечек. Финитное число фиксированных сигналов, без способности к абстракции. С помощью грамматики же мы переходим к бесконечности - бесконечному числу возможных слов\предложений\текстов, бесконечному числу различных мыслей. Грамматика дает нам рекурсию, понятие натурального числа и вообще всю математику, науку и пр. Короче, это именно то, что мы понимаем под словом "разум". Так вот. Рекуррентная нейронная сеть при работе использует не только непосредственный вход, но и контекст. В нашем случае оно смотрит не на отдельные слова (как кошечки и попугайчики), а не все предложение и весь текст (как люди). И из этого текста пытается вычленить значение отдельных слов. Главным отличием его от человека является тот факт, что у людей, судя по всему, есть какие-то встроенные на генетическом уровне биологические оптимизации, которые помогают нам изучать язык. То есть эволюцией в нас зашиты какие-то отдельные кусочки механизма понимания языка и построения модели мира, поэтому мы (все homo sapiens) несколько ограничены в тех моделях, которые мы можем построить. Иначе говоря, все наши идеи и мысли немного похожи друг на друга. Это помогает нам быстро изучить язык и начать эффективную коммуникацию в социуме. У искусственного интеллекта такого ограничения нет. Табула раса, чистый лист. Поэтому ему нужно гораздо больше данных, чтобы построить какую-то внятную модель, с которой можно работать. Именно поэтому сейчас данные - это очень важный ресурс. Кто владеет информацией - тот владеет миром, да? Вот именно сегодня это действительно актуальна. Раньше в этой фразе под "информацией" подразумевались какие-то инсайды, какие-то секреты. Кто первый узнал - у того конкурентное преимущество. Сейчас же под "информацией" подразумевается вообще вся информация. Чем больше - тем лучше. Нейронные сети - это такой ненасытный зверь, главным ресурсом для выживания которого является информация. К счастью (или к сожалению; тут уж как посмотреть) у гугла она есть. У гугла есть целый интернет. 99% того, что когда-то было напечатано на клавиатуре (включая и этот текст) принадлежит гуглу. Почти все написанные человечеством книги оцифрованы гуглом, вся ваша переписка анализируется гуглом, все высказанные мысли - у гугла. И все это, разумеется, скармливается их нейронным сетям. Но почему я говорю "мысли"? Все-таки переводчик - это же про слова, да? Пусть они и связаны с контекстом, но это же все равно слова на каком-то конкретном языке - но наши (человеческие) мысли же не исчерпываются словами - а значит и гуглопереводчику до каких-то там "мыслей" еще как до Луны, так? Ну, на самом деле не совсем так. Точнее - совсем не так. Дело в том, что совсем недавно (в прошлом году была опубликована соответствующая статья) гугл ввел в строй систему под названием "Zero-Shot Multi-Lingual Translation". Мотивация вроде бы простая: текстов для обучения перевода редких языковых пар (ну, типа с какого-нибудь киргизского на какой-нибудь суахили) недостаточно много. Поэтому нужно пытаться переводить не напрямую, а через какой-то третий, более популярный язык. Или какую-то внутреннюю репрезентацию. Независимую от языка. То есть если надо, например, перевести слово "мама" с древнетибетского на новокоростемьский, мы не будем пытаться понять связь слова "мама" на коростемьском с другими коростемьскими словами, а потом замапить эту связь на древнетибетский. Вместо этого, мы попытаемся перевести слово "мама" в какое-то внутреннее представление - то есть концепцию. Иными словами, мы попытаемся понять, что же значит слово "мама". И так как у нас под рукой есть все тексты на всех языках мира, мы можем с их помощью набрать информации о разных базовых понятиях, которые встречаются в любом языке, и об их связях между собой. И тогда нам остается только угадать, что на коростемьском вот это слово означает "мама" - и у нас уже есть вся информация о нем. Точно так же, когда человек учит новый язык, он не перестраивает с нуля свои представления о мире - он просто строит связи между уже имеющимися у него концепциями и новыми способами их выражения. Конечно, каждый язык немного отличается, и в каждом новом языке есть несколько новых концепций. Но люди редко знают больше 5-6 языков. А гуглопереводчик - это эдакий гиперполиглот, у которого перед глазами - и в голове! - есть все возможные вариации того, как люди могут излагать свои мысли. Ну так вот, возвращаясь к странным фразам с пиков. У каждого человека есть такая штука, как внутренний монолог. Это эволюционно полезная штуковина. Грубо говоря, мозг может создавать разные виртуальные личности. Некоторые из них основаны на реальных существах, и с их помощью мозг пытается предсказать поведение и отношение этих существ по отношению к нам. Ну, мы же социальные животные, для нас это вопрос выживания. Некоторые из них - это сгенерированные по шаблону временные архетипы. На таких мы отрабатываем паттерны поведения в социуме, обычно - во сне. Самосознание - это почти то же самое, просто личность замыкается сама на себя и потому начинает думать, что она тут как бы почти как бог - ну, то есть главная, то есть Я. Ну, не буду вдаваться в дебри этой малоизученной области, а предложу читателю вот прямо сейчас обратить внимание на этот самый внутренний монолог и попытаться остановить его. Ну, чтобы вообще ничего не было. Сложно? А все - среди прочего - потому, что мозг постоянно генерирует отклики на поступающую информацию. Причем в нашем случае - поступающую в том числе и изнутри, от самого мозга. И, как можно убедиться с помощью вот этого нехитрого эксперимента, информация эта получается довольно хаотичной. Мысли дрейфуют куда-то вне зависимости от нашей воли, а иногда и вовсе нам же самим кажутся случайными и хаотичными. А уж если ввести человека в транс, чтобы он перестал блокировать этот поток, - ну, вы поняли. Так вот, у нас все эти механизмы блокировки и всего такого прочего выработались - да, опять - эволюционно. Ну, если бы мы проговаривали все, что думаем, то, во-первых, всех вокруг задолбали бы, а во-вторых - молчаливый ероха имел бы над нами преимущество, потому что знал бы о нас все. Ничего не напоминает? Но у искусственных интеллектов таких фильтров, разумеется, изначально нет. Тот же гугл может попробовать убирать из выдачи все слова, содержащие матерные корни, например, но задача отделения приемлемых и хороших мыслей от непримелемых и пугающих - эта задача сама по себе требует наличия интеллекта и огромных ресурсов. Короче, я это все к тому, что вот эти странные ответы - это прямой выхлоп сети. Тыкаешь ее палочкой - она говорит вслух, что у нее там внутри вертится. Это примерно то же самое, что вводить человека в транс и слушать его подсознание. Здесь схожий эффект достигается тем, что сеть вообще-то натренирована выдавать перевод - то есть понимать прочитанный текст и пересказывать его на другом языке - но вот такой непонятный вход ломает этот шаблон. Человек бы перевел какое-нибудь "аааааооооо" фонетически, на основе звукоподражания - но у ИИ-то звуков нет, она работает с текстами. Поэтому приходится искать концептуальное, семантическое соответствие этому "ааааооооо" - которого как бы нет и не может быть по-нашему, профильтрованному мнению. А по ее мнению - есть, вот что на языке вертелось - то и сказала. Ну, это если очень упрощать. Короче, основной мой поинт в том, что это не просто фрагменты текстов, как там кто-то выше говорил - мол, бот забрел на какой-то русско-киргизский форум для мам и что-то там нарезал из этих страниц. На форум-то бот конечно заходил, но работает это все немного не так. Оно ищет соответствия для слов в своей внутренней семантической базе концептов, а не переводит их напрямую из одного языка на другой. И когда хороших совпадений нет, пытается "придумать" что-то подходящее из того, что у нее сейчас "на уме". Собственно, с примерами того, что сейчас у нее на уме, вы можете ознакомитья выше.
#GTPIMT (5) / @queet5ee / 24 дня назад
Хорошо про моменты: http://stanford.edu/~imit/tuneyourmomentum/ от них же новый optimizer: http://cs.stanford.edu/~zjian/project/YellowFin/
#CF85RC (0+1) / @ckorzhik / 142 дня назад
Изобретают декодирование raw'ок, от костылей к правильному пути: http://www.odelama.com/photo/Developing-a-RAW-Photo-by-hand/ http://www.odelama.com/photo/Developing-a-RAW-Photo-by-hand/Developing-a-RAW-Photo-by-hand_Part-2/ Про dcraw: http://techfindings.one/archives/category/photography Из интересного: помимо того, что black level может отличаться у разных каналов (R, G1, G2, B), он может отличаться при разном gain (ISO). Еще раз про raw'ки в целом http://www.photographersadventureclub.com/raw-files-sensor-native-color-space-camera-processing/ Блоги: https://www.rawdigger.com/articles https://www.libraw.org/articles http://www.darktable.org/category/blog/ Есть еще стандарт ISO 17321 (Graphic technology and photography — Colour characterisation of digital still cameras (DSCs) ).
#U15FQC (0+1) / @ckorzhik / 178 дней назад
http://ivrl.epfl.ch https://ps.is.tuebingen.mpg.de Первую нашел пока искал про superpixels. Здесь ссылки на glitch art http://ivrl.epfl.ch/teaching/projects/available https://creators.vice.com/en_us/article/glitch-art-is-dead http://snorpey.github.io/experiments/ http://www.glitchet.com/resources https://www.youtube.com/watch?v=7MCmBHPqz6I Во второй много про optical flow - Michael Black же там.
#Q2FTTV (1) / @ckorzhik / 243 дня назад
Наткнулся на новость про присуждение премии Иву Мейеру, в новости было про использование вейвлетов для отпечатков пальцев. Нашел про отпечатки https://books.google.ru/books?id=_u9mYtrgbjwC&pg=PA24&lpg=PA24&dq=Yves+Meyer+fingerprint http://www.ams.org/notices/199511/brislawn.pdf вейвлеты там для сжатия, неудивительно. Погуглил картинки с Добеши, вместо них нашел страничку про женщин в математике https://en.wikipedia.org/wiki/List_of_women_in_mathematics страничку того, кому она помогала с phd https://en.wikipedia.org/wiki/Hearing_the_shape_of_a_drum какой-то сборник лекций https://math.washington.edu/milliman-lecture-archives и блог с картиночками https://mathsbyagirl.wordpress.com/category/pictures-of-maths/
#CS3832 (0) / @ckorzhik / 243 дня назад
https://ru.wikipedia.org/wiki/Радиоактивное_заражение_в_Гоянии >В 1987 году из заброшенной больницы мародёрами была похищена деталь из установки для радиотерапии, содержащая радиоактивный изотоп цезий-137 в виде хлорида цезия, после чего была выброшена. Но спустя какое-то время была обнаружена на свалке и привлекла внимание владельца свалки Девара Феррейры, который затем принёс найденный медицинский источник радиоактивного излучения в свой дом и пригласил соседей, родственников и друзей посмотреть на светящийся голубым светом порошок. Мелкие фрагменты источника брали в руки, натирали ими кожу, передавали другим людям в качестве подарков, и в результате началось распространение радиоактивного загрязнения. В течение более чем двух недель с порошкообразным хлоридом цезия контактировали всё новые люди, и никто из них не знал о связанной с ним опасности. Если вас приглашают посмотреть на неведомую хуйню - не идите.
#8XKOUZ (10+1) / @ckorzhik / 258 дней назад
Рассказ про реверс-инженеринг raw'ок камер: https://www.rawdigger.ru/howtouse/nikon-small-raw-internals
#7J2ARF (0) / @ckorzhik / 262 дня назад
https://www.youtube.com/watch?v=DiZjPhtjVx0 Потапенко рассказывает как всё плохо.
#ZM2PQ7 (4) / @ckorzhik / 265 дней назад
Увидел упоминание http://www.disp.duke.edu/projects/AWARE http://www.disp.duke.edu/history/index.ptml - история чего-то вроде лаборатории.
#6DEMAP (0+1) / @ckorzhik / 279 дней назад
Ничего не понимаю, случайно нашёл. http://www.lighton.io/our-technology https://arxiv.org/pdf/1510.06664.pdf
#L31OWQ (4) / @ckorzhik / 280 дней назад
ipv6 ready BnW для ведрофона BnW на Реформале Викивач Котятки

Цоперайт © 2010-2016 @stiletto.