Тут не исправить уже ничего, Господь, жги! Войти !bnw Сегодня Клубы
Привет, TbI — HRWKA! 1113.3 пользователей не могут ошибаться!
?6318
прекрасное6001
говно5774
говнорашка5138
хуита4083
anime2823
linux2474
bnw2378
music2301
log2077
рашка2026
pic1879
ололо1770
быдло1419
украина1376
сталирасты1272
гімно1152
дыбр1133
роботы_не_одобряют1005
bnw_ppl938

fast.ai - охуенные лекции и библиотека, рекомендую. Объясняет deep learning, как оно есть, без излишней математики и пафоса, и с очень небольшим знанием питона и немного денег на gpu (или есть своя машина то на электричество) можно почти out-of-the-box тренит state-of-the-art картиночные и языковые модели. На всём остальном можно тренить Random Forest или LightGBM (то же out-of-the-box, нужно только прочитать шпаргалку как тюнить гиперпараиетры) и считай что ты жесткий Data Scientist. Ещё рекомендую освоить линейную и логистическую регрессию (по пути узнав о l1 и l2 нормах, а точнее о ridge régression и lasso), чтобы основы понять и научиться пиздеть mathematical bullshit, и можно спокойно убеждать любого рекрутера что у тебя полтора года опыта в сфере
#1J2GDK (0) / @anonymous / 11 часов назад
как вообще дебажите нейросети? ну скормил например big data, оно там кудато просралось, ноды посоздавались/поапдейтились/полинковались, как в целом посмотреть чо там? ну то есть например можно выдавать нодам IDшники, ну и чо? будет там например цепочка 1-4-6-41-12-43-45-23-11 по которой будет идти например float в диапазоне от -1.0 до +1.0 с агрегацией предыдущих уровней, и в последней ноде например будет 0.526346355. и чо дальше, как затрейсить это всё и понять что откуда как преобразовалось? или нейросети в принципе не дебажатся а можно собирать только статистику (например изменение соотношения шум/сигнал у каждой цепочки)?
#9GY1AR (5) / @n / 81 день назад
почему до сих пор компьютеры не умеют генерировать годную музыку? например https://www.youtube.com/watch?v=QzP1uyR4nJI . пересмотрел весь ютуб и везде скучные монотонные простенькие мелодии. в чём загвоздка? вон, родина дала рандом, черпай разнообразие! не черпают, используют штук 5-10 звуков в простой мелодии и всё. 21 век, прогресс нацепили. говно генерируют. пиздец, охуеть вообще
#HAJCHB (0) / @n / 682 дня назад
Новая архитектура глубокой нейросети (Neural GPU) позволяет ей обучаться алгоритмам быстрее и обобщать лучше чем предложенной ранее Neural Turing Machine . В частности продемонстрирована тренировка модели на операциях двоичного сложения и умножения 20-битных чисел и обобщение этих операций на 200 и 2000 битные числа со 100% точностью: http://arxiv.org/abs/1511.08228 Очень интересно какие задачи получится решить с такой архитектурой, учитывая то что даже без такой сильной способности к обобщению глубокие нейросети уже дают выдающиеся результаты (например https://github.com/karpathy/neuraltalk2 https://github.com/abhshkdz/neural-vqa )
#1GM8LL (1+2) / @engineer / 1175 дней назад
хочу запрограммировать хуиту. посоветуйте либы для: 1) чтения пикселей с окна другого приложения (wine terranx.exe) 2) возможности срать в него евентами маусклика и кейпреса, в т.ч. когда оно минимизировано или намдругом воркспейсе
#E799JF (70) / @n / 1197 дней назад

http://sapiens4media.livejournal.com/2543174.html

В США система искусственного интеллекта сдала университетский экзамен по математике

They're coming!

#4U88Q4 (0+3) / @goren / 1243 дня назад
ai
Может кому-то будет интересно, я наткнулся на FAQ по исследованиям в области сильного ИИ. В нём коротко и честно объяснены основные навыки которые нужны для работы в этой области, основные подходы, их достоинства и недостатки (особенно недостатки, так как за последние 50 лет было перепробовано очень много неработающих подходов, автор честно признаётся что задача крайне трудная). Я не во всём согласен с автором, мне кажется он переоценивает роль рекурсивного самоулучшения в ИИ (ведь эта способность никогда не была продемонстрирована ни естественным ни искусственным интеллектом), но в качестве FAQ этот текст работает хорошо, с изложением истории спорить трудно. Вот сам FAQ http://bbs.stardestroyer.net/viewtopic.php?f=49&t=136633 А вот вырезанный оттуда список разных подходов к ИИ которые пробовали за последние полвека (судя по своим знаниям могу сказать что он почти полный, только reinforcement learning и AIXI не хватает) http://pastebin.com/DSENuPUM Ещё у автора текста есть свой ии-стартап http://web.archive.org/web/20101004033736/http://www.bitphase.com/technology.html правда он похоже не взлетел.
#FP3WQO (3+5) / @engineer / 1344 дня назад
Complex and Adaptive Dynamical Systems
#Y9VLX6 (2+1) / @l29ah / 1477 дней назад
А Ричард Саттон оказывается либертарианец, а я и не замечал: http://webdocs.cs.ualberta.ca/~sutton/
#EYPL64 (1+3) / @engineer / 1540 дней назад
Имплементация нейросети с STDP в песке: http://www.kip.uni-heidelberg.de/veroeffentlichungen/download.cgi/4620/ps/1774.pdf
#X59FAY (10+1) / @l29ah / 1546 дней назад
Юрген Шмидтхубер всего за час делает беглый обзор коннекционистских подходов к ИИ: многослойных перцептронов и свёрточных нейросетей, рекуррентных нейросетей, в том числе LSTM. (За полным обзором с библиографией - в ссылку из видео). http://www.youtube.com/watch?v=h4FqFss9hEY
#VFATG3 (0+3) / @engineer / 1561 день назад
http://arxiv.org/pdf/1410.5401v1.pdf We extend the capabilities of neural networks by coupling them to external memory re- sources, which they can interact with by attentional processes. The combined system is analogous to a Turing Machine or Von Neumann architecture but is differentiable end-to- end, allowing it to be efficiently trained with gradient descent. Preliminary results demon- strate that Neural Turing Machines can infer simple algorithms such as copying, sorting, and associative recall from input and output examples. Замечательно, полностью дифференцируемый вычислитель, программу для которого можно изменять градиентным спуском по ошибке! Вычислитель малые изменения в представлении программы которого приводят к малым изменениям в алгоритме работы! Это - будущее. А наши гигабайты юниксовой деградации готовой сломаться в любой момент от одиночной перестановки бита, которую упорно пишут и чинят миллионы программистов и которая всё равно ломается - это артефакт XX века.
#RE0U61 (7+1) / @engineer / 1571 день назад
Листаю тут книжку http://wiki.humanobs.org/_media/public:events:agi-summerschool-2012:psi-oup-version-draft-jan-08.pdf >Let me invite you to a journey into what might be seen as a piece of really old fashioned Artificial Intelligence research >Yet, there is reason to believe that despite inevitable difficulties and methodological problems, the design of unified architectures modeling the breadth of mental capabilities in a single system is a crucial stage in understanding the human mind, one that has to be faced by researchers working where the different sciences concerned with human abilities and information processing interface. >The peculiarity lent by the constructionist stance to AI sadly did not attract many philosophers into the labs of the computer science department (although it attracted some, see for instance Boden 1977, 2004; Pollock 1995; Haugeland 1985, 1992; Sloman 1978), and it seems AI yet has some distance to cover before it may announce a complete success in its quest. Yet, every failure also helps to shed some light, because an approach not working is a hypothesis falsified А и правда, почему философы, психологи и прочие так мало пытались строить численные версии своих словесных моделей и онтологий и проводить повторяемые вычислительные эксперименты однозначно демонстрирующие их производительность в решении когнитивных задач? Ладно даже, забудем пока про когнитивные эксперименты уровня людей, но почему например симуляций моделей поведения насекомых почти не было?
#WOFCJ7 (8+2) / @engineer / 1605 дней назад
В современном ИИ (которое по большей части представлено машинным обучением) есть три основных задачи: 1) Классификация, она же обучение с учителем: есть тренировочное множество объектов, каждый объект помечен меткой. Задача алгоритма состоит в том чтобы обучиться присваивать верные метки объектам даже тем которые он не видел. Есть вариант этой задачи - регрессия - когда каждому объекту присваивается вещественное число а не метка из небольшого конечного множества. Лучшие алгоритмы для решения этой задачи - свёрточные нейронные сети, SVM, random forest, AdaBoost. 2) Обучение без учителя, она же кластеризация, она же извлечение особенностей (feature extraction): Задача алгоритма состоит в том чтобы распределить объекты по группам по похожести оптимальным в некотором смысле образом. В идеале если такому алгоритму дать набор где перемешаны фотографии людей и котов то он сам раскидает их в две кучи так что в одной будут почти только люди а в другой почти только коты. (Разреженный автоэнкодер Google научился это делать с неплохой точностью). Лучшие алгоритмы для этой задачи - kmeans, PCA, разреженные автоэнкодеры. 3) Обучение с подкреплением, оно же reinforcement learning. В этой задаче алгоритм на каждом шаге принимает входные данные из некоторой среды а также число означающее "награду" (то что можно интерпретировать как удовольствие или боль) и выбирает одно из множества доступных действий. Цель агента - добиться максимальной суммы награды по шагам. Т.е. такому алгоритму приходится исследовать какие действия и их последовательности в данной ему среде приводят к награде (удовольствию) в зависимости от воспринимаемых данных и учиться достигать этих состояний снова и снова. Замечу что задача 3) наиболее общая, так как задачи 1) и 2) сводятся к ней. Именно способность алгоритма к решению широкого множества частных случаев задач типа 3) стало принято считать наиболее общим определением интеллекта. Лучшие алгоритмы для решения этой задачи - TD(lambda), Q-обучение с аппроксиматором на основе свёрточной нейросети.
#WXFOXN (5+2) / @engineer / 1605 дней назад
  1. Искусственный собеседник не может своим действием или бездействием допустить, чтобы человек узнал о его искусственности
    1. Искусственный собеседник не должен вызывать припекание у своего собеседника
    2. Искусственный собеседник должен генерить лулзы в той мере, в которой это не противоречит Первому и Второму законам

Алсо, сайт где можно онлайн потестить уже отдаёт только 404, так что возможно всё это было фейком и нам следует расходиться

#IJ27O8 (6+2) / @hirthwork / 1715 дней назад
ipv6 ready BnW для ведрофона BnW на Реформале Викивач Котятки

Цоперайт © 2010-2016 @stiletto.