Best viewed with LeechCraft on Microsoft Linux. Войти !bnw Сегодня Клубы
Привет, TbI — HRWKA! 1103.2 пользователей не могут ошибаться!
?6222
прекрасное5889
говно5758
говнорашка5049
хуита4042
anime2764
linux2461
bnw2302
music2273
log2066
рашка2011
pic1876
ололо1760
быдло1415
украина1365
сталирасты1203
гімно1143
дыбр1117
роботы_не_одобряют1005
bnw_ppl899

как вообще дебажите нейросети? ну скормил например big data, оно там кудато просралось, ноды посоздавались/поапдейтились/полинковались, как в целом посмотреть чо там? ну то есть например можно выдавать нодам IDшники, ну и чо? будет там например цепочка 1-4-6-41-12-43-45-23-11 по которой будет идти например float в диапазоне от -1.0 до +1.0 с агрегацией предыдущих уровней, и в последней ноде например будет 0.526346355. и чо дальше, как затрейсить это всё и понять что откуда как преобразовалось? или нейросети в принципе не дебажатся а можно собирать только статистику (например изменение соотношения шум/сигнал у каждой цепочки)?
#9GY1AR (5) / @n / 10 дней назад
почему до сих пор компьютеры не умеют генерировать годную музыку? например https://www.youtube.com/watch?v=QzP1uyR4nJI . пересмотрел весь ютуб и везде скучные монотонные простенькие мелодии. в чём загвоздка? вон, родина дала рандом, черпай разнообразие! не черпают, используют штук 5-10 звуков в простой мелодии и всё. 21 век, прогресс нацепили. говно генерируют. пиздец, охуеть вообще
#HAJCHB (0) / @n / 611 дней назад
Новая архитектура глубокой нейросети (Neural GPU) позволяет ей обучаться алгоритмам быстрее и обобщать лучше чем предложенной ранее Neural Turing Machine . В частности продемонстрирована тренировка модели на операциях двоичного сложения и умножения 20-битных чисел и обобщение этих операций на 200 и 2000 битные числа со 100% точностью: http://arxiv.org/abs/1511.08228 Очень интересно какие задачи получится решить с такой архитектурой, учитывая то что даже без такой сильной способности к обобщению глубокие нейросети уже дают выдающиеся результаты (например https://github.com/karpathy/neuraltalk2 https://github.com/abhshkdz/neural-vqa )
#1GM8LL (1+2) / @engineer / 1104 дня назад
хочу запрограммировать хуиту. посоветуйте либы для: 1) чтения пикселей с окна другого приложения (wine terranx.exe) 2) возможности срать в него евентами маусклика и кейпреса, в т.ч. когда оно минимизировано или намдругом воркспейсе
#E799JF (70) / @n / 1126 дней назад

http://sapiens4media.livejournal.com/2543174.html

В США система искусственного интеллекта сдала университетский экзамен по математике

They're coming!

#4U88Q4 (0+3) / @goren / 1172 дня назад
ai
Может кому-то будет интересно, я наткнулся на FAQ по исследованиям в области сильного ИИ. В нём коротко и честно объяснены основные навыки которые нужны для работы в этой области, основные подходы, их достоинства и недостатки (особенно недостатки, так как за последние 50 лет было перепробовано очень много неработающих подходов, автор честно признаётся что задача крайне трудная). Я не во всём согласен с автором, мне кажется он переоценивает роль рекурсивного самоулучшения в ИИ (ведь эта способность никогда не была продемонстрирована ни естественным ни искусственным интеллектом), но в качестве FAQ этот текст работает хорошо, с изложением истории спорить трудно. Вот сам FAQ http://bbs.stardestroyer.net/viewtopic.php?f=49&t=136633 А вот вырезанный оттуда список разных подходов к ИИ которые пробовали за последние полвека (судя по своим знаниям могу сказать что он почти полный, только reinforcement learning и AIXI не хватает) http://pastebin.com/DSENuPUM Ещё у автора текста есть свой ии-стартап http://web.archive.org/web/20101004033736/http://www.bitphase.com/technology.html правда он похоже не взлетел.
#FP3WQO (3+5) / @engineer / 1273 дня назад
Complex and Adaptive Dynamical Systems
#Y9VLX6 (2+1) / @l29ah / 1406 дней назад
А Ричард Саттон оказывается либертарианец, а я и не замечал: http://webdocs.cs.ualberta.ca/~sutton/
#EYPL64 (1+3) / @engineer / 1469 дней назад
Имплементация нейросети с STDP в песке: http://www.kip.uni-heidelberg.de/veroeffentlichungen/download.cgi/4620/ps/1774.pdf
#X59FAY (10+1) / @l29ah / 1475 дней назад
Юрген Шмидтхубер всего за час делает беглый обзор коннекционистских подходов к ИИ: многослойных перцептронов и свёрточных нейросетей, рекуррентных нейросетей, в том числе LSTM. (За полным обзором с библиографией - в ссылку из видео). http://www.youtube.com/watch?v=h4FqFss9hEY
#VFATG3 (0+3) / @engineer / 1490 дней назад
http://arxiv.org/pdf/1410.5401v1.pdf We extend the capabilities of neural networks by coupling them to external memory re- sources, which they can interact with by attentional processes. The combined system is analogous to a Turing Machine or Von Neumann architecture but is differentiable end-to- end, allowing it to be efficiently trained with gradient descent. Preliminary results demon- strate that Neural Turing Machines can infer simple algorithms such as copying, sorting, and associative recall from input and output examples. Замечательно, полностью дифференцируемый вычислитель, программу для которого можно изменять градиентным спуском по ошибке! Вычислитель малые изменения в представлении программы которого приводят к малым изменениям в алгоритме работы! Это - будущее. А наши гигабайты юниксовой деградации готовой сломаться в любой момент от одиночной перестановки бита, которую упорно пишут и чинят миллионы программистов и которая всё равно ломается - это артефакт XX века.
#RE0U61 (7+1) / @engineer / 1500 дней назад
Листаю тут книжку http://wiki.humanobs.org/_media/public:events:agi-summerschool-2012:psi-oup-version-draft-jan-08.pdf >Let me invite you to a journey into what might be seen as a piece of really old fashioned Artificial Intelligence research >Yet, there is reason to believe that despite inevitable difficulties and methodological problems, the design of unified architectures modeling the breadth of mental capabilities in a single system is a crucial stage in understanding the human mind, one that has to be faced by researchers working where the different sciences concerned with human abilities and information processing interface. >The peculiarity lent by the constructionist stance to AI sadly did not attract many philosophers into the labs of the computer science department (although it attracted some, see for instance Boden 1977, 2004; Pollock 1995; Haugeland 1985, 1992; Sloman 1978), and it seems AI yet has some distance to cover before it may announce a complete success in its quest. Yet, every failure also helps to shed some light, because an approach not working is a hypothesis falsified А и правда, почему философы, психологи и прочие так мало пытались строить численные версии своих словесных моделей и онтологий и проводить повторяемые вычислительные эксперименты однозначно демонстрирующие их производительность в решении когнитивных задач? Ладно даже, забудем пока про когнитивные эксперименты уровня людей, но почему например симуляций моделей поведения насекомых почти не было?
#WOFCJ7 (8+2) / @engineer / 1534 дня назад
В современном ИИ (которое по большей части представлено машинным обучением) есть три основных задачи: 1) Классификация, она же обучение с учителем: есть тренировочное множество объектов, каждый объект помечен меткой. Задача алгоритма состоит в том чтобы обучиться присваивать верные метки объектам даже тем которые он не видел. Есть вариант этой задачи - регрессия - когда каждому объекту присваивается вещественное число а не метка из небольшого конечного множества. Лучшие алгоритмы для решения этой задачи - свёрточные нейронные сети, SVM, random forest, AdaBoost. 2) Обучение без учителя, она же кластеризация, она же извлечение особенностей (feature extraction): Задача алгоритма состоит в том чтобы распределить объекты по группам по похожести оптимальным в некотором смысле образом. В идеале если такому алгоритму дать набор где перемешаны фотографии людей и котов то он сам раскидает их в две кучи так что в одной будут почти только люди а в другой почти только коты. (Разреженный автоэнкодер Google научился это делать с неплохой точностью). Лучшие алгоритмы для этой задачи - kmeans, PCA, разреженные автоэнкодеры. 3) Обучение с подкреплением, оно же reinforcement learning. В этой задаче алгоритм на каждом шаге принимает входные данные из некоторой среды а также число означающее "награду" (то что можно интерпретировать как удовольствие или боль) и выбирает одно из множества доступных действий. Цель агента - добиться максимальной суммы награды по шагам. Т.е. такому алгоритму приходится исследовать какие действия и их последовательности в данной ему среде приводят к награде (удовольствию) в зависимости от воспринимаемых данных и учиться достигать этих состояний снова и снова. Замечу что задача 3) наиболее общая, так как задачи 1) и 2) сводятся к ней. Именно способность алгоритма к решению широкого множества частных случаев задач типа 3) стало принято считать наиболее общим определением интеллекта. Лучшие алгоритмы для решения этой задачи - TD(lambda), Q-обучение с аппроксиматором на основе свёрточной нейросети.
#WXFOXN (5+2) / @engineer / 1534 дня назад
  1. Искусственный собеседник не может своим действием или бездействием допустить, чтобы человек узнал о его искусственности
    1. Искусственный собеседник не должен вызывать припекание у своего собеседника
    2. Искусственный собеседник должен генерить лулзы в той мере, в которой это не противоречит Первому и Второму законам

Алсо, сайт где можно онлайн потестить уже отдаёт только 404, так что возможно всё это было фейком и нам следует расходиться

#IJ27O8 (6+2) / @hirthwork / 1644 дня назад
ai rl

Прорывной результат же, а почти не обсуждается.
http://arxiv.org/pdf/1312.5602v1.pdf
Демонстрируется алгоритм для решения задачи обучения с подкреплением (на основе Q-обучения, нейросети для оценки функции награды и стохастического градиентного спуска для поиска её параметров) который способен учиться играть в 7 игр на Atari, в некоторые из них - лучше человека.
Интерфейс игрового бенчмарка таков: на каждом шаге алгоритм может выбрать действие из конечного набора (аналогично нажатию кнопки на геймпаде) и получает на вход массив RGB пикселей размером 210x160 и число - счёт в игре.
Алгоритм учится взаимодействовать с игрой как чтобы максимизировать счёт, т.е. учится успешным стратегиям игры (и заодно предсказанию будущей награды в каждый момент времени). Алгоритм неизменен, но после тренировки учится играть в любую из 7 игр.
Впечатляет что алгоритм принимает на вход векторы очень высокой (~800 - входные картинки сабсэмплятся и кропаются до 84х84) размерности и учится извлекать из них представление игры (среды в которой работает алгоритм) низкой размерности (содержащее только велечины которые влияют на награду), т.е. "понимает" игру.
Также впечатляет график 3 на странице 7: алгоритм "понимает" что новый враг это возможность получить больший счёт, выпускает снаряд и чем ближе снаряд к врагу тем выше ожидаемая награда.

Алгоритм разработан в DeepMind Technologies, конторе которую Google купило недавно за 400M$ http://www.digitaltrends.com/computing/google-deepmind-artificial-intelligence/

#WHTOY1 (5+4) / @engineer / 1768 дней назад
ipv6 ready BnW для ведрофона BnW на Реформале Викивач Котятки

Цоперайт © 2010-2016 @stiletto.