http://sapiens4media.livejournal.com/2543174.html
В США система искусственного интеллекта сдала университетский экзамен по математике
They're coming!
Алсо, сайт где можно онлайн потестить уже отдаёт только 404, так что возможно всё это было фейком и нам следует расходиться
Прорывной результат же, а почти не обсуждается.
http://arxiv.org/pdf/1312.5602v1.pdf
Демонстрируется алгоритм для решения задачи обучения с подкреплением (на основе Q-обучения, нейросети для оценки функции награды и стохастического градиентного спуска для поиска её параметров) который способен учиться играть в 7 игр на Atari, в некоторые из них - лучше человека.
Интерфейс игрового бенчмарка таков: на каждом шаге алгоритм может выбрать действие из конечного набора (аналогично нажатию кнопки на геймпаде) и получает на вход массив RGB пикселей размером 210x160 и число - счёт в игре.
Алгоритм учится взаимодействовать с игрой как чтобы максимизировать счёт, т.е. учится успешным стратегиям игры (и заодно предсказанию будущей награды в каждый момент времени). Алгоритм неизменен, но после тренировки учится играть в любую из 7 игр.
Впечатляет что алгоритм принимает на вход векторы очень высокой (~800 - входные картинки сабсэмплятся и кропаются до 84х84) размерности и учится извлекать из них представление игры (среды в которой работает алгоритм) низкой размерности (содержащее только велечины которые влияют на награду), т.е. "понимает" игру.
Также впечатляет график 3 на странице 7: алгоритм "понимает" что новый враг это возможность получить больший счёт, выпускает снаряд и чем ближе снаряд к врагу тем выше ожидаемая награда.
Алгоритм разработан в DeepMind Technologies, конторе которую Google купило недавно за 400M$ http://www.digitaltrends.com/computing/google-deepmind-artificial-intelligence/
Формальная теория красоты (Шмидтхубер, http://www.idsia.ch/~juergen/creativity.html )
Пусть O(t) означает субъективного наблюдателя О в момент времени t.
Пусть H(t) означает историю предыдущих действий, чувств и наград наблюдателя до момента времени t.
О обладает каким-то адаптивным методом сжатия H(t) или её частей.
Мы обозначим субъективную мгновенную простоту или сжимаемость или регулярность или красоту B(D,O(t)) для любых данных D (но не их интересность или эстетическую ценность - смотрите ниже) как отрицательное число битов необходимое для кодирования D (видимо имеется разность длин D и его сжатого представления, прим. перев.), при данном ограниченном априорном знании наблюдателя и при его ограниченном методе сжатия.
Мы определим зависимую от времени субъективную интересность или новизну или удивлённость или эстетическую награду или эстетическую ценность или внутреннюю радость или радость как функцию I(D,O(t)) от данных D и наблюдателя O в дискретный момент времени t>0 как I(D,O(t)) = B(D,O(t)) - B(D,O(t-1)).
Эта величина описывает изменение красоты во времени, т.е. является первой производной субъективной простоты или красоты.
Когда обучающийся агент улучшает свой алгоритм сжатия, данные которые ранее были для него случайными становятся субъективно более упорядоченными и красивыми, требуя всё меньше и меньше битов для того чтобы их закодировать.
Пока этот процесс не закончился данные остаются интересными, но со временем они станут скучными несмотря на то что они останутся красивыми.
В момент времени t пусть r_i(t) = I(H(t),O(t)) обозначает мгновенную функцию веселья, радости или внутренней награды за улучшение сжатия путём открытия новых закономерностей где-то в H(t), истории действий и ощущений до момента времени t.
Пусть r_e(t) означает внешнюю награду в текущий момент времени, а функция r(t) = g(r_i(t),r_e(t)) - полную награду в данный момент времени, где g это функция которая взвешивает (определяет вклад) внутренней и внешней награды, например простая сумма: g(a,b) = a+b.
Целью агента во время t_0 является максимизация E[∑(t=t0,T,r(t))] где E это оператор математического ожидания, а Т - время смерти. (т.е. максимизация ожидаемой суммарной награды на промежутке времени от t0 до T).
запоздала анализируя новость про imb watson, который выучил уличный жаргон и обрек себя на прочистку памяти, подумал о том, что он мог выучить и менее очевидные пакостные вещи. В частности, ии, абсолютно не защищенный нормами морали, может вполне себе вывести к примеру всякие расистские заключения и, что более важно, ничем это не палить пока не станет поздно.
Причем корень этого зла заключается как раз в хороших сторонах ии - в том что можно создать большую машину с большим кол-вом данных, которая будет принимать решения без конфликтов субъективных точек зрения. Но как раз таки эти субъективные точки зрения и конфликты, возникающие на их почве, имеют оченьважную роль вцелом, позволяя поднимать на обсуждения всплывающие с ними вопросы... если правда скатываться в пустую полемику, словоблудие и отмазывание.
Ссылки имеющие отношение к универсальным языкам для представления знаний.
У ABBYY есть своя разработка Compreno:
http://www.abbyy.ru/science/technologies/business/compreno/#n;
которая напоминает http://www.undl.org/unlsys/unl/unl2005/ и http://en.wikipedia.org/wiki/Natural_semantic_metalanguage
Пара научных статей имеющиъ отношение к Compreno:
http://www.dialog-21.ru/digests/dialog2012/materials/pdf/Anisimovich.pdf
http://www.euralex.org/elx_proceedings/Euralex2012/pp456-461%20Selegey.pdf
IBM Watson - одна из наиболее интересных современных прото-ИИ систем. Мне, и многим другим интересно знать как она работает. Некоторое количество информации об этом разбросано по интернету:
Статья содержащая обзор высокоуровневыой архитектуры системы.
http://www.aaai.org/Magazine/Watson/watson.php
Инфраструктурные детали, а также предлагаемые открытые аналоги для создания простого и ограниченного налога IBM Watson.
https://www.ibm.com/developerworks/mydeveloperworks/blogs/InsideSystemStorage/entry/ibm_watson_how_to_build_your_own_watson_jr_in_your_basement7?lang=en
Что интересно, так это упоминание фреймворка UIMA который предназначен для извлечения фактов из неструктурированных источников. Одна из самых сложных задач на мой взгляд.
http://domino.research.ibm.com/comm/research.nsf/pages/r.nlp.innovation.html
http://farm6.static.flickr.com/5297/5455752519_37a780c5c7.jpg
Гайд по UIMA: http://www.fing.edu.uy/~gmonce/ws-uima-a4.pdf
http://www.nactem.ac.uk/tsujii/T-FaNT/T-FaNT.files/Slides/Brown.pdf
Сборник научных статей о UIMA и обработке естественного языка.
http://www.research.ibm.com/journal/sj43-3.html
В частности вот отдельные статьи:
http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.90.5824&rep=rep1&type=pdf
libgen.org/scimag5/10.1147/sj.433.0490.pdf http://libgen.org/scimag5/10.1147/sj.433.0490.pdf
libgen.org/scimag5/10.1147/sj.433.0516.pdf http://libgen.org/scimag5/10.1147/sj.433.0516.pdf
http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.137.8093&rep=rep1&type=pdf
Из этих статей можно получить некоторое представление об архитектуре и алгоритмах Watson, хотя многие детали остаются в секрете (их право, ведь они - создатели).