Ещё один набор ссылок по машинному обучению хорош тем, что в нём есть ссылки на странички 100 знаменитостей, мир должен знать своих героев: https://github.com/ChristosChristofidis/awesome-deep-learning
Как-то я пропустил ноябрьские заметки лекций Kyunghyun Cho -- Natural Language Understanding with Distributed Representation: http://arxiv.org/abs/1511.07916 (там 124 страницы, почти книжка). Он кстати, читал эти лекции без слайдов, с мелом и доской: http://www.kyunghyuncho.me/home/blog/lecturenotefornlpwithdistributedreponarxivnow
Недавний (8 декабря 2015) прорыв в переводе дальних пар языков (типа английский-китайский, сразу на 6 пунктов BLEU) -- http://arxiv.org/abs/1512.02433. Всего-то делов: поменяли цель обучения с maximum likelihood estimation на minimal risk training (minimize the expected loss on the training data). И там ведь уже вполне серьёзные BLEU -- 40.75 на одном из датасетов (поглядите на оригинальную статью про BLEU, там сравнения с человечьим переводом: http://www.aclweb.org/anthology/P02-1040.pdf, 40.75 это лучше, чем у человека по этой метрике). После этой работы Сергей Шегурин написал: "Практика показывает, что современные нейросетки на любой конкретной метрике достигают лучшего, чем люди, результата, то есть мы просто не совсем правильно формулируем им задачку, а решают-то они её превосходно" (https://www.facebook.com/groups/nevronet/permalink/579214648911527/), а ещё он предложил менять метрики на более точно отражающие человеческие понятия о качественном переводе. Я думаю, что результаты смены метрик понятны: их станет много, и хороший по одним метрикам перевод будет отвратительным по другим.
Ещё одна попытка обойти жёсткость описания сеток с dataflow (то есть пойти против линии Torch-Theano-TensorFlow): порождение сети в динамике, Chainer -- они себя называют "вторым поколением фреймворков", ни больше ни меньше: http://chainer.org/ (больше информации в http://www.slideshare.net/beam2d/presentations, и не вся она там по-японски). "Ещё одна попытка" -- это после MXnet (http://mxnet.rtfd.org/). Они так и докладывались оба на NIPS 15 в одной секции "систем", Chainer и MXnet -- http://learningsys.org/papers.html. А вот ещё одна попытка: вообще строить сетку интерактивно, прямо по ходу её тренинга -- dreaml, http://learningsys.org/papers/LearningSys_2015_paper_26.pdf. Там data frames (a data frame data structure intended for rapid and efficient incremental modification) и reactive data transformations, из functional reactive programming. Как всегда, начинается война между "правильными системами" и "популярными" с заранее понятным результатом.
Фантастические презентации по управлению из RNN сложными движениями (пока там нарисованные роботы, тем не менее): http://research.microsoft.com/apps/video/default.aspx?id=259609&l=i, http://www.technologyreview.com/news/544521/a-master-algorithm-lets-robots-teach-themselves-to-perform-complex-tasks/. Удивительно, как их раньше не замечали: ведь тамошние видео были опубликованы аж в 2012 году (https://youtu.be/mhr_jtQrhVA особо хорош, но и остальные не хуже: https://www.youtube.com/channel/UCqOSEIlvMNZ3_udEdLxRegg). Это UC Berkeley Robotics, http://www.eecs.berkeley.edu/~igor.mordatch/
При этом deep learning отнюдь не единственное направление. Вот, например, "нейроэволюция" с не менее чудесными результатами: https://www.reddit.com/r/IAmA/comments/3xqcrk/im_ken_stanley_artificial_intelligence_professor/ -- It's the exact opposite of the big computation/big data trend now in deep learning: it's tiny computation but with really surprising results. It tells us something about encoding, about objectives (or their lack thereof), and about what's possible with the right kind of evolutionary setup. In short, its important not because it's results are better or worse than something, but because they taught us so much. И там тоже много про роботов. И про дружбу и жвачку с deep learning: It is interesting to consider the merger of the power of both approaches, whereby you have depth and big data in one case, but divergence and quality diversity in another. Or architectures evolved through neuroevolution but optimized through deep learning. There are so many possible synergies here that it's too bad these communities are not historically in better contact.
Вот нейроэволюционный MarI/O (вирусное видео, больше 2млн. просмотров) -- https://youtu.be/qv6UVOQ0F44. Сначала в видеоигры начали играть нейроэволюционщики, и только потом DeepMind.