Anatoly Levenchuk (ailev) wrote,
Anatoly Levenchuk
ailev

Categories:

Ссылки по глубокому обучению и напоминание о нейроэволюции

Никак не могу привыкнуть, что ML это не markup language, а machine learning. AutoML -- это автоматизация подбора алгоритмов для машинного обучения (http://www.automl.org/, http://papers.nips.cc/paper/5872-efficient-and-robust-automated-machine-learning, https://competitions.codalab.org/competitions/2321 -- в последнем хорош специфический для машинных обученцев термин Tweakathon), OpenML -- это открытые наборы данных, постановки задач и скрипты в онлайне для машинного обучения (http://www.openml.org/). Ах, ещё есть и язык ML, поэтому такие как http://mosml.org/ вообще не про маркап и не про обучение.

Ещё один набор ссылок по машинному обучению хорош тем, что в нём есть ссылки на странички 100 знаменитостей, мир должен знать своих героев: https://github.com/ChristosChristofidis/awesome-deep-learning

Как-то я пропустил ноябрьские заметки лекций Kyunghyun Cho -- Natural Language Understanding with Distributed Representation: http://arxiv.org/abs/1511.07916 (там 124 страницы, почти книжка). Он кстати, читал эти лекции без слайдов, с мелом и доской: http://www.kyunghyuncho.me/home/blog/lecturenotefornlpwithdistributedreponarxivnow

Недавний (8 декабря 2015) прорыв в переводе дальних пар языков (типа английский-китайский, сразу на 6 пунктов BLEU) -- http://arxiv.org/abs/1512.02433. Всего-то делов: поменяли цель обучения с maximum likelihood estimation на minimal risk training (minimize the expected loss on the training data). И там ведь уже вполне серьёзные BLEU -- 40.75 на одном из датасетов (поглядите на оригинальную статью про BLEU, там сравнения с человечьим переводом: http://www.aclweb.org/anthology/P02-1040.pdf, 40.75 это лучше, чем у человека по этой метрике). После этой работы Сергей Шегурин написал: "Практика показывает, что современные нейросетки на любой конкретной метрике достигают лучшего, чем люди, результата, то есть мы просто не совсем правильно формулируем им задачку, а решают-то они её превосходно" (https://www.facebook.com/groups/nevronet/permalink/579214648911527/), а ещё он предложил менять метрики на более точно отражающие человеческие понятия о качественном переводе. Я думаю, что результаты смены метрик понятны: их станет много, и хороший по одним метрикам перевод будет отвратительным по другим.

Ещё одна попытка обойти жёсткость описания сеток с dataflow (то есть пойти против линии Torch-Theano-TensorFlow): порождение сети в динамике, Chainer -- они себя называют "вторым поколением фреймворков", ни больше ни меньше: http://chainer.org/ (больше информации в http://www.slideshare.net/beam2d/presentations, и не вся она там по-японски). "Ещё одна попытка" -- это после MXnet (http://mxnet.rtfd.org/). Они так и докладывались оба на NIPS 15 в одной секции "систем", Chainer и MXnet -- http://learningsys.org/papers.html. А вот ещё одна попытка: вообще строить сетку интерактивно, прямо по ходу её тренинга -- dreaml, http://learningsys.org/papers/LearningSys_2015_paper_26.pdf. Там data frames (a data frame data structure intended for rapid and efficient incremental modification) и reactive data transformations, из functional reactive programming. Как всегда, начинается война между "правильными системами" и "популярными" с заранее понятным результатом.

Фантастические презентации по управлению из RNN сложными движениями (пока там нарисованные роботы, тем не менее): http://research.microsoft.com/apps/video/default.aspx?id=259609&l=i, http://www.technologyreview.com/news/544521/a-master-algorithm-lets-robots-teach-themselves-to-perform-complex-tasks/. Удивительно, как их раньше не замечали: ведь тамошние видео были опубликованы аж в 2012 году (https://youtu.be/mhr_jtQrhVA особо хорош, но и остальные не хуже: https://www.youtube.com/channel/UCqOSEIlvMNZ3_udEdLxRegg). Это UC Berkeley Robotics, http://www.eecs.berkeley.edu/~igor.mordatch/

При этом deep learning отнюдь не единственное направление. Вот, например, "нейроэволюция" с не менее чудесными результатами: https://www.reddit.com/r/IAmA/comments/3xqcrk/im_ken_stanley_artificial_intelligence_professor/ -- It's the exact opposite of the big computation/big data trend now in deep learning: it's tiny computation but with really surprising results. It tells us something about encoding, about objectives (or their lack thereof), and about what's possible with the right kind of evolutionary setup. In short, its important not because it's results are better or worse than something, but because they taught us so much. И там тоже много про роботов. И про дружбу и жвачку с deep learning: It is interesting to consider the merger of the power of both approaches, whereby you have depth and big data in one case, but divergence and quality diversity in another. Or architectures evolved through neuroevolution but optimized through deep learning. There are so many possible synergies here that it's too bad these communities are not historically in better contact.

Вот нейроэволюционный MarI/O (вирусное видео, больше 2млн. просмотров) -- https://youtu.be/qv6UVOQ0F44. Сначала в видеоигры начали играть нейроэволюционщики, и только потом DeepMind.
Subscribe

  • lytdybr

    Очередной разбор: ювелирка, банкротство, ЦОД, договорка купли-продажи. Ещё супервизия в одной из корпоративных групп, там разговаривали про сервисы и…

  • lytdybr

    Опубликовал новую версию руководства по системному мышлению (…

  • lytdybr

    Потихоньку переписываю руководство по системному мышлению для инженеров-менеджеров. В обязательствах добавилось кроме подробностей про квалификации и…

  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

  • 10 comments

  • lytdybr

    Очередной разбор: ювелирка, банкротство, ЦОД, договорка купли-продажи. Ещё супервизия в одной из корпоративных групп, там разговаривали про сервисы и…

  • lytdybr

    Опубликовал новую версию руководства по системному мышлению (…

  • lytdybr

    Потихоньку переписываю руководство по системному мышлению для инженеров-менеджеров. В обязательствах добавилось кроме подробностей про квалификации и…