Машинный интеллект идёт к вам: он уже нашёл вашу страну, нашёл ваш город и теперь ищет вашу улицу. Не читайте этот пост на ночь, плохо будете спать.
Тёплый мясной человеческий интеллект легко расстался с мыслью, что самолёт летает лучше человека, но тяжело расстаётся с мыслью, что рак лёгких и переломы компьютер-рентгенолог распознаёт лучше, чем бригада топ-рентгенологов (Enlitic benchmarked its performance against the publicly available, NIH-funded Lung Image Database Consortium data set, demonstrating its commitment to transparency. In detection of fractures, Enlitic achieved 0.97 AUC (the most common measure of predictive modeling accuracy), more than 3 times better than the 0.85 AUC achieved by leading radiologists and many times better than the 0.71 AUC achieved by traditional computer vision approaches. -- http://www.enlitic.com/press-release-10272015.html). Это совсем не IBM Watson, как можно было бы ожидать, это Enlitic (http://www.enlitic.com/news.html).
Меняется и организация "клинических испытаний". Данных медицинских уже много, вот мозгов (мокрых или кремниевых, это неважно), которые с ними могут справиться, мало. Так что легко проверять работоспособность алгоритмов на уже имеющихся базах медицинских данных -- например, вот данные для компьютеров, желающих посоревноваться с рентгенологами: http://imaging.cancer.gov/programsandresources/informationsystems/lidc. Тут никакой опыт, стаж и статус не помогает, тут спорт -- и молодые спортсмены (competitors, "соревнователи" -- именно так переводится "конкуренты" на английский) имеют все шансы выиграть у старичков, даже если это старички-люди, а не старички-алгоритмы. Правила бенчмаркинга активно обсуждаются, в зачёт идут только конкретные результаты. Вот пример: http://dswalter.github.io/blog/machine-learnings-first-cheating-scandal/.
Подождите полгода, и вы узнаете о приложениях, в которых работают новые алгоритмы. Иногда эти приложения будут от лидеров соответствующего рынка, иногда эти приложения будут от совсем маленьких малоизвестных стартапов и будут знаменовать становление нового рынка. Инвестпузырь надувается, надувается быстро, но помним о том, что самые крупные инвестиции и проекты приходят обычно уже после того, как пузырь лопнул -- пена одномоментно уходит, но нормальная жизнь потом продолжается. Первый интернет-сайт был сделан в 1991 году, пузырь доткомов лопнул в 2000 году, но рост интернета так и не замедлился. Фейсбук был, например, основан только в 2004 году, через четыре года после того, как лопнул интернет-пузырь, хотя Гугль ещё в 1998 -- за пару лет до этого.
Завтра начнётся конференция по экономике машинного интеллекта (Machine Intelligence, обратите внимание на смену термина с "искусственного интеллекта") -- http://deeplearning.net/2015/12/01/conference-on-the-economics-of-machine-intelligence-dec-15/. This meeting is not a computer science conference. The focus is on the business opportunities that ML is spawning: what has already happened, trends, and how the future may unfold.
Лидеры рынков и сами рынки при крутых технологических прорывах обычно меняются. С приходом машинного интеллекта лидеры рынков могут меняться быстрее, чем обыватели и даже специалисты на этих рынках будут успевать отслеживать и осознавать эту смену. Да что там лидеры рынков, сами рынки будут появляться и исчезать в мгновение ока. Компаний, использующих deep learning или другие технологии machine learning, уже множество, объявленных инвестиций давно больше $1млрд.
Проинвестированные компании работают в самых разных отраслях, ибо интеллект приложим повсеместно. Спецов по deep learning, наверное, уже и сейчас больше работает в каких-то прикладных бизнесах больше, чем в специализированных компаниях. А специализированные компании? Напомню только одну из классификаций (http://techcrunch.com/2015/11/26/machine-intelligence-in-the-real-world/):
-- "паноптикумы" (собирают всевозможные наборы данных, чтобы потом продавать их владельцам алгоритмов -- Planet Labs, Premise and Diffbot)
-- "лазеры" (вертикальные нишевые компании, хорошо разбирающиеся с одним типом данных -- Tule Technologies, Enlitic, InVenture, Conservation Metrics, Red Bird, Mavrx and Watson Health)
-- "алхимики" (сервисы с алгоритмами -- Nervana Systems, Context Relevant, IBM Watson, Metamind, AlchemyAPI (acquired by IBM Watson), Skymind, Lucid.ai and Citrine).
-- "шлюзы" (сервисы с алгоритмами, но специализируются на каком-то одном типе данных, в отличие от всеядных "алхимиков" -- Clarifai, Gridspace, Orbital Insight, Descartes Labs, Deep Genomics and Atomwise).
-- "волшебные палочки" (пользовательские приложения с интеллектом, резко позволяющие снизить планку квалификации работников -- Textio, RelateIQ (acquired by Salesforce), InboxVudu, Sigopt and The Grid)
-- "штурманы" (связанные с реальным "железом" навигаторы-автопилоты, интеллектуальный транспорт и логистика -- Blue River Technologies, Airware, Clearpath Robotics, Kiva Systems (acquired by Amazon), 3DR, Skycatch, Cruise Automation and the self-driving car groups at Google, Uber, Apple and Tesla).
-- "агенты" (киборги-помощники -- Clara, x.ai, Facebook M, Digital Genius, Kasisto and Howdy).
В декабре 2015 опубликовано довольно много прорывных работ по алгоритмам машинного обучения, это означает, что через полгода компании будут предлагать прорывные сервисы и продукты.
Вот, например, на одном из тестов уже удалось превзойти человеческий уровень качества в распознавании речи (речь была без шума и искажений, без акцента, но ещё в начале этого года такое достижение казалось делом далёкого будущего): http://arxiv.org/abs/1512.02595v1. Работа посвящена даже не столько демонстрации рекордного качества распознавания, сколько приёмам по ускорению и упрощению вычислений для онлайн-сервиса распознавания речи. Более того, для демонстрации подхода было выбрано два абсолютно разных языка (английский и мандарин) и заявлено, что никаких спецов по языку для реализации распознавания новых языков не нужно. В статье намёк, что результаты уже работают на основных серверах этой немаленькой компании.
Проблема обучения очень глубоких сеток уже во многом решена. Вот, например, обучение сеток глубиной 150 и даже 1000 слоёв -- http://arxiv.org/abs/1512.03385, такие глубокие сетки уменьшают чуть ли не на треть ошибку распознавания объектов на картинках, при этом вычислительная сложность не растёт. Это Microsoft, так что потребители в той или иной форме получат эти результаты быстро.
Deep learning занимаются всё больше народу (эти профи ещё не имеют самоназвания типа "глубокие учителя" или "инженеры нейронных сетей", но скоро что-то такое появится), говорят они на птичьем языке (вот отчёт одного из победителей соревнований -- нужно было распознать платный контент, замаскированный как настоящий, много ли вы поймёте из отчёта? http://blog.kaggle.com/2015/12/03/dato-winners-interview-1st-place-mad-professors/), но этот птичий язык сейчас учат толпы. Только на последней конференции NIPS 2015 очно было около 4000 человек, вдвое больше, чем в прошлом году. Только из Гугля там было 140 человек -- http://googleresearch.blogspot.ru/2015/12/nips-2015-and-machine-learning-research.html
Один из обзоров трендов года: http://opendatascience.ru/%D1%82%D1%80%D0%B5%D0%BD%D0%B4%D1%8B-deep-reinforcement-learning-nips-2015/, там в том числе и такой тренд, что исследования и использование сливаются, ибо ведутся на одном и том же софте. И интересный софт продолжает и продолжает появляться, например MXNet явно хочет стать более гибкой библиотекой машинного обучения, чем последние наработки от гигантов рынка -- http://arxiv.org/abs/1512.01274, всё за счёт того, что embedding of both symbolic expression and tensor operation is handled in a unified fashion.
И "железо" потихоньку подтягивается, это важно, ибо мощность "железа" сейчас один из лимитирующих факторов в стоимости работы (http://www.nextplatform.com/2015/12/07/gpu-platforms-emerge-for-longer-deep-learning-reach/):
На рынок готовится прийти и другое железо, например EIE chip -- http://www.nextplatform.com/2015/12/08/emergent-chip-vastly-accelerates-deep-neural-networks/, as the benchmarks show, the energy efficiency is better by between 3,000X on a GPU and 24,000X on CPU.
Растёт интерес и к другим типам алгоритмов машинного обучения, нежели deep learning. Например, вероятностное программирование (тут довольно много ссылок по теме: http://ailev.livejournal.com/1211950.html) позволяет учить компьютер маленьким количеством данных, "с первого предъявления" -- http://www.technologyreview.com/news/544376/this-ai-algorithm-learns-simple-tasks-as-fast-as-we-do/. Both humans and the software draw new characters after seeing one handwritten example, and then asking a group of people to judge whether a character was written by a person or a machine. They found that fewer than 25 percent of judges were able to tell the difference.
Где следить за новостями? Всё равно у вас на это не будет времени (ибо новостей слишком много), но вот несколько мест:
-- http://vk.com/deeplearning (русскоязычная группа deep learning вконтакте, сейчас почти 3тыс. человек)
-- http://www.wikitract.com/ (краткое содержание интересных статей, это что-то типа вики. В разы меньше работ, чем в группе вконтакте -- пытаются отбирать "важнейшие").
-- https://www.semanticscholar.org/ -- специализированный поисковик, там можно фильтровать по датам