Anatoly Levenchuk (ailev) wrote,
Anatoly Levenchuk
ailev

Висит груша, можно скушать

Опубликовано расписание конференции NVIDIA GTC (GPU Technology Conference) -- http://www.gputechconf.com/agenda/schedule (и там есть ссылки на подробную программу -- 572 сессии, 664 спикера, при этом больше половины докладов и мастер-классов посвящены искусственному интеллекту, а не компьютерным играм, как раньше).

В ноябре 2014 году я ровно это и писал, что компьютерная графика для NVIDIA будет отходить на второй план, а главное направление удара -- машинное обучение (http://ailev.livejournal.com/1148809.html):
я думаю, что в очень и очень краткосрочной перспективе победят не новые игроки с новыми чипами, а именно GPU архитектуры в связке с передовыми софтверными пакетами. Гляньте, первая же картинка хвастовства по поводу выхода ускорителя NVIDIA Tesla K80 содержит именно пример про deep learning (на примере 24x разгона пакета Caffe по сравнению с чистым CPU и вдвое большим, чем в K40 -- http://www.anandtech.com/show/8729/nvidia-launches-tesla-k80-gk210-gpu). Фишка в том, что вся архитектура GPU потихоньку разворачивается в этом направлении, становится neuromorphic в каком-то смысле. Поглядите: разгон для машинного обучения NVIDIA заботит явно больше, чем разгон для многих и многих других типов задач (хотя тут может быть и просто тот факт, что раньше в этом направлении просто не думали, а сейчас вдруг озаботились. Но я именно об этом и пишу: озаботились, и это будет направление главного удара -- вместо компьютерной графики): http://www.nvidia.com/object/tesla-servers.html.
А ещё через год, с января 2016 в моих презентациях у меня любимым слайдом стал "всё будет быстро" (как я его назвал) из презентации NVIDIA -- про победы в компьютерном зрении (вот он у меня: http://ailev.livejournal.com/1256232.html, а вот источник: https://blogs.nvidia.com/blog/2016/01/12/accelerating-ai-artificial-intelligence-gpus/ -- именно в этом посте NVIDIA сказала, что будет заниматься отдельно чипами для обучения и отдельно чипами для "умозаключений", inference):

Объявлено уже (http://image-net.org/challenges/beyond_ilsvrc), что соревнование ImageNet в июле 2017 проводится последний раз: смысла мучить этот датасет уже нет, "всё стало быстро".

NVIDIA играет для машинного обучения последние три года в игру "висит груша, можно скушать": хотя мы очень много слышим (а я регулярно об этом ещё и пишу) про самые разные ускорители для машинного обучения, которые побеждают GPU со счётом 10:1 по энергопотреблению или скорости, но вот купить прямо сейчас можно главным образом GPU продукты NVIDIA с возможностью использования уже довольно богатой их экосистемы для машинного обучения. Все эти потенциальные x10 всё ещё нужно ждать, за очень редкими исключениями для очень крупных игроков.

Например, старый, 2015 года чип TPU от Гугля крут до невероятия по сравнению со старыми же GPU (https://drive.google.com/file/d/0Bx4hafXDDq2EMzRNcy1vSUxtcEk/view, https://www.nextplatform.com/2017/04/05/first-depth-look-googles-tpu-architecture/), но его не купишь ни старый, ни (наверняка уже имеющийся) новый. UPDATE: не прошло и трёх дней, и вот NVIDIA сравнила старый чип Гугля со своим чуть более новым чипом -- https://blogs.nvidia.com/blog/2017/04/10/ai-drives-rise-accelerated-computing-datacenter/, всё по-прежнему очень круто, но уже не до невероятия.

Нервановский чип от Intel пока тоже не купишь -- при всех недавних заявлениях "Intel aims to deliver up to 100x reduction in the time to train a deep learning model over the next three years compared to GPU solutions" (https://newsroom.intel.com/news-releases/intel-ai-day-news-release/).

А у NVIDIA всякие GPU ускорители можно купить в ассортименте уже сегодня. Есть маленькие, с кредитную карточку, TX2 (в России они уже на днях или раньше -- свежий вебинар с подробностями ситуации в России https://vk.com/video-105577071_456239130, а обзор девайса https://devblogs.nvidia.com/parallelforall/jetson-tx2-delivers-twice-intelligence-edge/). Из больших только что вышла очередная видеокарта NVIDIA TITAN Xp, совсем чуть-чуть круче Titan X 2016, но всё-таки вдвое круче, чем Titan X 2015 года -- 12TFLOPS. Худо-бедно, но за пару лет с 2015 года 2x по вычислительной мощности и производительности в сравнимых приложениях NVIDIA выдерживает -- движется в рамках закона Мура, вдвое за пару лет (хотя и не вдвое за год, ну так и сам закон Мура тоже несколько поприжух в последние годы). А если учесть, что NVIDIA серьёзно занимается ещё и драйверной (т.е. софтверной) частью для своих ускорителей и разгоняет специфические библиотеки машинного обучения для своих карт, то общий выигрыш на реальных задачах оказывается и побольше. Что выдаст NVIDIA через следующие три года ведь тоже никто не знает. Может, там тоже будет x100 по сравнению с её нынешними продуктами, как и Intel объявила. На то и конкуренция, чтобы никто не почивал на лаврах. А пока меееедленно, со скоростью Закона Мура.

NVIDIA совершенно неожиданно пригласила меня на GTC 2017. И я согласился, благо приглашение было без особых обязательств с моей стороны. Еду я туда даже не столько за какими-то хардверными новостями, их можно получить из интернетов, в количестве (хотя не исключено, что анонсируют прямо там что-то новенькое и интересное, ну так я в прошлом году эти анонсы оттуда в прямом эфире смотрел, сидя у себя дома. Концерт, он и есть концерт). Еду я туда, чтобы познакомиться с приложениями AI в инженерии -- это явно не концертная программа, и сидя в кресле многого на эту тему не узнаешь.

Прыть, с которой NVIDIA с лидера в компьютерной графики перелицевалась в лидера AI железа, удивляет. Три года назад представить было нельзя, такого количества докладов по приложениям машинного обучения в конференции NVIDIA. И ведь речь ведь идёт не только о приложениях в инженерии. Полистайте программу, там много чего интересного, типа использования систем искусственного интеллекта для проведения хирургических операций: понять, где разрезать, разрезать, уточнить, что не так, исправить это, зашить разрез -- вот такие вот роботы обсуждаются. И это на конференции фирмы, где соседние доклады по привычке обсуждают реалистичные изображения драконов и зомби на 4K дисплеях любителей оттянуться в компьютерных играх.

При этом на конференции есть и интересные варианты использования GPU в инженерии и без AI, и без компьютерной графики: анализ потоков данных от инженерных датчиков, разные архитектуры серверов с GPU для разгона СУБД. Полистайте программу. Я вот полистал, очень удивился.
Subscribe
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

  • 6 comments