Anatoly Levenchuk (ailev) wrote,
Anatoly Levenchuk
ailev

Categories:

Экспоненциальные технологии: на этот раз компьютерная графика x2 меньше, чем за год

NVIDIA анонсировала новые видеокарты и сервер, основанные на чиповой архитектуре Turing -- https://blogs.nvidia.com/blog/2018/08/13/jensen-huang-siggraph-turing-quadro-rtx/, https://www.nvidia.com/en-us/design-visualization/technologies/turing-architecture/. В принципе, ничего принципиально нового и всё соответствует объявленной раньше стратегии:
-- новый чип не в центре презентации, презентуется платформа для узкого рынка компьютерной графики (как говорит NVIDIA CEO Jensen Huang, "конечный продукт всегда должен быть ограничен в своём назначении, чтобы заработать на нём деньги"). В платформе видеокарты для профессиональной графики (самая дорогая карта Quadro RTX 8000 стоит $10000) и сервер с 8 такими картами за $120000. Два системных уровня вверх от чипов и чёткий рыночный фокус: промышленная компьютерная графика, поддержка мониторов разрешения 8К "из коробки" и прочие плюшки для данного рыночного сегмента визуальных эффектов, на котором по оценкам NVIDIA будет крутиться $250млд..
-- презентуется новый софтверный стек поддержки этих решений (помним, что NVIDIA себя обозвала на GTC'18 не чиповой компанией, и не только компанией компьютерной архитектуры, но и software company).

Вот картинка с GTC'18 полугодичной давности (я публиковал её в https://ailev.livejournal.com/1416697.html):

Полгода назад речь шла о том, что две карты на Volta делают ray tracing в реальном времени -- и это прорыв в компьютерной графике, никогда такого не было.

А вот картинка из вчерашней презентации, те же фирменные зелёные плашечки технологических стеков NVIDIA для ray tracing:
NVIDIA_RTX_arch
Вот он, объявленный на GTC'18 тренд: вперёд к рынку. На верхушке стека промышленные приложения создания качественной машинной графики, а от уровня интерфейса трассировки лучей их отделяет ещё один слой: язык описания материалов MDL (Material Definition Language, open source) и язык описания сцен USD (Universal Scene Description от Pixar). Подробней -- на странице платформы RTX https://developer.nvidia.com/rtx

Плашка RTX из прошлого подхода, где было в прошлой презентации было две видеокарты на чипе Volta заменили на одну карту на чипе Turing -- и показали, что там внутри появился Ray Tracing Core из новых компонент архитектуры.

В апреле я писал: "Где там искусственный интеллект? Вы можете получить в OptiX [библиотека для трассировки лучей с фирменным API от NVIDIA в отличие от API DXR от Microsoft и "нейтрального" API Vulkan] в том числе удаление визуального шума алгоритмами искусственного интеллекта, да и про трассировку лучей в части требований к ресурсам уже поговаривают, что эти требования существенно уменьшат через задействование алгоритмов искусственного интеллекта. Аппроксимации рулят численным миром, а аппроксимациями рулят сегодня глубокие нейронные сетки и прочие универсальные аппроксиматоры, которыми богато сегодня машинное обучение".

Так и произошло: сочетание алгоритмов с использованием как Ray Tracing, так и Tensor Core (добавка алгоритмов искусственного интеллекта с необходимыми аппроксимациями) позволило упихнуть функциональность двух карт с чипами на 21млрд транзисторов в одну карту с 18.6млрд. транзисторов и при этом получить крутые новые качества: высококачественную обработку не только отдельных кадров, но и связанных во времени последовательностей изображений (видео), возможность включать плагины обработки изображений на базе нейронных сетей. Всё, компьютерная графика с четвёртого квартала 2018 стала другая: на одном чипе идёт полная трассировка лучей плюс нейросетевая обработка какими-нибудь плагинами спецэффектов, сделанных с SDK NGX (скажем, генерация видео замедленной съёмки по обычным кадрам -- https://news.developer.nvidia.com/transforming-standard-video-into-slow-motion-with-ai/, изменения в освещённости фигур и фона как в https://relonch.com/ и т.д., ждём через полгодика объявлений уже не про SDK, а про готовые плагины, изготовленные с его помощью. Это ж рынок!).

Вот этот "плагин обработки с использованием искусственного интеллекта" важнейший архитектурный элемент. Это центральное место, это архитектурный мейнстрим. Гибридные архитектуры, в которых спецпроцессоры сочетаются с ускорителями алгоритмов искусственного интеллекта -- вот они будут править миром. Это главное, и этот weak AI совершенно не похож AGI, это интеллект абсолютно нечеловеческого типа (как сила экскаватора тоже абсолютно нечеловеческого типа), и не нужно его недооценивать.

Вот тут сейчас поток новостей про возможности архитектуры Turing -- там много видео и фото, так что поглядите сами: https://nvidianews.nvidia.com/. Видео презентации (как обычно, хороший концерт) можно найти тут: https://www.youtube.com/watch?v=XByzjj9JTBM

Не обращайте внимания на все сравнения с архитектурой Pascal, это не для инженеров, а для маркетинга (типа как Pascal был для графических карт в машинных станциях, и Turing для графических карт, а Volta для карт AI в датацентрах). Насколько я помню, Volta подавалась как x3 по сравнению с Pascal (ох, там было много разных метрик, и не про графику, но я почему-то запомнил эту как одну из многих), а две карты Volta вместо одной Turing -- это ещё x2 (этого в данных нет, но я по простому: демо на GTC'18 требовала двух карт, а тут одной). Вот они, x6 в рендеринге по сравнению с Pascal. В любом случае, это x6 за два с половиной года (Паскаль -- May 27, 2016, Вольта -- December 7, 2017, Тьюринг -- August, 13), или x2 за чуть меньше года, то есть определённо экспоненциальная технология.

Вот тут чуть больше сравнения архитектур Volta и Turing (в Turing всего поменьше, чем в Volta, кроме Ray Tracing Core -- то есть это получилась специализированная для машинной графики архитектура): https://www.pcgamer.com/nvidia-unveils-turing-architecture-providing-a-glimpse-inside-the-next-geforce-cards/.

Понятно, что NVIDIA сейчас хвастается, как может перед инженерами компьютерной графики (сегодняшний анонс выхода видеокарт с Turing в 4 квартале 2018 года был сделан на конференции SIGGRAPH). Но уже 20 августа 2018 (через неделю) есть шанс получить новинки потребительской, а не промышленной машинной графики на базе архитектуры Turing, а именно игровые видеокарты: https://www.trustedreviews.com/news/nvidia-turing-2080-release-date-2952823 (и там дополнительная техническая информация, что чипы Turing на 12нм проектных нормах). При этом отбиваться от любителей компьютерных игр придётся не похвалой ray tracing, а тем, насколько удаётся поднять FPS в компьютерных играх. Хотя может выясниться, что FPS не волнует, если картинка фотореалистичная и тем самым завораживающая. А лучше и то, и другое, да ещё и подешевле. Потребители, они такие! Почитайте вот тут в комментах, как обсуждают отсутствие отражений внутри автомобиля на демо NVIDIA на 1:54 -- https://www.youtube.com/watch?v=XByzjj9JTBM (и обратите внимание, что демо по промышленной графике пришли обсуждать главным образом геймеры, люди из абсолютно другого рыночного сегмента. Хотя это не значит, что они люди ненаблюдательные и ничего в машинной графике не понимают. Но их больше интересует, как это всё поведёт себя в играх, что не так интересно для именно этого оборудования и софта, они совсем не для игровых приложений).

Для любителей и профи в deep learning это новое поколение карт не так интересно: там всего чуток поменьше, чем в серверных картах на Volta, но чуток побольше, чем в потребительских картах GTX. Тут ничего экспоненциального пока, так что ждём весны 2019 года. Уже понятно, что будут отдельно чипы для машинной графики с ray tracing (Turing), будут отдельно чипы для автомобилей с обработкой огромных потоков входной информации (Xavier, Orin) и что-то ещё, продолжающее линию Volta -- универсальный процессор для AI, который и мир с роботом может промоделировать (поддержка видео важна, вопрос, насколько мир для обучения AI должен быть фотореалистичен! Возможно, намного -- тогда и ray tracing будет неожиданно при деле) и нейронную сетку этого робота обучить. Тут нужно было бы пуститься в абстрактные рассуждения об архитектурах поддержки AI (всех этих deep learning и differentiable programming, deep evolution и т.д.) и одновременно реалистичного имитационного моделирования физического мира, но я уже писал об этом, не буду повторяться.
Subscribe

  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

  • 4 comments