Category: авто

2019

Целевая система и наша система

Основная трудность в определении целевой системы и нашей системы, как водится, не в собственно системном мышлении, а в онтологике: наличие двух классификаторов для одного объекта. Я вот могу быть одновременно лысым и тёплым, но всегда найдутся люди, которые будут искать два разных предмета -- один лысый, другой тёплый. Легко путать предметы и их свойства.

Понятие "нашей системы" (our system) было введено для личной ролевой (нашего "малого проекта" в составе большого командного проекта) фокусировки внимания — и "наша система" может совпадать или с какой-то системой в составе целевой системы (т.е. подсистемой), или с какой-то системой в обеспечении (их там тьма, в том числе они вытягиваются в цепочки обеспечения, где одна из систем обеспечения "изготавливает" (т.е. вносит изменения в) другую систему обеспечения. Если люди занимаются сервисом (изготовлением и наладкой в сервисе станочков/софта) или они менеджеры (их внимание на команде прежде всего), то их системы обычно -- системы в обеспечении, а целевые системы -- это уж как у всех, то что изготавливается самим сервисом или самой командой, и иногда через целую цепочку (моя система -- наладочная приспособа "обеспечения обеспечения", которой я налаживаю станок из обеспечения, который изготавливает деталь как подсистему целевого изделия).

Скажем, в парикмахерской делают причёски. И все радостно говорят, что это будут женские причёски высокой моды, обсуждают максимальную длину волос, количество лака для одной причёски и т.д.. И поручают кому-то из команды подхакать кресло по высоте, чтобы распущенная коса до попы не оказалась косой до пола. У этого кого-то целевая система по-прежнему будет причёска (целевая система команды), а его (личной) системой — кресло (причём brawnfield, подхакивание, а не изготовление с нуля). И это кресло явно в системе обеспечения, оно не участвует во времени эксплуатации причёски. И это подсистема в парикмахерской как системе обеспечения.

При этом подхакивателю кресла не удастся вести разговоры про своё кресло как целевую систему — у всех остальных же в головах причёска как цель. Но все признают, что это кресло — его система! Но дальше целевая система при обсуждении нашей системы остаётся крайне важна — все рассуждения про кресло потом должны дотягиваться до причёски как целевой системы, иначе кресло может получиться шикарным, а причёска никакой.

Системных разбиений (в старой терминологии — холархий) тем самым тоже множество: каждая система (целевая, наша, в окружении, в обеспечении, их подсистемы) имеет своё разбиение, и даже минимально три (функциональное, продуктное/конструктивное/модульное, размещения/мест/компоновочное). Целевая система имеет своё разбиение (она часть надсистемы, т.е. входит в разбиение окружения), каждая из систем в окружении своё, каждая из систем в обеспечении своё. И "наша система" тоже имеет своё разбиение, куда она входит как часть и куда входят её подсистемы. Подхакиваемое кресло имеет свои части и входит в парикмахерскую. И ещё в момент его эксплуатации в окружении кресла находятся в том числе и волосы клиентки, которые не должны достигать пола в распущенном состоянии.

Для чего всё это нужно? В среду у меня было очередное занятие со студентами МФТИ, и мы рисовали их целевые системы и цепочки обеспечения. И определяли их роль и их системы в проекте. Системное мышление это просто управление вниманием, чеклист того, о чём нужно подумать. После того, как определялась целевая система и цепочка обеспечения, каждому становилось в разы понятней его роль в проекте, чем занят сам проект, и как там всё устроено в этом клубке людей, идей, дел и оборудования, который и называют "проектом". Целевая система тут обычно самый неопределённый элемент, ибо часто команда переконцентрируется на какой-нибудь ключевой подсистеме, и внимание оказывается перекошенным. Скажем, нанотрубки никогда не продаются сами по себе, всегда в составе смеси. Целевые системы -- смеси с нанотрубками, а не сами нанотрубки, которые тут лишь подсистемы. И это существенно сдвигает фокус обсуждения, когда идёт разговор о проектах в такой компании. Вот, кстати, пример такого же сдвига у компании NVIDIA -- "NVIDIA is not a chip company, we are a computer architecture company, we are a software company. Поэтому объявление чипов будет теперь важным событием, но не запредельно важным: типа как объявление нового электродвигателя у автопроизводителей или как объявление нового авиадвигателя у производителей самолётов" (https://ailev.livejournal.com/1416697.html). Чипы перестали быть целевой системой в компании, их целевой системой стал набор самых разных других систем -- автомобильных компьютеров и софта, компьютеров и софта для обработки медицинских изображений. Но для кого-то в комании его система -- это таки чип GPU, а для кого-то подразделение компании NVIDIA (система в обеспечении целевой).

Каждый командный проект по факту состоит из более мелких проектов. И чтобы не запутаться в том, кто что для чего когда делает, нужно различать целевую систему для всех в большой команде проекта и нашу систему для нашей маленькой команды подпроекта (в том числе и для команды из себя, любимого). И признавать, что у кого-то в проекте тоже может быть его система. Вы легко договоритесь, если обе ваших системы будете делать с ориентацией на успех целевой системы. Или не договоритесь, если ваши деятельности в общем проекте непонятно как связаны. Поэтому используйте системное мышление для управления вниманием: своим, своей маленькой команды и всей команды проекта.

Если вы рисуете картинку с целевой системой и её окружением, с цепочкой обеспечения, то она рисуется одним цветом — командным. А потом другим личным цветом на диаграмме ставится крестик, отмечающий нашу систему. Только так. Командная система координат, потом личная отметка своего места в контексте командной работы. Потом только разбирательство, что там личного внутри -- сначала окружение, только потом что внутри.
2019

Хайп с роботакси закончился. Текущий уровень автопилотирования: 2.5, а уровень 4 ждём в 2021

По итогам CES'18: на автомобильном рынке затишье перед бурей, остановились на уровне 2.5, и даже уровень 3 -- "в недалёком будущем". Сертифицированный уровень 4 ожидается в 2021 году самое раннее. В этом (и следующем, и так будет долго -- как с видеокартами, эта гонка будет вечной) году ждут более мощных AI-чипов, и их будет множество конкурирующих. Но адекватных пока нет, все лидеры рынка кормят обещаниями и не называют конкретных дат. В этом (и следующем, и так будет долго) году ждут мощных и дешёвых лидаров, других хитрых оптических решений (вплоть до каких-нибудь хитрых фасеточных решений с вычислительной оптикой), ибо датчики до сих пор держат. Тут всё ещё более неопределено, чем с чипами. Но входные барьеры ниже, поэтому конкуренция очень сильна. Регуляторы тормозят, а пресса играет на понижение. Дальше немного ссылок с подробностями.

Инцидент с наездом машины Uber без водителя на пешехода и последовавший запрет Uber что-то испытывать -- это для всех в отрасли был холодный душ. Хайп кончился, все осторожничают -- заголовок обзорчика говорит сам за себя: CES 2019 Cools on Self-Driving, https://medium.com/syncedreview/ces-2019-cools-on-self-driving-digital-cockpits-v2x-in-vehicle-shopping-drive-mobility-market-1a0d711e0048

NVIDIA объявила о продаже готовой системы NVIDIA DRIVE AutoPilot, "первая в мире коммерчески доступная система автоматизированного вождения" -- и это всего навсего Level 2.5 на AGX Xavier. Подаётся это так: The new Level 2+ system complements the NVIDIA DRIVE AGX Pegasus system that provides Level 5 capabilities for robotaxis, bringing advanced AI safety features to the roads sooner. (это прямо из оригинального анонса -- https://blogs.nvidia.com/blog/2019/01/07/nvidia-drive-autopilot/). То есть объявленное пришествие роботакси временно откладывается, а увидим мы Level 2.5 -- и только в модельном ряду автомобилей 2020 года выпуска. А что с NVIDIA DRIVE AGX Pegasus и тем, что Xavier вполне может и Level 3? А ничего с этим. Идёт разработка, идут испытания, никто не хочет подставляться -- и дат готовности не назначают. "Когда будет готово, мы вам скажем. Готов уровень 2.5, его и пользуйте".

И Тесла "чтобы не смущать" закрыла в октябре свою продвинутую опцию автопилота, и в итоге у Теслы тоже остаётся где-то уровень 2.5 https://venturebeat.com/2018/10/19/telsla-drops-full-self-driving-capability-option-for-new-vehicles/. Насколько и почему закрыла? Причина была названа, "чтобы не смущать" -- но на какое время закрыла -- не очень ясно. Please note that Self-Driving functionality is dependent upon extensive software validation and regulatory approval, which may vary widely by jurisdiction. It is not possible to know exactly when each element of the functionality described above will be available, as this is highly dependent on local regulatory approval -- https://www.tesla.com/autopilot?redirect=no.

Так что сменить полосу движения ваша машина сможет, а вот подвезти, куда скажете -- нет. Уже пошли рейтинги, ибо этот уровень 2.5, похоже, есть уже у всех производителей (лучший у Кадиллака, у Теслы он только второй). Вот: https://www.consumerreports.org/autonomous-driving/cadillac-tops-tesla-in-automated-systems-ranking/

Пресса в буквально каждой статье про беспилотные автомобили напоминает, что уже был наезд на пешехода автомобилем Uber, и какие-то аварии с Tesla. Буквально в каждой статье! Забыть об этих единичных случаях не дадут. "Человечество разучилось рисковать" как-то заметил Элон Маск, когда речь шла о регулировании космических полётов. То же относится и к автомобилям. Автомобилестроение в какой-то мере напоминает сейчас атомную промышленность, которая практически перестала развиваться уже много лет из-за жёсткой политики регулирования.

Поэтому наблюдаем "многоукладность": с одной стороны, уже идёт коммерческая эксплуатация роботакси (Waymo -- https://medium.com/waymo), а с другой -- доработка систем автоматического вождения до такого уровня, чтобы надёжно убедить всех регуляторов. Основных проблем две: недоступность чипов для обработки данных с датчиков (скажем, NVIDIA DRIVE AGX Xavier -- 30TOPS, а Pegasus -- 320TOPS, но это будущее, а не настоящее. Примерно такие же данные у всех остальных: и Intel Movidius выпускает свой чип, и Tesla свой, и Baidu (проект Apollo), не только они, и все заявляют, что "вдесятеро круче текущих", но это у всех только планы. Похоже, такие чипы будут доступны только к концу года, а без них уровни 4 и 5 недоступны по факту). Второй фактор -- это датчики. Тут три фактора: текущие системы слепы в сильный дождь и снегопад при любых датчиках (поэтому запуски роботакси идут в городах с вечно хорошей погодой -- тот же Феникс), стоимость лидаров и радаров падает экспоненциально, поговаривают о тепловизорах, но есть и фирмы, которые ориентируются исключительно на оптический диапазон: "человек же видит нормально, вот и машина будет видеть нормально"). Вот эти трудности можно почитать тут, в откровениях разработчика Movidius Mobileye-- там даётся оценка, что все эти проблемы будут решены (надёжный уровень 5) за 5-10 лет -- https://venturebeat.com/2019/01/11/mobileye-plans-to-deploy-fully-autonomous-cars-in-4-years/.

Это "5-10 лет" от 2019 существенно отличается от "2020-2021 год", которые мы слышали раньше. То есть 2024 как самый ранний срок вместо 2021 как самый поздний в предыдущем прогнозе). Но три года разницы -- это в масштабах подобного цивилизационного сдвига (речь тут ведь не просто про автомобили -- это просто сейчас самая видимая часть этого фронтира роботизации) просто ничто. А пока появился новый вид автомобилей: "driverless ready", как это было с HD Ready телевизорами. Компьютеры и датчики в них уже тянут Level 3 -- но регулирование не даёт это всё задействовать. Например, электромобиль M-Byte от компании Byton. Там много амбиций, это китайский рынок, и внутри автомобиля даже есть уже Alexa. “We are on track to start production by the end of this year. The fully operational capacity will be 300,000 cars a year.”, но: Но: the car will be upgradeable to level 3 autonomous driving — where the car does most of the driving — in the future, the company said. https://venturebeat.com/2019/01/06/byton-readies-three-autonomous-ready-electric-cars-for-production-as-early-as-2019/. При этом буквально летом команда K-byte говорила, что тест уровня 4 будет в конце 2020 года -- https://www.forbes.com/sites/sebastianblanco/2018/06/12/byton-k-byte-concept-electric-sedan-debut-shanghai-level-4-autonomous-2020/#1ea577db2005 (и переговоры шли с двумя компаниями, которые могли бы обеспечить программно-аппаратный стек для уровня 4).

Там такое впечатление, что все в круговой поруке -- сидят NDA на NDA, обет молчания у всех. И темнят просто откровенно. Никаких дат, никаких характеристик. Для Pegasus даже непонятно, отгружаются ли образцы партнёрам, или не отгружаются. С чипами конкурентов всё то же самое. То ли их ещё разрабатывают, то ли уже испытывают на живых машинах.

Хайп утих, но всё происходит более чем стремительно, это только в прессе можно прочесть про утихший хайп как про "похолодание". Но нет, это просто перестали транслировать завышенные ожидания, но не перестали работать. Успехи -- они есть, хотя только в городах с хорошей погодой.
Эта интрига с адаптацией автопроизводителей к приходу AI -- самое интересное, что делается на планете. Это круче, чем даже происходящее в медицине (ибо там просто напишут, что "AI выдаёт что-то со статусом совета лично врачу, лицензии не требуется", и всё, пока не запустят робота-хирурга-беспилотника (и там его уж будут по полной сертифицировать, как и автомобиль). А тут не скажешь, что "автомобиль советует водителю" -- у Tesla такое не прокатило уже, по этому пути ведь попытка была сделана, пришлось опцию откатить временно.

И попкорн даже закупать не нужно, ибо всё при этом сдувшемся хайпе стремительно продолжает развиваться -- каждую неделю очередные новости про беспилотники, такое вот странное "окончание хайпа".

UPDATE: обсуждение в фейсбуке -- https://www.facebook.com/ailevenchuk/posts/10214628941411273
2019

Доклад "Может ли вещь в интернете системно мыслить?"

Сегодня доложился на конференции IoT Day Moscow 2018 (http://internetofthings.ru/sobytiya/208-iot-day-moscow-2018, этих "дней" сегодня на планете было штук тридцать в разных городах) по теме "Может ли вещь в интернете системно мыслить?", доклад шёл аж десять минут. Основной тезис: да, может и будет, да ещё и версия системного мышления будет посложней, чем нынешняя. Видео доклада (https://www.facebook.com/kolesnikov.andrey.3/videos/1627834610597817/, мои там первые 10 минут):

Краткое содержание:
-- я сам состою из вещи-тела, который как енот у меня на майке: ограниченно умный и с лапками
-- всё остальное, что делает меня человеком -- это софт, полученный из культуры. Разные знания-умения.
-- я, кофейник, автомобиль без водителя все входим в интернет вещей, мы там все вещи, и у всех там вещей разный софт, он берётся из культуры
-- зачем кофейнику или автомобилю без водителя мыслить системно? Затем же, что и еноту: преодолевать сложности окружающего мира, время от времени. Лучшее сегодняшнее мышление для преодоления сложностей из имеющихся в культуре -- это системное мышление.
-- системное мышление пользуется преимуществами множественного моделирования мира: множество стейкхолдеров каждый выполняют самые разные моделирования мира. Результирующие формальные модели, соответствующие различным онтологиям, невозможно объединить.
-- системное мышление коллективно: позволяет объединять как-то разные модели мира. Это объединение формально независимых систем может быть выполнено коннективистски (подробности тут опускаем).
-- современные вещи, снабжённые коннективистскими вычислителями, тоже могут не только выполнять формальные вычисления, но и принимать участие в совмещении моделей с разными формализмами
-- обучать вещи быстрее всего, если они не сами будут делать эксперименты в мире, а в качестве priors используют уже имеющуюся у человечества культуру. Системное мышление тем самым может быть выучено вещами, например, из моего учебника: как начальное состояние (prior).
-- тем самым системное мышление оказывается размазанным по самым разным людям и другим вещам, связанным между собой
-- но кофейник и автомобиль не ограничены биологической конструкцией мозга, они могут демонстрировать понимание более сложных моделей мира, чем люди. Физиков, которые могут двигать физическую теорию вперёд, уже не так много на планете. Кофейник и автомобиль с более совершенным вычислителем, чем мозг, вполне могут продвинуть физическую теорию: и либо найти интересные способы её упрощения, либо наоборот, сделать её чуть сложней, чем доступно человеку -- но зато более точно моделирующей мир. И то же верно для системного мышления: оно сейчас сложно, но будущий вариант его с участием вещей может оказаться ещё сложней.
-- так что в конечном итоге вещи (люди и другие вещи, неотделимые друг от друга, живущие в общей культуре Земли) смогут не просто системно мыслить, но их системное мышление может оказаться продвинутой версией борьбы со сложностью, недоступной сегодняшним людям.

И, конечно, в кулуарах я много раз ехидно спрашивал, кто входит в состав всяческих "мы" и "наших", о которых говорили собеседники. Ответы были более чем разнообразны. Вся эта "тёплая ламповая человечность" прочно въелась в язык, в расхожую "народную" картину мира. Вот я писал на эту тему в 2014 году, и искусственный интеллект, с которым можно поговорить про системное мышление, тогда не рассматривался "народными массами" даже в проекте -- https://ailev.livejournal.com/1146390.html. А сейчас со смартфонами реально разговаривают, с компьютерами реально разговаривают, с автомобилями начинают реально разговаривать, и кофейники в плане "на поговорить о смысле жизни" уже тоже очень скоро на подходе. Пора, пора как-то перестраивать мозги, мир уже начал меняться, хотя и медленно. Забудьте завтра свой мобильник дома, побегайте денёк -- и вы почувствуете, что значит быть вне интернета вещей, в который, просто по определению, входят и люди тоже. Люди, которые всегда на связи и вещи, которые тоже на связи. Ну, а дальше не нужно сочинять теории видового превосходства по теориям расового превосходства и делать замеры черепа биологических людей и кофейников. Хотя я понимаю, будет очень обидно, если кофейник пройдёт за ночь курс системного мышления http://systemsthinkingcourse.ru/, а вы нет. Но это должна быть личная обида, а не коллективная за всех умственно обездоленных гомо сапиенсов. Нет же обид на автомобиль, что он быстрее человека! И на беспилотный автомобиль не должно быть обид, что он умней -- и не надо басен про "тело". Помним про того же Хокинга: не в здоровом теле енота или человека дело.
2019

Что на свете всех сложнее? Автомобили вырываются вперёд

Пик сложности сегодня перемещается в автомобильную промышленность, выражение rocket science для обозначения запредельной сложности потихонечку устаревает. Да, разгонять железки до минимально 7.91км/сек в пустом вакууме очень трудно и очень дорого. Но управлять железкой, несущейся безопасно на реальных дорогах со скоростью примерно в триста раз меньшей, 25метров/сек (90км/час), причём не в вакууме, а рядом с такими же несущимися в разные стороны и с разной скоростью железками оказывается труднее -- если нужно уложиться в земные цены решений, а не цены космические.

Ключевое слово тут -- безопасность, при этом безопасность уровня ASIL-D (https://en.wikipedia.org/wiki/Automotive_Safety_Integrity_Level Level D, refers to the highest classification of initial hazard (injury risk) defined within ISO 26262 and to that standard’s most stringent level of safety measures to apply for avoiding an unreasonable residual risk). Грубо говоря, если у вас там сломается компьютер, то он должен работать, несмотря на поломку. Если заглючит программа, то она должна работать, несмотря на глюки -- и к нейросетям это тоже относится. Резервирование, избыточность, вот это всё. Но задёшево и массово.

7 января 2018 на CES были раскрыты дополнительные детали автомобильного интеллект-стека NVIDIA (я писал об этом стеке подробно в ноябре 2017, https://ailev.livejournal.com/1384766.html):


В этой архитектуре конкретизирована real time операционка, сертифицированная на ASIL-D, это Blackberry QNX (https://blackberry.qnx.com/en) с софтом для обеспечения безопасности приложений от TTTech (https://www.tttech.com/).

Приведены также подробности по Drive Xavier: сам чип SoC Xavier делали 2000 инженеров 4 года, потратили $2млрд., 12нм проектные нормы, 9млрд.транзисторов, "самый сложный чип SoC, который делало человечество" (ибо "самый сложный не SoC чип, который делало человечество" это Volta с 21млрд.транзисторов). Xavier тоже ASIL-D, это главная его фишка. Там 8 кастомных ядер 64 бит ARM CPU, Volta GPU, дополнительный акселератор нейронных сетей, обработка видео с камер. Отгрузка образцов железа Drive Xavier для автомобилей уровня автономности 3 и 4 начинается уже в этом квартале, и даже был намёк, что первые Drive Pegasus для уровня автономности 5 могут быть отгружены уже в конце 2018 -- и на них всех автомобильных, а также облачных датацентровых Volta Tesla будут работать одни и те же программы. В доказательство привели видео беспилотного автомобиля, который бодро двигался на Drive Xavier, хотя сам чип был получен только пару недель назад: портировать на него весь софт с предыдущего поколения Drive PX получилось за пару недель. И всё заработало на реальных дорогах, и водитель там был в тестовой поездке по обычным (не полигон!) дорогам без шлема.

Это очень, очень круто. Для суперсложных военных или аэрокосмических применений такие навороченные чипы не делают, слишком будет дорого. Так что такой чип (и компьютер на его основе вместе с выполняющимся на них софтом) в составе автомобиля делает автомобиль одним из самых сложных устройств человечества.

Ещё появились подробности про средства виртуализации с HIL (hardware in the loop) и SIL (software in the loop), и даже holodeck внутри симулятора. Нужно смотреть видео, чтобы понять, о чём речь. И обратите внимание, как часто там звучит в этом отрывке про виртуализацию слово "архитектура": софт автомобиля эмулируется в том же суперкомпьютере, что симулирует обстановку -- это позволяет работать в режиме быстрее реального времени. Ну, или выполняется на внешнем автомобильном компьютере, только помедленнее.

Вот тут оригинальный ролик презентации NVIDIA на CES'18 https://youtu.be/P3BjB5-Y4JM (крутой техно-концерт) и слайдах http://cms.ipressroom.com.s3.amazonaws.com/219/files/20180/JHH_CES2018.pdf (куча технических подробностей).

Меня во всём этом поражает сложность:
-- получить SoC чип на 9млрд. транзисторов на 12нм совсем-совсем непросто. Это ну очень круто, технология для этого запредельно сложна: как 1. технология разработки и проверки моделей таких чипов -- и тут компьютеры помогают делать компьютеры, так и 2. технология изготовления (все эти чистые комнаты с дико сложной и капризной химией и литографией).
-- системный софт: операционная система, коммуникации, драйверы, компиляторы. Обманчиво кажется очень простым, потому как об этом редко пишут, но это не так.
-- все эти навороты прикладного автономного софта: работа с точными картами (тут своя технологическая вселенная -- GIS это непросто!), обработка сигналов с камер и лидаров с их дикими потоками данных и собственными технологиями работы с шумами и высоким разрешением, исполнение моделей нейронных сетей.
-- стек обучения нейросетей (по сути, компьютер пишет софт для управления автомобилем: делает модель нейронной сетки): суперкомпьютер, симулятор дорог и эмулятор автомобильного стека. И огромное количество данных по реальным поездкам, чтобы всё это натренировать.
-- хардвер самого автомобиля тут выглядит самым простым и отработанным элементом. Но думать нужно не о хардвере автомобиля, а о хардвере автомобильного завода, вместе со всеми его роботами и сложнейшей логистикой снабжения сырьём и полуфабрикатами (все эти Tiers).

Фишка в том, что только в части роботакси-стека у NVIDIA сейчас 320+ партнёров, работающих с её интеллект-стеком для автономного движения. И у всех какие-то свои тараканы в голове, что означает крайнее внимание к архитектуре в части модульности и повышенную открытость платформы. Каждый получает то, что ему нужно, и не больше -- остальное пытается сделать сам.

То есть всё написанное "сложное" существует в огромном количестве чуть (или даже не чуть) различающихся вариантов, непрерывно эволюционирует и переползает всё время с более старых компонент автомобильного интеллект-стека на новые, по мере их готовности.

Как я уже писал в посте про роботакси-стек, стратегия NVIDIA делать те модули платформенного стека, которые пока никто не делает, самостоятельно -- но не стремясь выдавить всех конкурентов, просто превращая успешных конкурентов в партнёров. Например, в Мюнхене в октябре в NVIDIA говорили, что операционки для автомобилей пока нет хорошей, и намекали, что делают поэтому свою. А вот сейчас оказалось, что операционка есть: сертифицированный QNX. Операционку отдали -- и слава богу. Но чипы -- чипы вряд ли отдадут, CUDA тоже не отдадут. А уж что будет со всей этой клубящейся конструкцией через пару лет, можно только предполагать: только ленивый сегодня не хочет откусить кусок от автомобильного пирога, очевидно же, что для этого крайне удачный момент -- мало кто соображает, что происходит, так всё стремительно меняется.

Я думаю, что следующая интересная история будет не с большими интеллектуальными роботами на четырёх колёсах, а с нежитью поменьше -- роботами. Удивительно, но архитектурно там почти всё то же самое, что в беспилотных автомобилях, только энергопотребление и вычислительные мощности поменьше. Ну, и софт чуток отличается, но тот не слишком сильно. Так что ждём GTC с роботами. Роботы уже проходили краешком на мюнхенской GTC'17, пора их в эпицентр для зачина следующей большой истории.

Но и с автомобилями это ещё не всё: презентовалось решение для 3 и 4 уровня автономности вождения, а для пятого уровня будет Drive Pegasus на чипе, который ещё не презентован. И чип этот пойдёт наверняка сначала в датацентры (как Volta), а потом уже в этот самый Pegasus.

Забавно, что в 2015 году я писал (https://ailev.livejournal.com/1157827.html): "CES 2015 мне пока понравилась только одним символическим событием -- NVIDIA выдала автомобильный чип Tegra X1 с потреблением 10Вт и производительностью терафлопс. И ещё NVIDIA представила автомобильный суперкомпьютер DRIVE PX. On it are two Tegra X1s. This gives 2.3 teraflops of processing power, can connect up to 12 cameras and can process 1.3 billion pixels a second. Подробности тут: http://blogs.nvidia.com/blog/2015/01/04/live-nvidia-ces/. Всё остальное как-то обыденно, несмотря на все показываемые чудеса" -- и вот CES 2018 тоже пока отличается именно этими автомобильными прорывами, остальное тоже как-то обыденно.

Роботакси-стек (а потом и потихоньку подтягивающийся робот-стек) -- это очень интересный кейс для обсуждения системной инженерии и предпринимательства. Все слова про "модульность", "платформы", "открытую архитектуру" можно иллюстрировать конкретными примерами из глянцевых презентаций CEO на потребительских выставках. Это уже нельзя считать птичьим языком системных инженеров из военного аэрокосмоса. Интересно начинается 2018 год.
2019

NVIDIA как поставщик инфраструктуры для роботакси-стека

Роботакси (robotaxi), теперь это так называется. Уже не беспилотный автомобиль, не автономное транспортное средство в личном владении, а роботакси (https://en.wikipedia.org/wiki/Robo-Taxi): не вы сами едете на собственном автомобиле, а вас заберут, откуда скажете, и отвезут, куда скажете. За оставшихся 12 лет до 2030 года рынок такси по оценке Goldman Sachs вырастет в восемь раз (https://www.nextbigfuture.com/2017/10/worldwide-ridesharing-at-285-billion-per-year-by-2030-will-be-profitable-when-self-driving.html). И именно на этот рынок с 2021 года нацеливаются роботакси:

Почему так нескоро, почему аж через три года, только с 2021? Вот причины:
-- пока нет регулирования. Как нам рассказывал на GTC Europe старший директор NVIDIA по автопромышленности Danny Shapiro, "мы понимаем, что автономное транспортное средство регуляторы допустят на дороги, если оно будет безопасней управляемого человеком. Но мы не знаем до сих пор аппетиты регуляторов: хотят ли они вдвое бо́льшую безопасность, впятеро, или даже вдесятеро бо́льшую. И поэтому мы не знаем уровня технологического ответа, и не можем хотя бы примерно указать дату, когда будут готовы все необходимые технологии". Первой страной, похоже, тут будет Германия, в которой вот-вот начнётся легализация Audi 8 третьего уровня автономности на скоростях до 60км/час (это уровень, при котором можно читать в пробках, https://en.wikipedia.org/wiki/Autonomous_car -- где они в Европах берут пробки со скоростями до 60км/час?). Так что ожидаем официального третьего уровня уже в следующем году (свежие новости тут: http://www.motortrend.com/news/audi-tech-chief-peter-mertens-talks-autonomy/). В остальных странах всё много хуже. Например, в UK тоже целятся в 2021, к которому планируют в том числе переписать и законодательство о страховке, ибо непонятно кто кому за что будет платить -- https://www.theguardian.com/business/2017/nov/06/government-urged-to-plug-insurance-black-hole-over-self-driving-cars.
-- не готово автомобильное железо. Разработчики Audi 8 уровня 3 говорят: "A8 имеет встроенную избыточность в рулевом управлении, в тормозах, в способности ускоряться и всём остальном. Если это делать в ходе жизненного цикла модели, вы будете переделывать половину автомобиля, и это сверхпроблема. Поэтому мы решили с самого начала, что этот автомобиль будет первым, который готов для уровня 3" (это из интервью по вышеприведённой ссылке на MotorTrend). Современные оценки tipping point электромобилей -- 2020 год (Тони Себа, http://ailev.livejournal.com/1307264.html), так что автомобили с автопилотами 4 и 5 уровней уже будут электромобилями. The Economist недавно оценил, что tipping point для электромобилей может быть уже в 2018 году -- https://cleantechnica.com/2017/11/05/economist-global-tipping-point-electric-car-2018-video/). С "железноинженерной" точки зрения тут важно, что с точки зрения собственно инженерии никаких особых проблем нет: поскольку это не военные, а гражданские разработки, то стоимость и время разработки тут падет год от года при возрастающей сложности результата -- сегодня это примерно полтора года, а с приходом электромобилей ожидается и всего год. И это при том, что электроника и софт составляют сегодня до 40% в стоимости нового автомобиля, даже без учёта автопилота.
-- не готов автомобильный интеллект-стек: ни в части софта, ни в части аппаратуры. Но будет готов к 2021 году, когда выйдут автомобили с уровнем автономности 4 и 5.

Вот этот последний пункт разберём подробней на материалах NVIDIA, неожиданно ставшей чуть ли не монополистом на рынке автономных транспортных средств. Этот разворот к роботакси довольно неожиданный для крупнейшего поставщика игральных видеокарт, даже с учётом переориентации на рынок ускорителей вычислений искусственного интеллекта.

Какие масштабы грядущего автомобильного бизнеса NVIDIA? В готовой к продаже и ожидающей решения регуляторов Audi A8 уровня 3 присутствует 6 процессоров NVIDIA (от суперкомпьютера для вождения до процессора с видеоускорителем для развлекательной электроники автомашины -- хотя насчёт суперкомпьютера всё немного туманно, точных сведений, что там стоит именно PX-2 нет -- см. 4 страницы рассуждений на эту тему в https://seekingalpha.com/article/4087793-first-level-3-sd-car-may-include-nvidias-drive-px). NVIDIA есть за что побороться, авторынок ведь огромен -- и если в один автомобиль уходит шесть чипов, то это вшестеро бОльший кусок пирога.

У NVIDIA заключены стратегические соглашения с большинством крупных автомобильных компаний (от Toyota и Volvo до Mercedes-Benz и BMW). На GTC Europeв начале октября 2017 заявлено, что с технологиями автомобильного интеллект-стека NVIDIA DRIVE работают сейчас 145 стартапов. Основное достоинство работы с NVIDIA DRIVE в том, что автомобильные технологии можно отлаживать уже на сегодняшней аппаратуре, эта аппаратура уже второго поколения, а для остального чёткий roadmap (https://www.nvidia.co.uk/self-driving-cars/drive-px/):
-- DRIVE PX autocruise, уровень 1, это уже проехали
-- DRIVE PX-2 Autoshauffeur, уровень 2, это текущая поставка.
-- DRIVE PX Xavier, архитектура Volta для автопилота уровня 3 (20TOPS на 20Ватт). Xavier would begin in Q1 2018 for select early development partners and Q3/Q4 2018 for the second wave of partners, volume shipments are likely to be in 2019.
-- DRIVE PX Pegasus, следующая после Volta архитектура для роботакси уровня 5 (320TOPS на 500Ватт). Появится примерно через полгода после Xavier (то есть в середине 2018), тут всё будет происходить быстро, конкуренты ведь тоже не дремлют.

На рынке обычно кто первым встал, того и тапки. Пока тапки автомобильных нейросетей у Mobileye, который купила Intel. Так что сейчас это битва NVIDIA и Intel. У NVIDIA были только платы для десктопов и серверов, а автомобильные компьютеры появились только недавно, адекватное потребностям рынка предложение только анонсировано, самих чипов ещё в поставке нет. Текущая стратегия NVIDIA -- предлагать автопроизводителям работать на том компьютерном железе, что уже есть, а завтра просто сделать апгрейд на понятную аппаратуру следующего поколения. Mobileye тоже есть что предложить прямо сейчас, но внятного roadmap пока нет. Вообще, у Intel в планах поддержка множества технологий искусственного интеллекта, самых разных, но чёткого фокуса пока нет. NVIDIA имеет много меньше ресурсов, и чёткий фокус. Это фокус (в том числе и фокус-покус отбора тапок у Mobileye) от системного подхода: предложение NVIDIA не ограничивается чипом ускорения или даже компьютером на основе этого чипа, речь идёт о полном стеке технологий поддержки автономных транспортных средств.

Фрагмент моего учебника про модульные описания, платформы и технологические стеки: https://ailev.livejournal.com/1380087.html, а подробно про NVIDIA как поставщика инфраструктуры для интеллект-стека я разбирал в https://ailev.livejournal.com/1380163.html с добавочкой про собственно электронику в https://ailev.livejournal.com/1382464.html.

Но в данном случае это не абстрактный интеллект-стек, а конкретный автомобильный интеллект-стек, и у него есть имя (NVIDIA DRIVE) и особенности: часть этого стека составная часть роботакси (автомобильный суперкомпьютер DRIVE PX и самые разные софтверные компоненты), а другая часть -- составная часть обучающей компании, серверное железо и софт, хорошо стыкующийся с DRIVE. Автомобильная компания как "обучающая компания" звучит непривычно, но как ещё назвать разработчика, который не столько разово "разрабатывает" и потом выпускает, сколько непрерывно "обучает" свои модели роботакси в ходе всей их эксплуатации? Вот основная схема разработки/сопровождения (это ещё не технологический стек! Это попытка NVIDIA отобразить технологии жизненного цикла разработки):

Суть конкурентного предложения NVIDIA не только быстро тренировать автомобильную нейросеть на своих суперкомпьютерах, но и быстро её тестировать -- verification and validation. HIL и SIL на этой диаграмме означают знакомые всем системным инженерам hardware-in-the-loop и software-in-the-loop, означающие, что относительно маломощный автомобильный суперкомпьютер вместе с его софтом эмулируется на облачных серверных кластерах. Натренированная нейросетка тестируется при этом на виртуальных дорогах в режиме быстрее реального времени. Если бы нужно было проехать все дороги США с твёрдым покрытием, то на 8 серверах DGX и компиляторе нейросетей TensorRT 3 это было бы сделано всего за двое суток. Хотя сейчас тестирование идёт отнюдь не на всех дорогах США (зато и не только на дорогах США), скорость тестирования примерно 100тыс. км/час (сто тысяч километров в час!). В результате большинство ошибок находятся не в реальных ситуациях, а в ходе виртуальных заездов. NVIDIA делает разработчикам автономных транспортных средств (autonomous vehicle, AV) доступным такую разработку-обучение-тестирование "из коробки" уже сегодня, и набирать опыт можно начиная с текущего автомобильного компьютера PX-2.

А вот это уже классический платформенный стек DRIVE:

Особенность подхода NVIDIA в том, что компания пытается сделать весь этот стек самостоятельно, не дожидаясь, пока консервативная автомобильная промышленность воспроизведёт его у себя. Это может быть не слишком качественый стек, но он позволит системно оттестировать предлагаемые NVIDIA решения, накопить опыт, вырваться вперёд конкурентов. Так, сегодняшние операционные системы реального времени QNX и ROS не тянут приложения автомобильного суперкомпьютинга. Поэтому NVIDIA прописывает в стеке автомобильную операционку, и можно ждать каких-то анонсов. Конечно, если кто-то из автопроизводителей выбирает свои собственные "промышленного уровня", а не экспериментальные, как у NVIDIA решения, то это для NVIDIA вполне приемлемо. Автомобильный суперкомпьютер будет куплен у NVIDIA, а софт нет, только и всего. Но к этому моменту будет гарантия, что автомобильный суперкомпьютер действительно работоспособен для реальных приложений, с ним не будет неожиданностей. Если просто сидеть и ждать, пока автопроизводители созреют для покупки больших партий автопилотного железа, можно дождаться его покупки у конкурентов. Тут проще подсуетиться с полным стеком, подтолкнуть автомобилестроителей, дать им набраться опыта -- и оставить за собой те части стека, где опыта у автомобилестроителей не наберётся. У разных фирм не наберётся разного опыта для разных приложений, а сам автомобильный суперкомпьютер вообще должен получиться уникальным и его придётся покупать.

Вот софт DRIVE IX (intelligent experience), встроенный в полный стек DRIVE -- и добавляемые им функции:

Что нужно делать этому софту? А вот что: распознавание людей по лицу, отслеживание направления взгляда и позиции головы, распознавание жестов, работа с естественным языком, распознавание речи и произнесение речи, чтение по губам, понимание происходящего вокруг (external environmental awarennes). See how AI co-pilot technologies read every movement to keep you safe -- https://www.youtube.com/watch?v=h9npvMFI-mc. Это будет эксплуатироваться задолго до появления роботакси -- доступ разработчиков к этим технологиям будет уже в этом квартале. Для многочисленных стартапов, занимающихся "помощниками вождению" будет хорошая база для сравнения.

Если взять сам софт и хард DRIVE AV, то тут нужно сделать огромный скачок от текущего уровня 2 (уже бегающая по дорогам Tesla как раз где-то уровень 2-2.5, но не 3) до желаемого уровня 5. Вот что нужно:

У текущего комплекта компьютерной аппаратуры для выполнения сравнимых требований потребляемая мощность 6КВт, полный багажник. "Мозг" автопилота по объёму и энергопотреблению вполне сейчас сравним с двигателем. Вот как выглядит сегодняшний "автобус-без-водителя" внутри кабины:
e.GO Mover
А вот как выглядит легковой автомобиль, который по факту из-за "мозга" лишился багажника, это и есть шестикиловаттный (6КВт! Это ещё и печка!) state-of-the-art сегодняшнего дня с PX-2:

А вот что будет -- это пятисоттватный DRIVE PX PEGASUS:

Вот это NVIDIA, конечно, никому не отдаст, и это расщепляется сразу на несколько уровней в автомобильном компьютерном стеке:
-- CUDA (драйвер к аппаратуре, так она видится из прикладного софта)
-- одноплатный суперкомпьютер, размером с плашку автомобильного номерного знака
-- чипы (двух разных архитектур: парочка системы-на-чипе Xavier и парочка чипов ещё безымянной архитектуры ускорения нейронных сетей),
-- разные IP на чипе (например, Volta cores в составе чипа Xavier)

Конечно, роботакси это не единственная автомобильная область, где собиратся закрепиться NVIDIA. Вот, например, гоночный автомобиль для таких как я, не любящих рисковать почём зря -- пилот даёт наказ машине выиграть, и идёт пить кофе, а машина гоняется по трассе сама:
roborace
А ещё самые разные грузовики, самые разные автобусы. Через пару-тройку лет мы увидим много удивительного.

И, конечно, у автомобилестроения будут огромные потрясения: автопроизводители перестанут быть основными получателями прибыли. На меня большое впечатление произвёл доклад калифорнийской лаборатории беспилотников Мерседеса, но не тот момент, когда докладчик рассказывал об успешно использованной им байесовской оптимизации нейросетей (чем он очень гордился, хотя в этот момент и потерял практически всю аудиторию), а в тот момент, когда я сообразил, что он хочет повторить Google Assistant, в девичестве Google Now.

"Автомобиль в лице нашей системы глубокого обучения, -- вещал докладчик, будет изучать своего владельца, чтобы предвосхищать его выборы. Так, он будет учитывать текущее местонахождение, прошлые поездки, погоду, время суток, чтобы сделать подсказку водителю при показе наиболее вероятного места поездки". Я не верю, что Мерседес изучит меня лучше, чем телефон. Телефон наблюдает за мной практически круглосуточно, разве что в постель со мной не ложится (и даже внимательно слушает происходящее в постели: вдруг вы скажете "ОК, Гугль" или "Слушай, Яндекс"?! И кто его знает, что он ещё при этом внимательно выслушивает). Скорее всего, я просто буду говорить своему телефону брать под контроль автомобиль -- и все надежды автопроизводителей на торговлю разными сервисами на основе того, что они меня хорошо изучат и предложат что-то эдакое, на этом месте не оправдаются. Сервисы мне будет предлагать мой персональный ассистент (живущий где-то в облаке, и имеющий глаза-уши-интерфейсы в телефоне), а не автопроизводитель. Даже если автопроизводитель сольётся с выпускающей автожелезки фирмой и станет поставщиком услуг такси. Автопроизводителям останется только производить и ремонтировать железки в их неэлектронной части (даже не софт!). Ну, может быть мыть их время от времени, если пришлось прокатиться по грязи в каком-нибудь маленьком городке. А львиную долю прибыли от навороченных на этот бизнес сервисов возьмут себе совсем другие люди -- отнюдь не потомственные автостроители. Впрочем, это рассуждение касается не только автопромышленности.

Ещё интересно, что инфраструктура обучения автомобильных моделей (сбор огромного количества данных, виртуальные модели для обучения и экспериментов, включая моделирование целевого устройства в виртуальной среде) по факту эквивалентна технологии digital twins. Я задал вопрос Marc Hamilton, который вице-президент NVIDIA по Solutions architecture and Engineering, понимают ли они это. Ответ: да, понимают, активно работают с General Electric, и даже один компьютер DGX Workstation ушёл куда-то на фабрику собирать и обсчитывать обильные цифровые ряды, собираемые с какой-то установки -- без AI собирать изобилие данных бессмысленно, всё остальное для digital twins уже есть. А AI сегодня без серверов NVIDIA не работает. Автомобильный директор NVIDIA Danny Shapiro ничего про digital twins (будет ли эта технология как-то развиваться для автомобилей, ибо у NVIDIA тут все козыри на руках) ничего сказать не смог. Правая рука в огромной фирме не очень хорошо знает, что делает левая. Ничего, подождём, когда digital twins "для всех", а потом и "для роботакси" появится в презентации CEO, это случится скорее раньше, чем позже. Digital twins это про стадию эксплуатации, пока же в центре внимания разработка.
2019

Впечатления с GTC Europe 2017

Анонсы все наверняка уже прочли, всякие мои мысли по поводу увиденного, услышанного и пощупанного я напишу потом, а пока несколько строк о том, что запомнилось на GTC Europe 2017:
-- когда беспилотный автомобиль бодро стартует, то тебя ощутимо вдавливает в спинку. Это ни разу не похоже на робототехнику с их полусонными роботами.
-- мороженое с сосиской на вкус более чем ужасно. Не было таких людей на выставке, которые бы его не обсуждали. Я отделался легко: попробовал полложечки у товарища. Действительно, незабываемое впечатление.
-- доклад от Мерседеса, в котором говорится, что автомобиль должен стать чем-то типа Google Assistant (в девичестве Google Now). Нет уже изготовителей кофейников, которые не мечтали бы сделать из них полноценный coffee companion: изучать привычки, подстраиваться под вкусы, учитывать контекст и настроение. Такой вот компанейский мир, в котором лучше всех меня изучит мобильник: он просто будет меня изучать и во время сна дома в постели, и во время поездок в Мерседесе, и во время питья кофе.
-- момент keynote, в котором Jensen показывает распознавание цветочков без оптимизирующего компилятора и с новым TensorRT 3. Более красочной презентации я ещё в жизни не видел. Вдогонку к этому была повторённая на одном из стендов презентация, только обратная: цветы не распознавались, а генерировались компьютером.
-- ужасный интернет: на фоне всех чудес искусственного интеллекта и подвигов мировой автомобильной промышленности пользоваться интернетом почти не получалось. Оно вроде как был, но его вроде как не было.
-- восхитительное шоу одного актёра, CEO NVIDIA Дженсена Хуанга. Оказывается, он в этом непрерывном мировом турне конференций не повторяется: каждое шоу уникально. Мне шоу в Мюнхене понравилось даже больше, чем в майское шоу в Сан-Хосе. Двухчасовой концерт с более чем шикарными номерами, анонсирующими крутые изменения жизни на планете.
-- вопрос одного из журналистов нашей делегации: "как объяснить, что NVIDIA вдруг оказалась в центральной позиции по изменению нашего мира?!". Я пытался объяснить это тем, что NVIDIA удачно работает в самом низу технологического стека, и всё над этим стеком в какой-то степени "её". Но потом надолго задумался: все презентации NVIDIA рисуют технологические стеки. Но понятно ли людям, что это такое, что это означает, и как такие картинки лежат в основе планов по захвату мира? В принципе, это было основное моё размышление на этой конференции: про технологический стек и бизнес-стратегии.
-- грузовичок Deutsche Post DHL, который играл роль вьючного животного: водитель разносит пакеты пешком от одного домового почтового ящика к другому, а грузовичок едет за ним сам. Мечта Boston Dynamics с их проектом BigDog оказалась реализована грузовичком, причём для абсолютно мирных применений, и не на пересечённой местности, а в городе.
-- фотореалистичность от хорошей отрисовки бликов в виртуальной реальности. Мелкие движения головы-корпуса приводят к сильному смещению бликов на предметах. Это существенно добавляет к реалистичности. А ещё смешно: показывается взрыв-макет (как ещё это назвать, оно ж в 3D) автомобиля, 14тыс. индивидуальных деталей, равномерно распределённых в пространстве. У меня то же самое, только ровно разложенное на полу, в учебнике системного мышления приводится как редукционизм, с которым как раз и боролся системный подход. А тут все от редукционизма приходят в восторг и говорят "вау!".
-- серверный рэк, в котором 24 компьютера TX-2, каждый с 1TFLOPS и размером с кредитную карточку. Глубокое обучение на этой архитектуре не сделаешь, но для обработки многопоточного видео это самое оно, так что пользуется спросом. Полный аналог ARM-серверов.
-- через "пену" корпуса DGX Workstation можно смотреть! Не так чтобы это был совсем прозрачный корпус, но контуры обстановки по другую сторону корпуса (а это две пенистые стенки) вполне видно. Очень неожиданно!
-- распознавание позы WRNCH, делается с одной простейшей видеокамерой, и оно очень устойчиво. Хотя для танцев этого распознавания пока совершенно недостаточно, но в тамошнем roadmap много чего есть.
-- обилие слайдов с x10 и x15 в keynote. Этому уже не удивляешься. x500 ещё немного удивляет. Экспоненциальные технологии требуют всё бОльших и бОльших доз, тьфу, раз, чтобы сохранять удивление постоянным. Какие-нибудь 320TOPS для Pegasus воспринимаются просто небольшой циферкой. Но ведь это триста двадцать триллиона тензорных операций в секунду! Триллионы операций в секунду вообще перестали удивлять. А ведь ещё пара поколений (x3), и будет петафлопс на плате размером с автомобильный номерной знак. Удивительно то, что это уже не удивляет.
-- поиск по словам в видеоконтенте: произносишь пару-тройку слов в микрофон, и через полсекунды тебе начинают приводить видеофрагменты из огромного сериала с этими словами. В выставочном зале это перепробовали все, и отходили в глубокой задумчивости.
-- data science в списке областей вычислений, которыми интересуется NVIDIA. И там аппаратное ускорение баз данных. Я как раз обратил на это внимание на прошлой выставке и даже сделал доклад на BigData. А теперь это попало в keynote наряду с поддержкой машинной графики, scientific computing и deep learning.
-- рефрейминг шпионского города. Оказывается, технология распознавания лиц в толпе и на улицах нужна для того, чтобы искать не преступников, а стариков, забывших, где они живут. Найдутся все. А если нашедшиеся будут убегать, то на полицейских автомобилях на крышах есть дроны: нужно только указать на того, за кем гонимся, дрон его уже не упустит (даже если он перелезет через какой-нибудь забор), а автомобиль кратчайшим путём провезёт наряд полиции. Или отряд полиции будет гнаться пешком, а автомобиль к ним потом сам подъедет. Соколиная охота, или охота соколиков -- можно называть как угодно. Правда, всё это будет доступно не только полиции.
-- полностью собранный в NVIDIA технологический стек для digital twins, разве что слово это не произносится. Но даже DGX Workstation для одного такого приложения продали на какой-то завод, и плотные разговоры с GE уже идут.
-- автомобильная платформа Pegasus предназначена не просто для автономного автомобиля, а для robotaxi уровня 5 (полностью автономного). Я задумался: а в чём хитрость robotaxi по сравнению с просто driverless car? Что такое вообще taxi, как принцип, и как его поддерживать инфраструктурно?

Какие-то фото я делал, но пока приведу только одно: Дженсен Хуанг объясняет, что теперь в полупроводниковой промышленности не закон фирмы Мура, а закон фирмы Хуанга -- бывшая фирма Мура перестала выполнять его закон, и теперь этим занимается NVIDIA с немногочисленные товарищи. В этот момент Дженсен говорит, что за 5 лет разница между CPU и GPU при текущем раскладе накапывает x1000 по производительности:
.
2019

Audi A8 третьего уровня автономности: в 2018

У Audi A8 в 2018 году будет третий уровень автономности, то есть на скорости до 60км в час в пробке можно будет официально не смотреть на дорогу и не держать руки на руле -- https://www.audi-mediacenter.com/en/press-releases/the-new-audi-a8-future-of-the-luxury-class-9124. Парковаться и въезжать-выезжать из гаража тоже машина сможет сама. Во время поездки можно будет смотреть кино и общаться в чате, но при скорости больше 60км в час потребуется вернуться к вождению.

Они хвастаются, что это первый в мире официально заявленный третий уровень автономности. Четвёртый уровень автономности -- это уже когда можно спать, или даже не быть на месте водителя, но ещё не везде, а только в каких-то знакомых автомобилю местах (geofenced) местах, и если машина попадает в незнакомое место, то она сможет аккуратно куда-нибудь припарковаться в сторонке и ждать вмешательства водителя. Пятый уровень это когда вообще не нужно человека в любых местах -- роботакси начинается отсюда. Вот тут подробности -- про эти уровни -- https://en.wikipedia.org/wiki/Autonomous_car.

Автономность третьего уровня будет вводиться для Audi A8 постепенно в разных странах, так как законодательство везде разное (поэтому всё растянется на 2018 год), а сам автомобиль начинает производиться поздней осенью 2017 года. Starting price for the A8 is EUR 90,600, with the A8 L starting at EUR 94,100.

При этом как-то незаметно за эти годы решилась проблема объёма компьютеров, которыми был полностью забит салон первых автономных автомобилей: этот рынок съела NVIDIA своими автомобильными PX2 -- соглашения у NVIDIA есть практически со всеми автомобилестроителями, по факту монополия. И Audi, и Tesla, и BMW, и Volvo, и Honda и даже с мая этого года Toyota.

И если года три назад вопрос о дополнительном объёме для потребных для автономии вождения компьютеров обсуждался, сегодня этого вопроса нет -- закон Мура для GPU и нейросетевые алгоритмы сделали своё дело, всё отличненько упаковалось в размеры чуть больше ноутбука.

Компьютеры для вождения ещё не все компьютеры в машине. Так, NVIDIA хвастается тем, что новая Audi A8 просто нашпигована её "неводительскими" компьютерами: NVIDIA powered MIB+ infotainment system. Its two touch screens, second-generation virtual cockpit and the new rear seat system with Audi tablets and display controller all feature NVIDIA technology, https://blogs.nvidia.com/blog/2017/07/11/audi-2018-a8-nvidia-barcelona/. И места занимают эти компьютеры почти ноль, мощности потребляют почти ноль. Говорить об автономном автомобиле как суперкомпьютере на колёсах уже нельзя, само понятие "суперкомпьютер" как-то обесценилось: что ни мелкий чип сегодня, то уж суперкомпьютер.

У Tesla автономность пока второго уровня, так что ждём очень скорых объявлений и оттуда -- они ж про уровень автономности Tesla model 3 ничего не говорят пока (см., например, мартовский материал это обсуждающий -- https://electrek.co/2017/03/31/tesla-model-3-autonomous-car/). И это всего $35000 (плюс, возможно ещё $8000 за автономность, но и это не факт).

Но гонка за выпуск первого авто третьего уровня не заканчивается выпуском новых авто. Для уже выпущенных после примерно 2015 года автомобилей автономизацией занимается comma.ai -- https://comma.ai/. За $88 фирма продаёт интерфейс к open source софту вождения автомобилей. Да, там всё хуже с "официальностью", но оно всё работает. Вот план по захвату мира ("Our mission is to build the world's first superhuman driving agent. Here is the plan): https://medium.com/@comma_ai/our-road-to-self-driving-victory-603a9ed20204. Это отнюдь не шапкозакидательные планы, ибо We currently have the third largest network [по сбору данных для алгоритмов безопасного вождения] in the world after Tesla and Waymo. Shooting for second by the end of the year. Но дальше осечка: "6. Ship the worlds first self driving cars you can sleep in (level 3)" -- похоже, Audi это сделала первой. Но не это тут главное: Due to us avoiding exotic technologies like LIDAR and RTK GPS, this cost will be low. Let’s say under $5,000. And it will be installed on your existing car.

А через три года, в 2020 году ожидается точка перегиба на всех прогнозных кривых, с этого момента всё пойдёт ну очень быстро -- про это я писал в "чистый подрыв, подо всей цивилизацией сразу", цитируя Tony Seba, http://ailev.livejournal.com/1307264.html. На это Tony Seba берёт 10 лет, к 2030 году рок-н-ролл из этого места уйдёт, а обсуждать будут уже не автономные автомобили, а какие-нибудь автомномные деревья, на которых растут булки. Или даже сразу стейки. Или даже сразу гамбургеры, почему бы и нет.

UPDATE: опечатался трижды (!) вместо Audi как Audio, но никто этого, похоже, не заметил )))
дискуссия в фейсбуке -- https://www.facebook.com/ailevenchuk/posts/10210721407285362
2019

Старый жизненный цикл разработки автомобиля в GM

Стал доступен прошлый жизненный цикл разработки автомобиля в General Motors. По правилам компании через 5 лет после выпуска документа его можно публиковать -- и вот он, безнадёжно устаревший и отставший от жизни. В 2013 году в GM этот жизненный цикл существенно перекроили: http://wardsauto.com/industry/gm-taking-new-approach-global-engineering-vehicle-architectures.

Сегодня GM работает по-другому, но интересующимся историей инженерии -- насладитесь слайдами для учебного курса по старым практикам разработки в GM: https://drive.google.com/file/d/0BzE5YSuAvD3ISnEtWkZQLS1nTG8/view

Напомню, что метод разработки (набор всех практик, которые нужны для разработки) по традиции называется development process -- наследие тех времён, когда параллельная инженерия (concurrent engineering, все стадии жизненного цикла одновременно, "в параллель") была не так распространена, ибо не было современных средств управления конфигурацией и изменениями и речь действительно шла о "шагах процесса", развёртки в реальном, а не логическом времени.

Спасибо Александру Турханову за наводку.

Сюда хорошо ещё добавлять http://www.mne.psu.edu/simpson/courses/me546/lectures/me579.cafeo.gm.slides.pdf (мы, кстати, обязательно даём студентам DSM как архитектурную практику системной инженерии).

UPDATE: обсуждение в фейбсуке: https://www.facebook.com/ailevenchuk/posts/10208341886118820
2019

Хакатоны по Julia

Я вот тут подумал, какие хакатоны интересно было бы выполнить для Julia, все они развёрнуты в обучение (не будет обучения -- не будет и основной работы):
-- создание русскоязычной версии языка (ключевые слова -- переменные-то и сейчас могут быть на русском), для учебных целей. Насколько я помню, для детишек родной язык процентов на тридцать снижает порог вхождения в язык. Примером тут может служить испанская версия Julia -- Julieta (https://groups.google.com/forum/#!msg/julia-dev/Vu6zyCPkkFs/OJxSGHBTBAAJ). Я знаю, что мнения о целесообразности использования родных ключевых слов в языках расходятся кардинально, но все эти мнения опираются не на эксперимент, а хотелки и ожидания (особенно мне нравится, что наиболее страстно обсуждают этот вопрос те, кто никогда не учил деток массово, целыми классами, без отбора особо одарённых).
-- курс алгоритмики на базе набора задач для исполнителя Робот (http://server.179.ru/wiki/?page=DenisKirienko/Kumir). Есть задачи, есть тестовые кейсы, нужно нарисовать исполнителя Робот -- и обеспечить режимы пошагового исполнения, визуализацию поля и робота на нём, автоматическую проверку заданий на множестве тестов и их смену. То есть повторить функциональность КуМира, только для языка Julia.
-- поиграться с RobotOS.jl, это Julia интерфейс к ROS (https://github.com/jdlangs/RobotOS.jl). Julia садится на интерфейс ROS к Питону и решает проблему двух языков -- писать на Julia так же быстро, как на Питоне, но скорость выполнения как на Си. Для роботики это должно быть идеально. Вот тут доклад про autonomous driving for RC Cars with ROS and Julia -- https://www.youtube.com/watch?v=bX4TXWO7dA0 (там гоночные модельки в 1/10 величины на ARM контроллере под ROS, программируются на Julia -- богатые библиотеки оптимизации используются для предсказательного управления на основе моделирования, там весьма продвинутые алгоритмы ТАУ). То, что творит в заносе "тележка на колёсиках" -- ну, это круто. Вебсайт http://www.barc-project.com/ (осторожно, звуки автомобильных заносов!) -- говорят, что платформа может быть использована в том числе для освоение control theory, традиционная составляющая учебных программ робототехники. Вдобавок данные экспериментов грузятся в облако для дополнительных исследований. Вот что-то подобное и похакать.

По плану версия 1.0 у Julia выйдет в июле 2017, а версия 2.0 (в которой будет, например, тип record -- именнованный tuple) в июле 2018 -- эти даты приведены в самом конце ролика https://www.youtube.com/watch?v=5gXMpbY1kJY (а сам ролик посвящён описанию ожидающихся в 1.0 изменений). Сейчас есть уже второй релиз-кандидат версии 0.5, а версия 0.6 будет последней в 0.x линейке.
2019

Современная инженерия: грузовик Volvo с дистантным управлением

Вот такие крепкие сейчас делают грузовики в Volvo (https://youtu.be/7kx67NnuSd0):


Рекламные услуги Ван Дама уже не требуются, а с управлением справляется четырёхлетняя девочка.

Заодно это хорошая иллюстрация, почему роботы быстро выиграют у людей в управлении такими грузовыми монстрами. Не нужно будет ждать новых "машин без водителя", текущий парк вполне подойдёт.