Category: техника

Category was added automatically. Read all entries about "техника".

2019

Big Neuro: триллионы транзисторов на чипе, квинтильоны и квадрильоны операций в секунду

Буквально за несколько лет мы пришли в мир Big Neuro -- в коннективистских архитектурах, то есть "нейросетях" счёт переходит с миллиардов/гига на триллионы/тера и даже квадриллионы/пета, а пока изредка и квинтиллионы/экза (короткая шкала -- https://ru.wikipedia.org/wiki/Системы_наименования_чисел).

Самый большой чип ускорителя для нейросетей -- это 1.2триллиона транзисторов на 42тыс.мм2, Cerebras Wafer Scale Engine компании Cerebras Systems, изготавливаемый на фабриках TSMC -- https://venturebeat.com/2019/08/19/cerebras-systems-unveils-a-record-1-2-trillion-transistor-chip-for-ai/, https://www.forbes.com/sites/tiriasresearch/2019/08/20/ai-start-up-cerebras-develops-the-most-powerful-processor-in-the-world/#26b4e5a86592. Это в 57 раз больше, чем чип V100 фирмы NVIDIA с 21млрд.транзисторов на 0.8тыс.мм2. Скорость обмена данных с памятью -- 9петабайт/сек, ещё одно Big. The energy cost of communication in this architecture is well under 1 picojoule per bit, which is nearly two orders of magnitude lower than in graphics processing units. В компании Cerebras Systems работает всего 194 человека (хотя мы и не знаем, сколько у них разработчиков было в подрядчиках, тем не менее -- это ли не восхитительно?!).

Конечно, это не сравнится с суперкомпьютером. Так, Summit (запущен в эксплуатацию год назад -- https://blogs.nvidia.com/blog/2018/06/08/worlds-fastest-exascale-ai-supercomputer-summit/) имеет 27648 NVIDIA V100 и 200петафлопс (умножений плавающей) и 3exaops, экза/квинтиллионов операций умножения-сложения целых в секунду -- это помньжьте "пета" ещё на тысячу, миллиард миллиардов. At 200 petaflops — If everyone on Earth did 1 calculation/second, it would take 1 year to do what Summit does in 1 second. At 3 exaops of AI — If everyone on Earth did 1 calculation/second, it would take 15 years to do what Summit can do in 1 second. А сколько занимает места этот Summit? Два теннисных поля! Следующий за V100 чип для текущего нейро-поколения AI -- это Huawei Ascend 910, который имеет удвоенную производительность (закон Мура продолжается для GPU!), но это всего вдвое, 0.25PFLOPS, 0.5PTOPS, по факту того же класса чип -- https://medium.com/syncedreview/huaweis-first-commercial-ai-chip-doubles-the-training-performance-of-nvidia-s-flagship-gpu-86e4d0078f6f

Cerebras Wafer Scale Engine это всего один чип, хотя и потребляет он 15Квт на свои 400тыс. AI вычислительных ядер -- примерно столько же, сколько потребляло бы эквивалентное количество одиночных чипов. Чудес-то не бывает, вычисления требуют энергии.

Самая скандальная языковая модель (модель языка в нейросети) была скандальна ровно потому, что она оказалось достаточно большой, чтобы произвести нетривиальные результаты -- это GPT-2 от OpenAI, которую даже отказались публиковать из-за боязни злоупотреблений в использовании. В ней было 1.5B параметров, 0.0015P. Только что опубликовали сокращённую вдвое модель -- https://venturebeat.com/2019/08/20/openai-releases-curtailed-version-of-gpt-2-language-model/. Но десятые триллиона уже никого не останавливают, только что опубликовали независимо реализованную языковую модель такого же масштаба с практически такими же результатами: https://medium.com/@vanya_cohen/opengpt-2-we-replicated-gpt-2-because-you-can-too-45e34e6d36dc. Потолок цены тренировки такой модели -- $50К, и есть много возможностей снизить цену -- основная цена это те самые чипы и электроэнергия на их работу, сколько на их охлаждение.

И этих чипов нужно много. Чтобы обучить языковую модель BERT всего за 53 минуты потребовалось 1472 GPU V100, это 92 компьютера DGX-2H ценой $399тыс., то есть там только аппаратуры для этого почти часового счёта на почти $40млн, https://devblogs.nvidia.com/training-bert-with-gpus/). И это не самая большая модель! В работе по этой же ссылке https://devblogs.nvidia.com/training-bert-with-gpus/ указывается, что была натренирована модель GPT-2 на 0.0083 триллиона параметров, при этом достигли 15.1 PetaFLOPS sustained performance!

Конечно, речь не идёт о том, чтобы заниматься сетями на 1 триллион параметров. Но если речь идёт о какой-то модульной конструкции из сотни (возможно, совсем неодинаковых) сетей (и, возможно, совсем не сетей) на 0.01 триллион параметров каждая -- то вот такая когнитивная архитектура явно сможет много больше, чем текущие даже самые большие сетки.

При этом сами сетки тоже становятся лучше. Полно работ, которые снижают время обучения и число параметров вдвое-втрое-вдесятеро без ухудшения качества работы сети. Но пока -- чем больше сетка, тем чудесатей результаты. Даже сильно ужатая сетка огромна и требует огромного времени обучения. И это невозможно достичь без выхода на Big Neuro.

А дальше Big Neuro сочтут маркетинговым термином, под которым будут понимать что угодно. Очень скоро будут обсуждать, как и с Big Data, что дело не в размере, а volume, veloсity, veracity, variety, value, variability (https://www.researchgate.net/figure/Six-Vs-of-big-data-value-volume-velocity-variety-veracity-and-variability-which_fig15_280124446) и ещё больше каких-нибудь V. И все формулировки можно будет брать из BigData, и все маркетинговые слоганы.

Но технологически это новый чудесатый мир, где если недостаточно мозгов, то просто добавь транзисторов. А если достаточно мозгов, то тоже добавь транзисторов.

Следующая история, конечно, про симуляторы мира. Чтобы обучить нейросетку, нужно построить виртуальный мир -- и обучать дальше сетку в этом мире, ибо в виртуальном мире эволюция идёт быстрей, чем в реальном мире. Нужно много-много симуляторов. Следующая большая история -- это логические вычислители, которым тоже хочется аппаратной поддержки (вот примеры работ, которые пытаются ускориться на текущих архитектурах вычислений -- https://arxiv.org/abs/1810.06617 и https://www.cyc.com/wp-content/uploads/2015/04/AAAI-SharmaA.1646.pdf, и такого много. Вполне возможно, что тут как с нейронными сетями поможет задействование аппаратного ускорения для получения нетривиальных результатов). Понятно, что будут попытки "повторить мозг" -- перенести логические вычисления в нейронные сетки (neural logic machines -- https://arxiv.org/abs/1904.11694, embedding of knowledge graphs -- https://arxiv.org/abs/1908.07141 и т.п.), равно как моделировать физику не уравнениями, а прямо нейронной сеткой -- https://ai.facebook.com/blog/phyre-a-new-ai-benchmark-for-physical-reasoning/. Смогут ли текущие ускорители AI на нейросетках сработать для этих же задач так же качественно, как могли бы сработать специализированные компьютерные архитектуры?

Ответ прост: нет, не смогут. Алгоритмы там везде разные, поэтому работает теорема бесплатного обеда: тот вычислитель, который хорош для одних задач, будет ужасен для других задач. Так что нейровычислитель будет хорош только "в среднем по больнице". И мы увидим в ближайший десяток лет ещё много разного и чудесатого -- и аналоговые спецвычислители, и универсальные цифровые архитектуры (для препроцессинга и постпроцессинга видео, физических вычислений, логических вычислений, вероятностных вычислений, а также и для вычислений в deep learning). Жизнь уже интересна, счёт транзисторов пошёл на триллионы -- и спецвычислитель BigNeuro на триллион транзисторов может сделать команда из меньше чем 200 человек.

А пока болеем не за динамо и спартак, а за участников этого чемпионата искусственных мозгов -- aNLI, https://leaderboard.allenai.org/anli/submissions/about. Это продолжатели дела CYC, они хотят закодировать common sence, здравый смысл. И сделали на эту тему соревнование. Рассказ про abductive commonsence reasoning -- https://arxiv.org/abs/1908.05739. У людей в этом соревновании 92.9% правильных ответов. У нейросетки BERT Large Finetuning -- 66.75%. У CYC (там ведь как раз цель соревнований была дизайн-целью) -- неизвестно, у IBM Watson (это ж победитель "Jeopardy!", по сути это ж то же самое) -- неизвестно. Но там много-много лет ручного кодирования знаний, а BERT тренируется, как мы знаем, за 53 минуты (грубо говоря, читает за это время в себя если не всю Библиотеку Конгресса, то сравнимый объём текста). А ещё было бы забавно увидеть соревнующимися там не только нейросетки и логические вычислители, но и людей. Скажем, команда победителей что-где-когда сколько бы решила в этом соревновании? Не смогла ли выдать больше ли 92%? С другой стороны, и это соревнование тоже ни о чём: нобелевские лауреаты и крутые политики обычно не эрудиты, а эрудиты и другие победители викторин не так уж и заметны в других сферах жизни. Но мы всё равно болеем.

Но причём тут Big Neuro и решение задач, объявленных в этом соревновании по использованию здравого смысла в рассуждениях? Напомню тезис Rich Sutton (http://www.incompleteideas.net/IncIdeas/BitterLesson.html): прогресс в AI определяется доступной вычислительной мощностью при простых алгоритмах. Размер решает. Текущая самая большая нейросетка GPT-2 8B пока всего в 24 раза больше BERT, текущего победителя соревнования по объяснениям на основе здравого смысла. И хотя понятно, что с этой архитектурой существенно улучшить результат не удастся, то альтернативные более успешные архитектуры вряд ли будут с меньшим количеством вычислений. IBM Watson, победивший в Jeopardy! -- это прежде всего суперкомпьютер! Big Neuro таки решает, а если там пойдёт ещё и Big Simulation и Big Logic, которые сольются в какой-то момент в Big Evolution Multi-engine, то аж дух захватывает, что может получиться!

UPDATE: обсуждение в фейсбуке -- https://www.facebook.com/groups/nevronet/permalink/1406594802840170/

Краткое содержание поста:
-- есть no free lunch тезис, что разные алгоритмы для разных задач имеют разные оценки времени
-- Sutton говорит, что побеждают простые алгоритмы при масштабировании. Типа нейросеток, когда их посадили на нормальный "их" кремний.
-- есть ряд классов алгоритмов, которые могут помогать решать разные задачи с интеллектом. Логика, эволюция.
-- по идее, должна быть когнитивная архитектура, которая позволяет использовать такие алгоритмы, маршрутизируя им соотвествующие классы задач
-- не факт, что их все нужно выполнять на нейро-инфраструктуре.
-- это означает, что перспективно попробовать ускорители и для логики, и для физики, и для эволюции в конечном итоге (где потребуется интеграция всех ускорителей: эволюционировать-то должна будет когнитивная архитектура!).

А эволюция съест всю вычислительную мощь, которая доступна, и ещё потребует. Так что радуемся и имеем дело с Big Neuro и Big ВсёОстальное.
2019

Инженерия хаоса от администрации США

Администрация США затеяла для мира инженерию хаоса: это такой способ проверки инфраструктуры, при котором идут плановые отключения работающих нормально сервисов -- чтобы поглядеть, как будет на это реагировать система. Тревоги не учебные, а настоящие, разве что бомбёжка идёт от своих, а не от чужих (вроде как морально от этого должно быть легче: сам рубильник датацентра выключил, потом сам же его включил -- после того, как убедился, что всё шло по плану. А если не пошло? Ну, урок на будущее, "сожалеем о случившемся, это необходимые жертвы для жизни будущих поколений").

Рубильником выключили Huawei. У меня дома два телефона Huawei, и это уже как-то трогает и меня. Никак не ожидал, что эта инженерия хаоса затрагивает и меня. Зависеть от Гугля (андроид!) и Майкрософта (винды на ноутбуках Huawei тоже ведь под вопросом!) оказывается вредно, их может отключить любой президент (мне плевать, что это президент США. Если президент России выкинет очередную какую-нибудь аннексию для целей защиты русских граждан за рубежом, традиционные цели всех аннексий, то итог будет тот же -- от сервисов Гугля и Майкрософта отключат опять же меня, а не президента России).

Вот теперь сидишь, и думаешь: кто там на самом деле сволочь -- администрация США, которая лечит головную боль методом отсечения головы (из-за боязни отказов каких-то будущих экземпляров техники Huawei отключает всю технику Huawei в мире! Нет чтобы просто не покупать аппаратуру от Huawei самим, и этим удовлетвориться), ненадёжность Гугля и Майкрософта, которым в бизнесе оказывается верить нельзя ("они только выполняют приказ", что там с такими как я владельцами смартфонов и ноутбуков и даже базовых станцый Huawei -- им глубоко плевать. Все эти "do not evil" уже в далёких легендах о прошлом), или Huawei, который чем-то там провинился, и поэтому его мочат уж как могут, в том числе задевая мои чисто технические пользовательские интересы как владельца аппаратуры и софта Huawei.

А смартфончики у Huawei таки хорошие, у меня на них нареканий нет. Поэтому желаю инженерам Huawei пережить эти неприятности, я целиком на их стороне. И лучи поноса всем остальным помянутым, ненадёжны и продажны оказались они, "просто выполняющие приказ", а не Huawei.

Плохо только, что Huawei будет делать свою новую операционную систему на основе Linux, оживлять опять древнюю рыбу латимерию, делать очередного зомби со всеми эволюционными недостатками. Я понимаю, что legacy и совместимость, но операционные системы должны быть современными, а не допотопными с их встроенными проблемами безопасности. Но удачи тамошним инженерам. Мне почему-то кажется, что я с удовольствием буду пользоваться результатами их трудов на этом фронте.

И там ещё проблемы с ARM! Хотя это уже касается будущей аппаратуры, а не нынешней: https://www.bbc.com/news/technology-48363772

Литература:
-- "Мойдодыр и политическая философия интернетвещизма", https://ailev.livejournal.com/1106188.html
-- Chaos Engineering: the history, principles, and practice, https://www.gremlin.com/community/tutorials/chaos-engineering-the-history-principles-and-practice/

То, что во всём мире сейчас технологический враг номер один вдруг оказался отнюдь не Китай, и степень зависимости нужно убирать не от Китая -- вот это абсолютно понятно. Чьи продукты могут "вдруг выступить против тебя в случае войны" -- вот этот кейс очень чётко продемонстрировал. И это не продукты Huawei оказались, и даже не один продукт оказался.

Так сказать, эффект Барбары Стрейзанд в этой неожиданной предметной области.


UPDATE: обсуждение в фейсбуке -- https://www.facebook.com/ailevenchuk/posts/10215452473039049 и ВКонтакте -- https://vk.com/wall2449939_2249, ФриФид -- https://freefeed.net/ailev/6778cc6c-2f0d-4d4b-a760-a357cd9f5582
2019

lytdybr

После покупки яндекс.станции мы всё время вспоминали анекдот про покупку барабана пятилетнему ребёнку: из комнаты вьюноша доносились вопли споров с Алисой (вопли, потому как музыку нужно сначала перекричать, чтобы Алиса тебя услышала -- а она как глухарь на току: чем громче играет, тем меньше тебя слышит, но если тебя и слышит, то в ответ тоже кричит) и совершенно дикая тинейджерская музыка по всему дому на дикой громкости с диким качеством (написано во всех обзорах, что яндекс.станция бухтит: искусственно задранные недобасы, провалы по высоким и средним, чтобы легче было до неё докричаться -- это всё правда, бухтит, это полный аудиофильский и даже меломанский ужас). А потом потихоньку всё прекратилось, и через пару дней основной режим -- это с выключенными микрофонами и тихнько скорчащим телефоном с той самой тинейджерской музыкой. Почему? Много причин:
-- управлением голосом правильную музыку из Станции не извлечёшь, в компьютерном/телефонном/планшетном интерфейсе это в разы и разы быстрее,
-- Станция любимой музыки просто не имеет (как я понимаю, люди разлетаются сейчас стремительно по нишам -- кто-то слушает каверы на игровые мелодии, как наш вьюнош, и их на яндекс.музыки нет, кто-то слушает кизомбы, которых тоже там нет, так что остаётся "много мейнстрима". Ну не его же слушать? Хотя я слушаю во время работы именно его. А для хобби? Для хобби музыки там, конечно, нет -- её ищу отдельно в каких-нибудь soundcloud или даже прямо в youtube. Вот и вьюнош имеет youtube источником музыки, а яндекс.станция этого не понимает).
-- родители всегда теперь знают, чем ты занимаешься: музыку ищешь, или уроки делаешь. Поэтому лучше тихий скворчащий звук под одеялом, чем громкий бухтящий звук и получасовые переговоры с Алисой, выдающие тебя и твои интересы на всю квартиру.

Появление в доме отдельного от компьютера предмета, с которым можно поговорить -- это забавно. Особо доставляет аттракцион с просьбой прочитать новости. Читает новости Алиса мужским баритоном с интонацией народного артиста, отмоделированной на чтении каких-нибудь вечеров на хуторе близ Диканьки. Что выразительно, взахлёб и радостно рассказывает это не человек, понять можно только по какому-то дикому сбою в ударениях или произношении где-нибудь на каждой пятой фразе. Утюги, скоро с нами по душам будут разговаривать утюги. Хотя тут предполагается три варианта решения:
-- домовой ассистент (тот кто победит: Алиса, или помощник гугля, или Кортана, или Алекса и т.д.) перехватывает управление утюгом и всем остальным, общаться будете с ассистентом, а уж он поговорит с утюгом. Это текущая модель "умного дома", где диспетчер-помощник рулит всеми гаджетами дома.
-- общаться будете с утюгом, но таки из него вещать будет домовой ассистент. Как Агент Смит, он будет оказываться в каждом новом умном устройстве дома.
-- общаться будет сам утюг, а в сторону домашнего ассистента он будет отпускать злые шутки, а иногда и вообще дурить (приказывая ему, например, заткнуться -- и делая это голосом хозяина. А то и заказывая какую-нибудь гладильную отдушку голосом хозяина, используя домового ассистента и все его неизбежные авторизации).
Весёлая жизнь настаёт.

Идёт CES, которая оказалась отнюдь не вся про потребительскую электронику (чего только стоит презентация на ней квантового компьютера IBM), а атмосфера тамошних анонсов совсем другая, нежели в предыдущие годы. Сегодня она закончится, и можно будет попробовать понять, что происходит. Но я боюсь, что не пойму: всего происходит слишком много, и оно очень запутанно связано друг с другом.

Жизнь как-то буквально на глазах меняется, меняются представления о SoTA. Вот я тут спорю с Петром Щедровицким на эту тему (он считает, что это всё развитие идей древних философов, а я утверждаю, что философов там рядом не стояло, и если внимательно смотреть каждый шаг, то его делают инженеры, абсолютно не опираясь на работы этих философов. И показываю, что даже при "похожих" идеях инженеры находят различия -- на примере склоки между Шмитхубером и Гудфеллоу): https://www.facebook.com/petr.shchedrovitskiy/posts/2017510011669219. "их компьютеры это просто воплощение 2,5 очень простых философских идей 1000 летней давности" -- вот ни разу в жизни. Не их идеи воплощались, а идеи изобретателей компьютеров. И опирались эти изобретатели компьютеров не на мысли философов, а на совсем другие мысли совсем других людей (включая свои собственные мысли). Это даже не суп из топора "компьютер из мыслей философов". Расскажите, как философия помогла IBM создать их квантовый компьютер -- то-то они удивятся. Но философы наверняка найдут какого-то древнего грека-любомудра, который "был предтечей". Не был предтечей, ни разу не был, это wishful thinking так считать. И похожими все эти мысли философов и создателей современной техники могут считать только сами философы, ровно как и протягивая стрелку причинности между этими мыслями. Вот никаких там отношений причина-следствие нет!

Похоже, нужно просто брать и делать из cognitive behavior therapy другую дисциплину: cognitive behavior engineering -- когнитивную поведенческую инженерию. Сделать для неё минимального размера кругозор, а дальше в этой терминологии формулировать небольшой набор практик, нужных для акторского/стейкхолдерского мастерства. Это ничего, что имя берётся с запасом и на вырост. В этой предметной области любой исследователь берёт и делает себе небольшую методологию, надёргав туда пару десятков практик известных и добавив туда парочку своих собственных практик на базе какой-нибудь общей для этого десятка практик метафоры. Вот мы тут будем ничем не хуже всех остальных. При этом слово "инженерия", надеюсь, будет отпугивать эзотериков. Чего инженерим? В НЛП они инженерят человеческое совершенство (exellence). Ну, мы будем инженерить человеческую успешность — определяя её по системноинженерному (то есть как результаты деятельности синженерённого человека, удовлетворяющие стейкхолдеров) и учитывая наличие экзокортекса. Кстати, Бэндлер уже делал "инженерию" -- Design Human Engineering, тоже интересный проект, http://www.nlp-kh.com.ua/baza-znanij/o-nlp/napravleniya/677-dhe.

Пришли результаты продаж декабря в Ridero. На сегодняшнее число "Системного мышления" продано 2005 штук, а "Визуального мышления" -- 411 штук. Вот это уже хоть какие-то круглые цифры!
2019

lytdybr

Физику вместо учебников мы уже два года потребляем от ришельевского лицея -- https://www.youtube.com/channel/UCSdDqsIYf9v5UEWTNda1YBw, она там высшего качества: занятия Павла Виктора вбиваются в голову вьюноша с одного просмотра. По невнятным семейным слухам, один из прадедов вьюноша был родом как раз из Одессы, так что вьюнош вполне может считать такое образование родным.

Вьюнош с занятий электроникой принёс первые схемы синтеза логических схем, я от этого млею. В этом году уже идёт нормальное внешкольное образование по электронике. Зато по информатике ему дают задачи определения максимума в последовательности чисел циклом while на PascalABC -- он такое уже много лет назад делал, и даже не на Паскале, а на Питоне. Так что тут пока не радуемся, а терпим.

Вьюнош победил за последний год два планшета и один смартфон: стёкла вдребезги. Жена отнесла их сегодня на замену стёкол. Я же победил пару дней назад адаптер DA200 с USB Type-C на HDMI/VGA, но он совсем неремонтопригоден. Так что сегодня мне принесли новый адаптер, это вдвое дороже замены стекла (стекло поменять стоит 3тыс., а адаптер 6тыс., эти адаптеры нынче с навороченной электроникой и жутко дорогие).

Накопил некоторое количество книг для немедленного чтения, и нет ни малейшего шанса их прочесть. А надо. Вот только закончу учебник, поставлю точку -- и уйду в запой, тьфу, начитку, тьфу, слова даже такого нет (не "изучение", ибо это ж не исследования проводить с их гипотезами и экспериментами, не "освоение материала", ибо чтение это ещё не личный опыт работы -- нельзя говорить про "освоение" без этого. Но без начального чтения никуда). При этом до написания учебника я не дотянусь аж до следующей недели, буду разгребать текущие обязательства. Пока же раздал всем идущим сейчас учебным группам неполные пять глав от 8 октября. Лучше это, чем ничего.

В моей кизомбе количество у меня начало как-то переходить в качество: я и сам в разы лучше понимаю происходящее на тренировках, и даже могу уже что-то объяснить другим -- иногда и лучше преподавателей. Нет ведь ничего практичней хорошей теории: она обычно сокращает время обучения впятеро, с тысяч необходимых повторений до всего лишь сотен. С Антоном Климатом мы будем делать в Школе системного менеджмента обзорный тренинг по универсальной готовности к движению в рамках цикла тренингов по системному развитию. Завтра будем после тренировки сидеть-планировать. Напишите коммент с вашими ожиданиями: что бы вы мечтали от такого тренинга? В рамках разумного, конечно: любые результаты в работе с телом и движением (как и с мозгом и мышлением) происходят уж точно не в ходе тренинга. Тренинг это как эпизоды по коррекции направления, а чтобы куда-то попасть нужно двигаться по пути. Если не двигаться, то коррекции направления будут коррекциями направления стоящего на месте. Бесполезно крутить руль стоящей машины, нацеливая её в правильном направлении -- она всё равно не попадёт в то место, куда её напрявляют. Секрет успеха серии тренингов в том, что происходит между ними и после них, а не на них самих. В пути важно двигаться, а не только корректироваться. И это зависит в бОльшей степени от тренирующегося, а не от тренера. Хотя акцент на целом курсе, а не на просто серии тренингов тут мог бы сильно помочь. У нас в Школе системного менеджмента есть и семинары, и обсуждения в фейсбуке, и корпоративные игры для этой помощи в "движении между тренингами". Нужно ещё думать в этом направлении.

Случайно наткнулся на канал обучающих видео по джазовой игре на пианинке, NewJazz -- https://www.youtube.com/channel/UCfmAjVU0aF41zi7oWB8_TUg. Но вот этим заниматься точно не буду, хотя слюна течёт и очень хочется. На пианинке я и так играю почти каждый день, когда обдумываю что-то рабочее -- то есть совмещаю приятное с полезным. А если вместо этого "рабочего" буду думать о том, что и как я играю, то приятное останется, а полезное уйдёт. Мне этого бы не хотелось, времени в сутках для производства полезного и так мало.

UPDATE: обсуждение в фейсбуке -- https://www.facebook.com/ailevenchuk/posts/10211432552223541
2019

Разнообразие в кизомбе: заметки с мастер-класса Ronie Saleh

Вчерашний мастер-класс Ronie Saleh был по факту про разнообразие в кизомбе, моя любимая тема. Он поднял традиционную в социальных танцах тему "развлечь девушку" и разнообразие как способ этого достичь. Многое из этого материала давалось мне на самых разных других тренингах, но тут всё было собрано в одном месте.

Были предложены контрасты:
-- ритм шагов быстро-медленно (в том числе очень хитрый закольцованный ритм раздватричетыре-пять-шесть-семь-и-восемь-и, хитрость его в том, что замедление не в конце восьмёрки, а в самом начале. Обычно наоброт: пробежка-замедлиться). Это традиционно, "все делают это" на занятиях по музыкальности, так или иначе.
-- топтаться на месте с акцентами -- бегать по залу -- крутые динамичные фишки. Это любит объяснять Худоногов.
-- супермаленькие шаги--большие шаги. Вот этого мне не хватало: поначалу меня ругали за слишком большие шаги, но я чётко видел на всяких роликах реально большие шаги и не очень понимал, за что ругают. Теперь понял: большие шаги можно делать, но нужно делать и маленькие шаги, танцевать на контрасте.
-- корпус мягкая "змея" -- жёсткий "робот" (но не промежуточное поднатянутое состояние). Про это лучше и детальней объясняет на своих занятиях Антон Климат, но "нет пророка в своём отечестве". Буду к этому ещё внимательней. Ну, и сам Ronie извивается волнами время от времени: это сильно отличает его танец от каменных бюстов героя других urban kiz или kizomba fusion преподавателей. Вот это он объяснил подробно, это чёткое внешнее отличие его стиля (или, вернее, многостилья). И я тоже буду так делать, хотя с моим заржавевшим позвоночником это трудно.
-- партнёрша далеко-близко (близко как в классической кизомбе: полный контакт). Тут Ronie Saleh честно сказал, что не признаёт деления по стилям, и танцует всё подряд. Это полностью соответствует моим ожиданиям. Он совсем не касался ведения корпусом или рамкой. Ведёт уж чем придётся, и это правильно. Ronie молодец, делай как Ronie.

Акценты-фишки:
-- вверх (прыжок) и вниз. Это тоже все делают, много преподавателей мне это объясняли.
-- толчок диафрагмой. Это мне подробно объясняла на занятиях Анна Мельникова, но Ronie задрал майку, показал как использовать, и стало ясно, что я недооцениваю эту фишку.
-- трясучка (диафрагмой или просто ногами, если диафрагмой не можешь). Видел неоднократно, считал, что это дабстеповская трясучка-паппинг, в голову не приходило самому так делать. Ronie объяснил, что ничего страшного, можно просто потрястись ногами.
-- прижать на секунду. Ага, вот так просто.
-- отпустить (для ответных реакций). Это объяснял Субачёв на своих занятиях, но Ronie показывал, как это делать именно для ответных реакций после фишек -- отпуская явно, на контрасте после жёсткого контроля.
-- повторение одного движения на разный ритм. Это его любимый приём, неоднократно замечал в роликах. Да я и сам так люблю )))
-- волна корпусом на мелизмы в песне
-- стоп на жёстком корпусе/перекос корпуса/подъём на одной ноге. Он стоял и дёргался в самых разных направлениях, самыми разными мышцами. Очень интересно, никогда не думал о таком разнообразии акцентов буквально "из ничего". Это, похоже, и есть его фирменный стиль: все эти движения мимо какой-либо традиции, чистый танец.
-- чача на музыкальный акцент.
-- прерывистое движение (cut-cut-cut) ногами или корпусом. Это мы подробно учили у Худоногова.

Повторюсь: ничего сложного, ни одного нового движения (кроме, может быть, трясучки диафрагмой, милостиво разрешённой к исполнению через трясучку ногами), но аккуратно всё собрано в одну трёхчасовую программу мастер-класса.

Вот демо с этого мастеркласса, Ronie танцует с Алёной Фортуновой. У них с Алёной удивительно подходящие друг ко другу стили -- это в основе своей urban, но очень мягкий, "с рюшечками" (https://vk.com/video64657980_456239156):
2019

Генератор аниме-аватарок на нейронных сетях

Сгенерируйте себе аниме-аватарку -- http://make.girls.moe/#/, при этом глубокая нейронная сеть для генерации будет работать прямо на вашем компьютере, и генерация занимает буквально несколько секунд даже на ноутбуке (короткое описание того, как это сделано -- https://makegirlsmoe.github.io/main/2017/08/14/news-english.html, технические подробности -- https://makegirlsmoe.github.io/assets/pdf/technical_report.pdf).

Вот образцы компьютерного творчества:

А вот тут сгенерированные пейзажи 128*128: https://raw.githubusercontent.com/robbiebarrat/art-DCGAN/master/images/landscapenet_waifu2x.png (это из другой работы -- https://github.com/robbiebarrat/art-DCGAN). Это не векторная графика, так что пока страшненько, тем не менее, прогресс и тут налицо.

Ах да, ещё генерируют лица высокого разрешения, там ещё более страшненько -- но если подумать, что это всё именно что компьютерные фантазии, и компьютеру никто не объяснял, какие пиксели где рисовать, и что в лице бывают рот, нос и два глаза, и какие там обычно расстояния, то результат тоже впечатляет. Поглядите там заодно и фильм, в котором эти лица перетекают одно в другое: http://mtyka.github.io/machine/learning/2017/08/09/highres-gan-faces-followup.html

Комментировать тут нечего, картинки хорошо говорят сами за себя. Повторюсь: профессионально сделанные картинки будут продолжать делать профессионалы, но картинки уровня буквально чуть похуже сможет сделать любой школьник на своём даже не ноутбуке, а планшете или телефоне. Ему нужно будет только объяснить (голосом!) этому планшету то, что он на этой картинке хочет увидеть. Где-то к 2020 году это будет доступно всем и стоить дешевле грибов. Потерпите годика три, а пока сгенерируйте себе аниме-аватарку, пройдите по первой ссылке и нажмите кнопочку.

UPDATE: обсуждение в фейсбуке -- https://www.facebook.com/ailevenchuk/posts/10210981122938091
2019

Подрыв пошёл: начались продажи камеры Light L16

14 июля 2017 камера Light L16 начала отгружаться потребителям -- https://spot.light.co/welcome-to-the-world-l16/. Вот технология: https://light.co/technology, вот камера -- https://light.co/camera. 52+Мпикселя в размере 16.5*8.45*2.4см и весе 435г (сравним: у моего Xiaomi Redmi Note 4 телефона 15.1*7.6*0.83см и 175г), никаких торчащих за этими размерами объективов (при приведённом фокусном расстоянии 28-150мм), ISO до 3200, видео 4K, регулируемая глубина резкости.

У меня в презентации семинара по будущему один из примеров цепочки подрыва (disrupt) рынков из фотографии: плёночные камеры были подорваны цифровыми (сначала ужасными по качеству), а цифровые камеры были подорваны телефонами (сначала ужасными по качеству). Оставалось сделать заключительный штрих: чтобы маленькая телефонная камера (т.е. в габаритах телефона, без огромного торчащего объектива, который сегодня побольше камеры) делала снимки лучше, чем традиционная огромная цифровая зеркалка с не менее огромным объективом к ней. Именно такой аппарат и начал отгружаться потребителям 14 июля.

Вот это инженерия, вот это я понимаю.

UPDATE: почитал комменты. Похоже, мало кто понял принципы работы этой камеры. Но это ничего, ещё будет у всех время разобраться. Почему зерно у цифровой камеры не хуже, чем у плёночной, тоже долго никто не понимал. И что обычные телефоны с двумя камерами с разным фокусным расстоянием уже есть, а тут камер 16 штук в одном корпусе, и это родственные решения -- вот это не отслежено. И что фишка в том, что длиннофокусник упихнули в такой корпус, это тоже незамечено. Невнимательные читатели, что тут скажешь.
2019

Функции компонент и сервисы модулей

Не нужно путать функцию (поведение компоненты) и сервис (поведение модуля).

Функция -- это внешнее поведение компоненты в её операционном окружении. Функции обсуждают во время работы целевой системы, компоненты взаимосвязаны в своих функциях, чем и обеспечивают эмерджентность -- появление функции, отсутствующей у её взаимосвязанных компонент.

Сервис -- это законтрактованное (т.е. определённое во время разработки и выбора модулей, во время интеграции системы из модулей) внешнее поведение модуля в его операционном окружении, проявляющееся через интерфейс этого модуля. Сервисы по возможности стандартны (open architecture, их интерфейсы не проектируются специально, а определяются опубликованными стандартами).

Сервисы (реальное поведение модулей на их интерфейсах) используются инженерами для того, чтобы реализовать функции (логическое поведение компонент на их связях). Можно сказать, что сервисы (реализуемые модулями) назначаются инженерами на функции (реализуемые компонентами). Модульный синтез по факту является сервисным синтезом -- интересует синтез не только системы-продукта/вещи, но и сервисов, которые на выходе дадут ожидаемое от системы поведение, синтез системы-функции/сервиса/поведения.

Помним, что на границе целевой системы компоненты и модули обычно совпадают. И вообще, в большинстве случаев их соответствие 1:1, но это не всегда так. Стремятся обычно, чтобы множество функций выполнялось одним модулем, множество функций было скрыто за одним интерфейсом.

Так, в компрессоре вентильный двигатель реализован в виде магнитов, прикреплённых к ротору (это часть "роторной сборки", наряду с лопатками колеса турбинки) и каких-то обмоток на корпусе (это часть "корпусной сборки"), плюс внешняя коробочка управляющей и силовой электроники как часть той же "корпусной сборки". Нет модуля двигателя, но есть его функция. Сервис же есть от компрессора в целом, он определяется главным образом поставщиком компрессора. Функция же компрессора в момент поставки неизвестна -- она определяется использующим его в своих проектах инженером по отношению к его системному окружению.

Это разъяснение для тех, кто знаком с моим курсом системного мышления -- все эти слова (компоненты и их связи, модули и их интерфейсы, операционное окружение и эмерджентность) термины, их определения можно посмотреть в учебнике http://techinvestlab.ru/systems_engineering_thinking/. И помнить при этом, что речь идёт не столько о словах-терминах, сколько об их значениях, мы за сами выбранные слова не держимся (в учебнике Косякова, например, наша "компонента" -- это "функциональный элемент", а наш "модуль" -- "компонента").

UPDATE: дискуссия в https://vk.com/wall2449939_1214
2019

lytdybr

Отрок сегодня утром гипнотизировал многочлен, пытаясь разложить его на множители в уме. Через десять минут такой медитации жена на него орала, и орала сильно, ибо икс там был в пятой степени, и для "в уме" был явно великоват -- можно было медитировать и два часа, всё было бы бестолку. Это у нас традиционная семейная практика "принуждение к использованию экзокортекса", т.е. принуждение к выкладкам на бумаге, в том числе и для записи успешного решения "в уме" (ужас ещё и в том, что время от времени он таки что-то сложное решает в уме, хотя это больше исключение, чем правило).

Второй утренний ор был по поводу рациональных дробей в физике. Алексей Бульбич писал буквально два дня назад (https://www.facebook.com/dmitry.smolyak/posts/1085323924888394) "У моего сына в 8-м классе реальной школы (самый запад западной Германии) год начался с арифметики числовых дробей. У меня аж зубы сводит: сколько же лет надо мусолить эту ненужную фигню". Наш отрок не имел никаких трудностей с дробями, и не мусолил их. Тем не менее, у него на них залипание. Он регулярно даёт ответ 10/3 км/ч в физической задачке (ибо там же никаких иксов нет! десять третьих -- это ж число, законный ответ!). Когда ему указываешь, что так нехорошо -- он поправляется: 3 1/3. Заставить его писать в физике десятичные 3.3 (или, если уж такой пуританин, показывать три в периоде) невозможно, и это "невозможно" продолжается второй год -- разницу между физикой и математикой он не хочет понимать принципиально, он действует в физике всегда как математик (и думает как математик, и перешибить это пока невозможно).

А ещё он сегодня вспомнил про Kerbal Space Program -- https://kerbalspaceprogram.com/, которая была на старом компьютере. Я ему установил новую версию и взял обещание, что он таки долетит до Луны (прошлые развлечения у него закончились только выходом на орбиту). Надеюсь, он на этом космическом тренажёре научится уверенно различать вес и массу -- до сих пор ведь путает, это ж для него чистая абстракция "из задач"!

Сам я по части игрушек долго смотрел сегодня на Intel Joule 570x и пускал слюну -- https://software.intel.com/en-us/iot/hardware/joule. Почему-то очень хочется такое попрограммировать, абсолютно неважно, что именно -- это для меня точно попало в разряд "интересная игрушка". Вот Raspberry Pi почему-то никогда не хотелось, а вот это чудо природы хочется, моё радиолюбительское детство прямо таки выпрыгивает наружу при виде этого девайса.Рекомендованная цена $369 (ага, вдесятеро больше, чем у Raspberry Pi) и за эту дикую цену абсолютно полноценный компьютер на 14нм проектных нормах четырёхядерный Atom на 1.7GHz, с кучей портов и полноценным Linux внутри (или ROS -- это ведь и для роботов тоже предназначено), память 4Gb и ещё диск 16Gb, да монитор подключаем туда 4K, ибо там и графика интеловская на борту -- и всё это в 24*48*3мм, то есть вот такое:

Интересно, что нигде не приводятся цифры по энергопотреблению модуля.
Конечно, покупать нужно не только модуль, но и плату со всеми нужными разъёмами (SDK), вот шесть разных вариантов -- https://store.gumstix.com/expansion/partners-3rd-party.html?cat=45 (и размеры плат, конечно, побольше, чем голого модуля). И пока это всё без нейронных сетей. Я думаю, что нейронные сети для этого формата появятся где-то через год, над этой аппаратурой сейчас интенсивно работают самые разные фирмы.

Заодно наткнулся на тред про сравнению Julia и Mathematica (помним, что Wolfram Language работает и на Raspberry Pi) -- этот тред начался пару лет назад, но пару дней назад продолжился: https://groups.google.com/forum/#!topic/julia-users/EQH5LJZqe8k
Julia язык, конечно, не для слабонервных. Впрочем, как и любой другой современный язык. В версии 0.5 там уже третий релиз-кандидат.

Увы, это всё вещи, до которых я вряд ли доберусь поработать руками. Нельзя объять необъятное. Но само их существование на планете почему-то сильно радует.

minski_gaon троллит математиков, физиков, инженеров, информатиков с позиции логиков -- http://minski-gaon.livejournal.com/99986.html. В его шутке, конечно, есть доля шутки. Конечно, он философских логиков и онтологов тоже называет "логиками", ибо его "логика" всеохватна и не знает границ. У меня самого более подробно заняться логикой в планах (скажем, она есть в списке beyond STEM http://ailev.livejournal.com/1283663.html), но пока это тоже из серии "нельзя объять необъятное". А пока я "методолог" -- таких зверей в "людях с техническими мозгами" у логиков вообще не предусмотрено.

UPDATE: в фейсбуке комменты тут -- https://www.facebook.com/ailevenchuk/posts/10207968186216556
2019

Архимейт 3.0, теперь со стратегией и физикой

Cмотреть новую спецификацию (формально вышла позавчера) ArchiMate 3.0 вот тут: http://pubs.opengroup.org/architecture/archimate3-doc/

Авторский коммент "что там нового": http://blog.bizzdesign.com/archimate-3.0-the-next-step-in-the-evolution-of-the-standard, формальный список изменений -- http://pubs.opengroup.org/architecture/archimate3-doc/apdxe.html#_Toc451758153 (в частности, отношение used_by изменено на serving, к motivation elements добавлен outcome, infrastructure переименовали в technology и т.д.).

Из главных новинок -- выполнение стратегии (элементы resource, capability и course of action -- используется в связке с motivation elements) и физический слой для IoT и Industrie 4.0. (то есть стандарт из кибер стал киберфизическим -- элементы equipment, facility, material, distribution network -- и communication path стал просто path, чтобы включить сюда и физику).

Конечно, много ещё не столь инновационной полировки напильником по тексту. Хотя добавленный механизм кастомизации нельзя сказать, что "мелкое дополнение". Факт-ориентированность Архимейта закончилась, можно добавлять атрибуты. Специализировать элементы можно было и раньше, но появились в количестве informative примеры этой специализации (типа business collaboration может быть специализирована до social network -- A social structure made up of social actors (individuals or organizations) and the connections between these actors. Пример специализаций Course of Action как раз Strategy и Tactic). И появились "профили", что по факту означает возможность препрограммирования в моделерах каких-то специализированных для тех или иных применений версий языка на базе предопределённых наборов специализированных элементов языка с их атрибутами.

Редакторы для всех этих новаций пока платные, Archi будет попозднее (разработчик ищет денег на разработку апгрейда -- http://forum.archimatetool.com/index.php?topic=229.0, "If funding is successful we are aiming for around October/November 2016").

Одновременно иметь стратегию и (кибер)физику в ArchiMate -- это очень сильный ход. Понятно, что версию 3.1 с корретировкой ошибок нужно ждать очень скоро (ибо наверняка там противоречий при добавлении физики осталось предостаточно), но и текущий вариант вдохновляет и открывает новые горизонты.
* * *
Мои посты по русификации Архимейта (версии 2.1) по ссылкам тут: http://ailev.livejournal.com/988360.html