Category: техника

Category was added automatically. Read all entries about "техника".

2019

lytdybr

СМС2020.19 стартовал, вся группа -- айтишники, кроме одного financial controller. Чаще всего айтишников была треть, или половина. А тут вдруг -- почти все! Москва, Московская область, Киев, Санкт-Петербург, Новосибирск, Пермь. Один человек в пятый раз, абсолютный рекорд Школы! За целый день едва-едва успели обсудить роли в проектах, даже на полчаса задержались.

Помогаю одному из вузов в стратегировании. В чём главная проблема? В редукционистском мышлении: когда явно не выделяются системные уровни, то малоосмысленные фразы типа "транзисторы в автомобильной промышленности", "мемристоры в медицинской промышленности". Вы представляете, сколько там человечьих команд, каждая из которых держит какой-то уровень на пути от транзистора к IP на этом транзисторе, к чипу в какой-то полупроводниковой технологии, к плате какого-то контроллера с чипом, к полноценному запрограммированному контроллеру (тут появляется ещё софт! Транзисторов уже не видно!), к какой-то подсистеме автомобиля с контроллером (уже и софта не видно!), к продуктной линейке этих автомобилей, к автомобильной промышленности в целом? Это я очень грубо и по прямой нарезал, но там же на каждом уровне нюанс на нюансе! Системное мышление -- это когда очень чётко отслеживаешь, к каким системным уровням какой системы относятся твои описания. Мне организаторы этого стратегирования мягко заметили, что история длинная, и нельзя ожидать, что люди вот так сразу услышат про системные уровни и что-то там начнут уточнять в презентациях, а то и в самой стратегии! Да, история длинная. Нельзя ожидать, что какой-то завкафедрой, д.т.н. -- и вдруг пройдёт семестровый курс системного мышления. Хотя для человека такого калибра это будет не семестр, а несколько дней -- если вдруг решит пройти. Отдельно -- увидим ли мы результат этого прохождения курса в стратегии? А пока можно только попечалиться, что представляемые на рассмотрение стратегии -- не системные. А какие? Редукционистские, привязки к системным уровням в них нет. Учитесь стратегированию у фирмы NVIDIA, напомню свои посты:
-- NVIDIA и интеллект-стек (2017 год) -- https://ailev.livejournal.com/1380163.html и https://ailev.livejournal.com/1347563.html
-- NVIDIA и стек роботакси (2017 год) -- https://ailev.livejournal.com/1384766.html
-- NVIDIA как поставщик вычислительной инфраструктуры (2018 год) -- https://ailev.livejournal.com/1416697.html
-- аппаратный стек NVIDIA текущего года -- https://ailev.livejournal.com/1518306.html

В книжке "Образование для образованных" по-прежнему 83%, но я начал менять по тексту "компетенции" на "мастерство". И тут же выяснилось, что это была засада типа "стейкхолдеров": иногда "компетенция" в тексте использовалась как "роль", иногда как "дисциплина", иногда как "практика", иногда как "мастерство". Поэтому менять приходится очень по-разному. Сказать "компетенция" я успел примерно 130 раз. Половину примерно уже исправил, и это оказалось не быстрым.

Обнаружил засаду в своём ноутбуке: когда солнце из окна берёт хотя бы 10% площади корпуса моего ноутбука, он перегревается -- и процессор уходит в полный ступор, мышка не бегает, а ходит скачками, буквы печатаются по одной в три секунды. Делаешь ноутбуку тень -- через 60 секунд вентиляторы справляются, и всё восстанавливается. На графике process explorer оказывается, что всё замеряется в относительных процентах: вот у тебя Zoom берёт 13% процессора, а вот он же вдруг берёт 80%! Но нет, берёт он столько же, это просто процессор стал маломощным! И это падение производительности процессора нигде не отображается. И это у меня так себя ведёт самый навороченный бизнес-ноутбук! Так и вспоминается спецификация автомобиля Роллз-Ройс: "Мощность мотора: достаточная". Достаточная, пока не выглянет солнце.

Последний мой выход в город, последние танцы -- 26 марта 2020. Первый выход в город, первые танцы -- 20 июня 2020. А до этого дома было хорошо, никуда ходить было не нужно.
2019

Big Neuro: триллионы транзисторов на чипе, квинтильоны и квадрильоны операций в секунду

Буквально за несколько лет мы пришли в мир Big Neuro -- в коннективистских архитектурах, то есть "нейросетях" счёт переходит с миллиардов/гига на триллионы/тера и даже квадриллионы/пета, а пока изредка и квинтиллионы/экза (короткая шкала -- https://ru.wikipedia.org/wiki/Системы_наименования_чисел).

Самый большой чип ускорителя для нейросетей -- это 1.2триллиона транзисторов на 42тыс.мм2, Cerebras Wafer Scale Engine компании Cerebras Systems, изготавливаемый на фабриках TSMC -- https://venturebeat.com/2019/08/19/cerebras-systems-unveils-a-record-1-2-trillion-transistor-chip-for-ai/, https://www.forbes.com/sites/tiriasresearch/2019/08/20/ai-start-up-cerebras-develops-the-most-powerful-processor-in-the-world/#26b4e5a86592. Это в 57 раз больше, чем чип V100 фирмы NVIDIA с 21млрд.транзисторов на 0.8тыс.мм2. Скорость обмена данных с памятью -- 9петабайт/сек, ещё одно Big. The energy cost of communication in this architecture is well under 1 picojoule per bit, which is nearly two orders of magnitude lower than in graphics processing units. В компании Cerebras Systems работает всего 194 человека (хотя мы и не знаем, сколько у них разработчиков было в подрядчиках, тем не менее -- это ли не восхитительно?!).

Конечно, это не сравнится с суперкомпьютером. Так, Summit (запущен в эксплуатацию год назад -- https://blogs.nvidia.com/blog/2018/06/08/worlds-fastest-exascale-ai-supercomputer-summit/) имеет 27648 NVIDIA V100 и 200петафлопс (умножений плавающей) и 3exaops, экза/квинтиллионов операций умножения-сложения целых в секунду -- это помньжьте "пета" ещё на тысячу, миллиард миллиардов. At 200 petaflops — If everyone on Earth did 1 calculation/second, it would take 1 year to do what Summit does in 1 second. At 3 exaops of AI — If everyone on Earth did 1 calculation/second, it would take 15 years to do what Summit can do in 1 second. А сколько занимает места этот Summit? Два теннисных поля! Следующий за V100 чип для текущего нейро-поколения AI -- это Huawei Ascend 910, который имеет удвоенную производительность (закон Мура продолжается для GPU!), но это всего вдвое, 0.25PFLOPS, 0.5PTOPS, по факту того же класса чип -- https://medium.com/syncedreview/huaweis-first-commercial-ai-chip-doubles-the-training-performance-of-nvidia-s-flagship-gpu-86e4d0078f6f

Cerebras Wafer Scale Engine это всего один чип, хотя и потребляет он 15Квт на свои 400тыс. AI вычислительных ядер -- примерно столько же, сколько потребляло бы эквивалентное количество одиночных чипов. Чудес-то не бывает, вычисления требуют энергии.

Самая скандальная языковая модель (модель языка в нейросети) была скандальна ровно потому, что она оказалось достаточно большой, чтобы произвести нетривиальные результаты -- это GPT-2 от OpenAI, которую даже отказались публиковать из-за боязни злоупотреблений в использовании. В ней было 1.5B параметров, 0.0015P. Только что опубликовали сокращённую вдвое модель -- https://venturebeat.com/2019/08/20/openai-releases-curtailed-version-of-gpt-2-language-model/. Но десятые триллиона уже никого не останавливают, только что опубликовали независимо реализованную языковую модель такого же масштаба с практически такими же результатами: https://medium.com/@vanya_cohen/opengpt-2-we-replicated-gpt-2-because-you-can-too-45e34e6d36dc. Потолок цены тренировки такой модели -- $50К, и есть много возможностей снизить цену -- основная цена это те самые чипы и электроэнергия на их работу, сколько на их охлаждение.

И этих чипов нужно много. Чтобы обучить языковую модель BERT всего за 53 минуты потребовалось 1472 GPU V100, это 92 компьютера DGX-2H ценой $399тыс., то есть там только аппаратуры для этого почти часового счёта на почти $40млн, https://devblogs.nvidia.com/training-bert-with-gpus/). И это не самая большая модель! В работе по этой же ссылке https://devblogs.nvidia.com/training-bert-with-gpus/ указывается, что была натренирована модель GPT-2 на 0.0083 триллиона параметров, при этом достигли 15.1 PetaFLOPS sustained performance!

Конечно, речь не идёт о том, чтобы заниматься сетями на 1 триллион параметров. Но если речь идёт о какой-то модульной конструкции из сотни (возможно, совсем неодинаковых) сетей (и, возможно, совсем не сетей) на 0.01 триллион параметров каждая -- то вот такая когнитивная архитектура явно сможет много больше, чем текущие даже самые большие сетки.

При этом сами сетки тоже становятся лучше. Полно работ, которые снижают время обучения и число параметров вдвое-втрое-вдесятеро без ухудшения качества работы сети. Но пока -- чем больше сетка, тем чудесатей результаты. Даже сильно ужатая сетка огромна и требует огромного времени обучения. И это невозможно достичь без выхода на Big Neuro.

А дальше Big Neuro сочтут маркетинговым термином, под которым будут понимать что угодно. Очень скоро будут обсуждать, как и с Big Data, что дело не в размере, а volume, veloсity, veracity, variety, value, variability (https://www.researchgate.net/figure/Six-Vs-of-big-data-value-volume-velocity-variety-veracity-and-variability-which_fig15_280124446) и ещё больше каких-нибудь V. И все формулировки можно будет брать из BigData, и все маркетинговые слоганы.

Но технологически это новый чудесатый мир, где если недостаточно мозгов, то просто добавь транзисторов. А если достаточно мозгов, то тоже добавь транзисторов.

Следующая история, конечно, про симуляторы мира. Чтобы обучить нейросетку, нужно построить виртуальный мир -- и обучать дальше сетку в этом мире, ибо в виртуальном мире эволюция идёт быстрей, чем в реальном мире. Нужно много-много симуляторов. Следующая большая история -- это логические вычислители, которым тоже хочется аппаратной поддержки (вот примеры работ, которые пытаются ускориться на текущих архитектурах вычислений -- https://arxiv.org/abs/1810.06617 и https://www.cyc.com/wp-content/uploads/2015/04/AAAI-SharmaA.1646.pdf, и такого много. Вполне возможно, что тут как с нейронными сетями поможет задействование аппаратного ускорения для получения нетривиальных результатов). Понятно, что будут попытки "повторить мозг" -- перенести логические вычисления в нейронные сетки (neural logic machines -- https://arxiv.org/abs/1904.11694, embedding of knowledge graphs -- https://arxiv.org/abs/1908.07141 и т.п.), равно как моделировать физику не уравнениями, а прямо нейронной сеткой -- https://ai.facebook.com/blog/phyre-a-new-ai-benchmark-for-physical-reasoning/. Смогут ли текущие ускорители AI на нейросетках сработать для этих же задач так же качественно, как могли бы сработать специализированные компьютерные архитектуры?

Ответ прост: нет, не смогут. Алгоритмы там везде разные, поэтому работает теорема бесплатного обеда: тот вычислитель, который хорош для одних задач, будет ужасен для других задач. Так что нейровычислитель будет хорош только "в среднем по больнице". И мы увидим в ближайший десяток лет ещё много разного и чудесатого -- и аналоговые спецвычислители, и универсальные цифровые архитектуры (для препроцессинга и постпроцессинга видео, физических вычислений, логических вычислений, вероятностных вычислений, а также и для вычислений в deep learning). Жизнь уже интересна, счёт транзисторов пошёл на триллионы -- и спецвычислитель BigNeuro на триллион транзисторов может сделать команда из меньше чем 200 человек.

А пока болеем не за динамо и спартак, а за участников этого чемпионата искусственных мозгов -- aNLI, https://leaderboard.allenai.org/anli/submissions/about. Это продолжатели дела CYC, они хотят закодировать common sence, здравый смысл. И сделали на эту тему соревнование. Рассказ про abductive commonsence reasoning -- https://arxiv.org/abs/1908.05739. У людей в этом соревновании 92.9% правильных ответов. У нейросетки BERT Large Finetuning -- 66.75%. У CYC (там ведь как раз цель соревнований была дизайн-целью) -- неизвестно, у IBM Watson (это ж победитель "Jeopardy!", по сути это ж то же самое) -- неизвестно. Но там много-много лет ручного кодирования знаний, а BERT тренируется, как мы знаем, за 53 минуты (грубо говоря, читает за это время в себя если не всю Библиотеку Конгресса, то сравнимый объём текста). А ещё было бы забавно увидеть соревнующимися там не только нейросетки и логические вычислители, но и людей. Скажем, команда победителей что-где-когда сколько бы решила в этом соревновании? Не смогла ли выдать больше ли 92%? С другой стороны, и это соревнование тоже ни о чём: нобелевские лауреаты и крутые политики обычно не эрудиты, а эрудиты и другие победители викторин не так уж и заметны в других сферах жизни. Но мы всё равно болеем.

Но причём тут Big Neuro и решение задач, объявленных в этом соревновании по использованию здравого смысла в рассуждениях? Напомню тезис Rich Sutton (http://www.incompleteideas.net/IncIdeas/BitterLesson.html): прогресс в AI определяется доступной вычислительной мощностью при простых алгоритмах. Размер решает. Текущая самая большая нейросетка GPT-2 8B пока всего в 24 раза больше BERT, текущего победителя соревнования по объяснениям на основе здравого смысла. И хотя понятно, что с этой архитектурой существенно улучшить результат не удастся, то альтернативные более успешные архитектуры вряд ли будут с меньшим количеством вычислений. IBM Watson, победивший в Jeopardy! -- это прежде всего суперкомпьютер! Big Neuro таки решает, а если там пойдёт ещё и Big Simulation и Big Logic, которые сольются в какой-то момент в Big Evolution Multi-engine, то аж дух захватывает, что может получиться!

UPDATE: обсуждение в фейсбуке -- https://www.facebook.com/groups/nevronet/permalink/1406594802840170/

Краткое содержание поста:
-- есть no free lunch тезис, что разные алгоритмы для разных задач имеют разные оценки времени
-- Sutton говорит, что побеждают простые алгоритмы при масштабировании. Типа нейросеток, когда их посадили на нормальный "их" кремний.
-- есть ряд классов алгоритмов, которые могут помогать решать разные задачи с интеллектом. Логика, эволюция.
-- по идее, должна быть когнитивная архитектура, которая позволяет использовать такие алгоритмы, маршрутизируя им соотвествующие классы задач
-- не факт, что их все нужно выполнять на нейро-инфраструктуре.
-- это означает, что перспективно попробовать ускорители и для логики, и для физики, и для эволюции в конечном итоге (где потребуется интеграция всех ускорителей: эволюционировать-то должна будет когнитивная архитектура!).

А эволюция съест всю вычислительную мощь, которая доступна, и ещё потребует. Так что радуемся и имеем дело с Big Neuro и Big ВсёОстальное.
2019

Инженерия хаоса от администрации США

Администрация США затеяла для мира инженерию хаоса: это такой способ проверки инфраструктуры, при котором идут плановые отключения работающих нормально сервисов -- чтобы поглядеть, как будет на это реагировать система. Тревоги не учебные, а настоящие, разве что бомбёжка идёт от своих, а не от чужих (вроде как морально от этого должно быть легче: сам рубильник датацентра выключил, потом сам же его включил -- после того, как убедился, что всё шло по плану. А если не пошло? Ну, урок на будущее, "сожалеем о случившемся, это необходимые жертвы для жизни будущих поколений").

Рубильником выключили Huawei. У меня дома два телефона Huawei, и это уже как-то трогает и меня. Никак не ожидал, что эта инженерия хаоса затрагивает и меня. Зависеть от Гугля (андроид!) и Майкрософта (винды на ноутбуках Huawei тоже ведь под вопросом!) оказывается вредно, их может отключить любой президент (мне плевать, что это президент США. Если президент России выкинет очередную какую-нибудь аннексию для целей защиты русских граждан за рубежом, традиционные цели всех аннексий, то итог будет тот же -- от сервисов Гугля и Майкрософта отключат опять же меня, а не президента России).

Вот теперь сидишь, и думаешь: кто там на самом деле сволочь -- администрация США, которая лечит головную боль методом отсечения головы (из-за боязни отказов каких-то будущих экземпляров техники Huawei отключает всю технику Huawei в мире! Нет чтобы просто не покупать аппаратуру от Huawei самим, и этим удовлетвориться), ненадёжность Гугля и Майкрософта, которым в бизнесе оказывается верить нельзя ("они только выполняют приказ", что там с такими как я владельцами смартфонов и ноутбуков и даже базовых станцый Huawei -- им глубоко плевать. Все эти "do not evil" уже в далёких легендах о прошлом), или Huawei, который чем-то там провинился, и поэтому его мочат уж как могут, в том числе задевая мои чисто технические пользовательские интересы как владельца аппаратуры и софта Huawei.

А смартфончики у Huawei таки хорошие, у меня на них нареканий нет. Поэтому желаю инженерам Huawei пережить эти неприятности, я целиком на их стороне. И лучи поноса всем остальным помянутым, ненадёжны и продажны оказались они, "просто выполняющие приказ", а не Huawei.

Плохо только, что Huawei будет делать свою новую операционную систему на основе Linux, оживлять опять древнюю рыбу латимерию, делать очередного зомби со всеми эволюционными недостатками. Я понимаю, что legacy и совместимость, но операционные системы должны быть современными, а не допотопными с их встроенными проблемами безопасности. Но удачи тамошним инженерам. Мне почему-то кажется, что я с удовольствием буду пользоваться результатами их трудов на этом фронте.

И там ещё проблемы с ARM! Хотя это уже касается будущей аппаратуры, а не нынешней: https://www.bbc.com/news/technology-48363772

Литература:
-- "Мойдодыр и политическая философия интернетвещизма", https://ailev.livejournal.com/1106188.html
-- Chaos Engineering: the history, principles, and practice, https://www.gremlin.com/community/tutorials/chaos-engineering-the-history-principles-and-practice/

То, что во всём мире сейчас технологический враг номер один вдруг оказался отнюдь не Китай, и степень зависимости нужно убирать не от Китая -- вот это абсолютно понятно. Чьи продукты могут "вдруг выступить против тебя в случае войны" -- вот этот кейс очень чётко продемонстрировал. И это не продукты Huawei оказались, и даже не один продукт оказался.

Так сказать, эффект Барбары Стрейзанд в этой неожиданной предметной области.


UPDATE: обсуждение в фейсбуке -- https://www.facebook.com/ailevenchuk/posts/10215452473039049 и ВКонтакте -- https://vk.com/wall2449939_2249, ФриФид -- https://freefeed.net/ailev/6778cc6c-2f0d-4d4b-a760-a357cd9f5582
2019

lytdybr

После покупки яндекс.станции мы всё время вспоминали анекдот про покупку барабана пятилетнему ребёнку: из комнаты вьюноша доносились вопли споров с Алисой (вопли, потому как музыку нужно сначала перекричать, чтобы Алиса тебя услышала -- а она как глухарь на току: чем громче играет, тем меньше тебя слышит, но если тебя и слышит, то в ответ тоже кричит) и совершенно дикая тинейджерская музыка по всему дому на дикой громкости с диким качеством (написано во всех обзорах, что яндекс.станция бухтит: искусственно задранные недобасы, провалы по высоким и средним, чтобы легче было до неё докричаться -- это всё правда, бухтит, это полный аудиофильский и даже меломанский ужас). А потом потихоньку всё прекратилось, и через пару дней основной режим -- это с выключенными микрофонами и тихнько скорчащим телефоном с той самой тинейджерской музыкой. Почему? Много причин:
-- управлением голосом правильную музыку из Станции не извлечёшь, в компьютерном/телефонном/планшетном интерфейсе это в разы и разы быстрее,
-- Станция любимой музыки просто не имеет (как я понимаю, люди разлетаются сейчас стремительно по нишам -- кто-то слушает каверы на игровые мелодии, как наш вьюнош, и их на яндекс.музыки нет, кто-то слушает кизомбы, которых тоже там нет, так что остаётся "много мейнстрима". Ну не его же слушать? Хотя я слушаю во время работы именно его. А для хобби? Для хобби музыки там, конечно, нет -- её ищу отдельно в каких-нибудь soundcloud или даже прямо в youtube. Вот и вьюнош имеет youtube источником музыки, а яндекс.станция этого не понимает).
-- родители всегда теперь знают, чем ты занимаешься: музыку ищешь, или уроки делаешь. Поэтому лучше тихий скворчащий звук под одеялом, чем громкий бухтящий звук и получасовые переговоры с Алисой, выдающие тебя и твои интересы на всю квартиру.

Появление в доме отдельного от компьютера предмета, с которым можно поговорить -- это забавно. Особо доставляет аттракцион с просьбой прочитать новости. Читает новости Алиса мужским баритоном с интонацией народного артиста, отмоделированной на чтении каких-нибудь вечеров на хуторе близ Диканьки. Что выразительно, взахлёб и радостно рассказывает это не человек, понять можно только по какому-то дикому сбою в ударениях или произношении где-нибудь на каждой пятой фразе. Утюги, скоро с нами по душам будут разговаривать утюги. Хотя тут предполагается три варианта решения:
-- домовой ассистент (тот кто победит: Алиса, или помощник гугля, или Кортана, или Алекса и т.д.) перехватывает управление утюгом и всем остальным, общаться будете с ассистентом, а уж он поговорит с утюгом. Это текущая модель "умного дома", где диспетчер-помощник рулит всеми гаджетами дома.
-- общаться будете с утюгом, но таки из него вещать будет домовой ассистент. Как Агент Смит, он будет оказываться в каждом новом умном устройстве дома.
-- общаться будет сам утюг, а в сторону домашнего ассистента он будет отпускать злые шутки, а иногда и вообще дурить (приказывая ему, например, заткнуться -- и делая это голосом хозяина. А то и заказывая какую-нибудь гладильную отдушку голосом хозяина, используя домового ассистента и все его неизбежные авторизации).
Весёлая жизнь настаёт.

Идёт CES, которая оказалась отнюдь не вся про потребительскую электронику (чего только стоит презентация на ней квантового компьютера IBM), а атмосфера тамошних анонсов совсем другая, нежели в предыдущие годы. Сегодня она закончится, и можно будет попробовать понять, что происходит. Но я боюсь, что не пойму: всего происходит слишком много, и оно очень запутанно связано друг с другом.

Жизнь как-то буквально на глазах меняется, меняются представления о SoTA. Вот я тут спорю с Петром Щедровицким на эту тему (он считает, что это всё развитие идей древних философов, а я утверждаю, что философов там рядом не стояло, и если внимательно смотреть каждый шаг, то его делают инженеры, абсолютно не опираясь на работы этих философов. И показываю, что даже при "похожих" идеях инженеры находят различия -- на примере склоки между Шмитхубером и Гудфеллоу): https://www.facebook.com/petr.shchedrovitskiy/posts/2017510011669219. "их компьютеры это просто воплощение 2,5 очень простых философских идей 1000 летней давности" -- вот ни разу в жизни. Не их идеи воплощались, а идеи изобретателей компьютеров. И опирались эти изобретатели компьютеров не на мысли философов, а на совсем другие мысли совсем других людей (включая свои собственные мысли). Это даже не суп из топора "компьютер из мыслей философов". Расскажите, как философия помогла IBM создать их квантовый компьютер -- то-то они удивятся. Но философы наверняка найдут какого-то древнего грека-любомудра, который "был предтечей". Не был предтечей, ни разу не был, это wishful thinking так считать. И похожими все эти мысли философов и создателей современной техники могут считать только сами философы, ровно как и протягивая стрелку причинности между этими мыслями. Вот никаких там отношений причина-следствие нет!

Похоже, нужно просто брать и делать из cognitive behavior therapy другую дисциплину: cognitive behavior engineering -- когнитивную поведенческую инженерию. Сделать для неё минимального размера кругозор, а дальше в этой терминологии формулировать небольшой набор практик, нужных для акторского/стейкхолдерского мастерства. Это ничего, что имя берётся с запасом и на вырост. В этой предметной области любой исследователь берёт и делает себе небольшую методологию, надёргав туда пару десятков практик известных и добавив туда парочку своих собственных практик на базе какой-нибудь общей для этого десятка практик метафоры. Вот мы тут будем ничем не хуже всех остальных. При этом слово "инженерия", надеюсь, будет отпугивать эзотериков. Чего инженерим? В НЛП они инженерят человеческое совершенство (exellence). Ну, мы будем инженерить человеческую успешность — определяя её по системноинженерному (то есть как результаты деятельности синженерённого человека, удовлетворяющие стейкхолдеров) и учитывая наличие экзокортекса. Кстати, Бэндлер уже делал "инженерию" -- Design Human Engineering, тоже интересный проект, http://www.nlp-kh.com.ua/baza-znanij/o-nlp/napravleniya/677-dhe.

Пришли результаты продаж декабря в Ridero. На сегодняшнее число "Системного мышления" продано 2005 штук, а "Визуального мышления" -- 411 штук. Вот это уже хоть какие-то круглые цифры!
2019

lytdybr

Нужно пересортировать пару-тройку сотен слайдов, замучился уже это делать на своих четырёх мониторах. Сегодня привезли LG 43UD79 -- монитор 4К, который многие считают лучшим из сегодня имеющихся мониторов с нормальным пиксельным шагом (активно обсуждалось вот тут: https://hardforum.com/threads/lg-43ud79-information.1929600/, а ещё я поднял вопрос в чатике https://freefeed.net/ailev/abbef81d-3651-4877-b826-7ff2156c16d7). Заменил три моих внешних монитора на него одного (он примерно столько же места на столе и занял). Теперь у меня ноутбук через док-станцию работает с ним, и ещё свой экран 13" FullHD показывает. Идея поставить 4К портретно сразу отпала: пришлось бы сильно задирать голову, и верхний край экрана был бы ещё и очень далеко от глаз. Расстояние ретины (когда пиксели незаметны) для этого монитора 86 сантиметров. Я сижу, конечно, поближе.

Из непривычностей-неудобностей то, что три экрана у меня были выставлены по очень крутой дуге, и портретные экраны все были перпендикулярны углу зрения. А тут экран плоский, и перепендикулярна углу зрения только середина экрана. Тексты на правой и левой трети огромного экрана странно читать: эти тексты находятся под существенным углом. Ничего, привыкну. Ну, и контраст хуже: тут 1000:1, а у меня были экраны 3000:1 (мониторы BenQ BL2400), картинка была более аппетитная. Но все так живут, и я так буду жить. Ноутбука (dell XPS 13, модель 9350) с докстанцией (dell wd3100, цепляется по USB 3.0) явно не хватает: 30% процессора идёт на показ 4К фильма, плюс всё дёргается и прыгает при показе. Но покупать новый ноутбук и докстанцию я к этому экрану явно не буду.

Зато PowerPoint показывает колоду из 110 слайдов в режиме сортировки сразу, и такого размера квадратиками, что вполне можно читать не только заголовок, но и текст почти на каждом слайде. Сортировать колоды стало в разы легче. А ещё Archi теперь имеет необъятное поле для диаграмм. Из неожиданных бонусов: старые дисплеи немного перекрывали пищалки у колонок, а новый не перекрывает, звук стал получше. И ещё появилось много места для чашки с чаем, раньше её нужно было ставить на пятачок размером с саму эту чашку. А теперь ещё можно рядом навалить каких-нибудь ненужных вещей. Известно же, что дома на все горизонтальные свободные поверхности быстро толстым слоем выпадает не пыль, а разные ненужные вещи.

Док-станция позволяет ещё два FullHD монитора включить, и даже эти BenQ у меня есть, чтобы их включить. Но места, чтобы их поставить, уже не хватает -- этот монитор огромен, занимает мой рабочий стол целиком. Вот думаю, нужны мне мебельные работы в кабинете, или не нужны? Лучше не буду будить лихо, пока оно тихо.

Вчера шло три курса Школы в параллель у трёх преподавателей: мой курс, двигательный фитнес Антона Климата и базовый курс системного мышления у Церена Церенова. Но на самом деле курсов в параллель шло аж четыре: ещё же идёт курс на Курсере (http://www.systemsthinkingcourse.ru/)! Там на сегодня уже пятеро человек выпустилось, заплатило за проверку задач 95 человек, а хоть что-то из материалов курса проглядели 1030 человек (прирост с прошлой недели 80 человек!). В чат поддержки (https://t.me/systemsthinking_course) добавилось за последнюю пару дней новеньких человек двадцать, там 351 участник: Курсера запустила 4 марта очередной поток (автомат это делает каждые четыре недели -- чтобы синхронизировать как-то обучающихся, им же нужно друг друга оценивать в peer review). Учебника купили 276 экземпляров -- и это только в магазине ridero (https://ridero.ru/books/sistemnoe_myshlenie/), без Амазона и Озона. И это несмотря на то, что он на курсере доступен бесплатно. Ажиотаж начальных покупок при этом полностью спал, так что можно определить примерную аудиторию "сообщества любителей системного мышления": примерно триста активных человек. Буду надеяться, что за год мы доведём эту цифру до 500 человек, а ещё через год удвоим.

Что несказанно меня греет в эти дни, так это отзывы о курсах -- очень приятно читать в чатах учебных групп (а иногда и прямо слышать на занятиях), как люди решают на этих курсах свои личные и производственные проблемы. Похоже, что вся эта образовательная затея работает именно так, как задумано.

На тренировках кизомбы у меня сейчас главная тема -- инерции. Партнёрши на вечеринках начали массово рапортовать о необычных ощущениях: "плыву", "лечу", "вальсирую" (это в кизомбе!). То ли ещё будет.

Про школу писать ничего не хочу. Они там ни о чём не думают и не заботятся, кроме как диагностических работ по ОГЭ. Этих ОГЭ нужно сдавать четыре штуки (у нас это русский, математика, физика, информатика), учёбы как таковой уже нет, есть только нагнетание истерии и попытки натаскать на сдачу экзаменов, а не дать образование. Ужас в том, что жена этой идущей из школы (ага, физмат-лицея!) истерии поддаётся: цели "знать физику" или "владеть матаппаратом" вдруг даже внутри жены неожиданно начинают подменяться "хорошо сдать ОГЭ". Что с этим делать, я не понимаю.

UPDATE: Обсуждения в Сети -- https://freefeed.net/ailev/2b4c3346-d21b-4971-8dc7-036f16287fd9, https://freefeed.net/ailev/abbef81d-3651-4877-b826-7ff2156c16d7, https://www.facebook.com/ailevenchuk/posts/10212460930332351
2019

lytdybr

Физику вместо учебников мы уже два года потребляем от ришельевского лицея -- https://www.youtube.com/channel/UCSdDqsIYf9v5UEWTNda1YBw, она там высшего качества: занятия Павла Виктора вбиваются в голову вьюноша с одного просмотра. По невнятным семейным слухам, один из прадедов вьюноша был родом как раз из Одессы, так что вьюнош вполне может считать такое образование родным.

Вьюнош с занятий электроникой принёс первые схемы синтеза логических схем, я от этого млею. В этом году уже идёт нормальное внешкольное образование по электронике. Зато по информатике ему дают задачи определения максимума в последовательности чисел циклом while на PascalABC -- он такое уже много лет назад делал, и даже не на Паскале, а на Питоне. Так что тут пока не радуемся, а терпим.

Вьюнош победил за последний год два планшета и один смартфон: стёкла вдребезги. Жена отнесла их сегодня на замену стёкол. Я же победил пару дней назад адаптер DA200 с USB Type-C на HDMI/VGA, но он совсем неремонтопригоден. Так что сегодня мне принесли новый адаптер, это вдвое дороже замены стекла (стекло поменять стоит 3тыс., а адаптер 6тыс., эти адаптеры нынче с навороченной электроникой и жутко дорогие).

Накопил некоторое количество книг для немедленного чтения, и нет ни малейшего шанса их прочесть. А надо. Вот только закончу учебник, поставлю точку -- и уйду в запой, тьфу, начитку, тьфу, слова даже такого нет (не "изучение", ибо это ж не исследования проводить с их гипотезами и экспериментами, не "освоение материала", ибо чтение это ещё не личный опыт работы -- нельзя говорить про "освоение" без этого. Но без начального чтения никуда). При этом до написания учебника я не дотянусь аж до следующей недели, буду разгребать текущие обязательства. Пока же раздал всем идущим сейчас учебным группам неполные пять глав от 8 октября. Лучше это, чем ничего.

В моей кизомбе количество у меня начало как-то переходить в качество: я и сам в разы лучше понимаю происходящее на тренировках, и даже могу уже что-то объяснить другим -- иногда и лучше преподавателей. Нет ведь ничего практичней хорошей теории: она обычно сокращает время обучения впятеро, с тысяч необходимых повторений до всего лишь сотен. С Антоном Климатом мы будем делать в Школе системного менеджмента обзорный тренинг по универсальной готовности к движению в рамках цикла тренингов по системному развитию. Завтра будем после тренировки сидеть-планировать. Напишите коммент с вашими ожиданиями: что бы вы мечтали от такого тренинга? В рамках разумного, конечно: любые результаты в работе с телом и движением (как и с мозгом и мышлением) происходят уж точно не в ходе тренинга. Тренинг это как эпизоды по коррекции направления, а чтобы куда-то попасть нужно двигаться по пути. Если не двигаться, то коррекции направления будут коррекциями направления стоящего на месте. Бесполезно крутить руль стоящей машины, нацеливая её в правильном направлении -- она всё равно не попадёт в то место, куда её напрявляют. Секрет успеха серии тренингов в том, что происходит между ними и после них, а не на них самих. В пути важно двигаться, а не только корректироваться. И это зависит в бОльшей степени от тренирующегося, а не от тренера. Хотя акцент на целом курсе, а не на просто серии тренингов тут мог бы сильно помочь. У нас в Школе системного менеджмента есть и семинары, и обсуждения в фейсбуке, и корпоративные игры для этой помощи в "движении между тренингами". Нужно ещё думать в этом направлении.

Случайно наткнулся на канал обучающих видео по джазовой игре на пианинке, NewJazz -- https://www.youtube.com/channel/UCfmAjVU0aF41zi7oWB8_TUg. Но вот этим заниматься точно не буду, хотя слюна течёт и очень хочется. На пианинке я и так играю почти каждый день, когда обдумываю что-то рабочее -- то есть совмещаю приятное с полезным. А если вместо этого "рабочего" буду думать о том, что и как я играю, то приятное останется, а полезное уйдёт. Мне этого бы не хотелось, времени в сутках для производства полезного и так мало.

UPDATE: обсуждение в фейсбуке -- https://www.facebook.com/ailevenchuk/posts/10211432552223541
2019

Разнообразие в кизомбе: заметки с мастер-класса Ronie Saleh

Вчерашний мастер-класс Ronie Saleh был по факту про разнообразие в кизомбе, моя любимая тема. Он поднял традиционную в социальных танцах тему "развлечь девушку" и разнообразие как способ этого достичь. Многое из этого материала давалось мне на самых разных других тренингах, но тут всё было собрано в одном месте.

Были предложены контрасты:
-- ритм шагов быстро-медленно (в том числе очень хитрый закольцованный ритм раздватричетыре-пять-шесть-семь-и-восемь-и, хитрость его в том, что замедление не в конце восьмёрки, а в самом начале. Обычно наоброт: пробежка-замедлиться). Это традиционно, "все делают это" на занятиях по музыкальности, так или иначе.
-- топтаться на месте с акцентами -- бегать по залу -- крутые динамичные фишки. Это любит объяснять Худоногов.
-- супермаленькие шаги--большие шаги. Вот этого мне не хватало: поначалу меня ругали за слишком большие шаги, но я чётко видел на всяких роликах реально большие шаги и не очень понимал, за что ругают. Теперь понял: большие шаги можно делать, но нужно делать и маленькие шаги, танцевать на контрасте.
-- корпус мягкая "змея" -- жёсткий "робот" (но не промежуточное поднатянутое состояние). Про это лучше и детальней объясняет на своих занятиях Антон Климат, но "нет пророка в своём отечестве". Буду к этому ещё внимательней. Ну, и сам Ronie извивается волнами время от времени: это сильно отличает его танец от каменных бюстов героя других urban kiz или kizomba fusion преподавателей. Вот это он объяснил подробно, это чёткое внешнее отличие его стиля (или, вернее, многостилья). И я тоже буду так делать, хотя с моим заржавевшим позвоночником это трудно.
-- партнёрша далеко-близко (близко как в классической кизомбе: полный контакт). Тут Ronie Saleh честно сказал, что не признаёт деления по стилям, и танцует всё подряд. Это полностью соответствует моим ожиданиям. Он совсем не касался ведения корпусом или рамкой. Ведёт уж чем придётся, и это правильно. Ronie молодец, делай как Ronie.

Акценты-фишки:
-- вверх (прыжок) и вниз. Это тоже все делают, много преподавателей мне это объясняли.
-- толчок диафрагмой. Это мне подробно объясняла на занятиях Анна Мельникова, но Ronie задрал майку, показал как использовать, и стало ясно, что я недооцениваю эту фишку.
-- трясучка (диафрагмой или просто ногами, если диафрагмой не можешь). Видел неоднократно, считал, что это дабстеповская трясучка-паппинг, в голову не приходило самому так делать. Ronie объяснил, что ничего страшного, можно просто потрястись ногами.
-- прижать на секунду. Ага, вот так просто.
-- отпустить (для ответных реакций). Это объяснял Субачёв на своих занятиях, но Ronie показывал, как это делать именно для ответных реакций после фишек -- отпуская явно, на контрасте после жёсткого контроля.
-- повторение одного движения на разный ритм. Это его любимый приём, неоднократно замечал в роликах. Да я и сам так люблю )))
-- волна корпусом на мелизмы в песне
-- стоп на жёстком корпусе/перекос корпуса/подъём на одной ноге. Он стоял и дёргался в самых разных направлениях, самыми разными мышцами. Очень интересно, никогда не думал о таком разнообразии акцентов буквально "из ничего". Это, похоже, и есть его фирменный стиль: все эти движения мимо какой-либо традиции, чистый танец.
-- чача на музыкальный акцент.
-- прерывистое движение (cut-cut-cut) ногами или корпусом. Это мы подробно учили у Худоногова.

Повторюсь: ничего сложного, ни одного нового движения (кроме, может быть, трясучки диафрагмой, милостиво разрешённой к исполнению через трясучку ногами), но аккуратно всё собрано в одну трёхчасовую программу мастер-класса.

Вот демо с этого мастеркласса, Ronie танцует с Алёной Фортуновой. У них с Алёной удивительно подходящие друг ко другу стили -- это в основе своей urban, но очень мягкий, "с рюшечками" (https://vk.com/video64657980_456239156):
2019

Генератор аниме-аватарок на нейронных сетях

Сгенерируйте себе аниме-аватарку -- http://make.girls.moe/#/, при этом глубокая нейронная сеть для генерации будет работать прямо на вашем компьютере, и генерация занимает буквально несколько секунд даже на ноутбуке (короткое описание того, как это сделано -- https://makegirlsmoe.github.io/main/2017/08/14/news-english.html, технические подробности -- https://makegirlsmoe.github.io/assets/pdf/technical_report.pdf).

Вот образцы компьютерного творчества:

А вот тут сгенерированные пейзажи 128*128: https://raw.githubusercontent.com/robbiebarrat/art-DCGAN/master/images/landscapenet_waifu2x.png (это из другой работы -- https://github.com/robbiebarrat/art-DCGAN). Это не векторная графика, так что пока страшненько, тем не менее, прогресс и тут налицо.

Ах да, ещё генерируют лица высокого разрешения, там ещё более страшненько -- но если подумать, что это всё именно что компьютерные фантазии, и компьютеру никто не объяснял, какие пиксели где рисовать, и что в лице бывают рот, нос и два глаза, и какие там обычно расстояния, то результат тоже впечатляет. Поглядите там заодно и фильм, в котором эти лица перетекают одно в другое: http://mtyka.github.io/machine/learning/2017/08/09/highres-gan-faces-followup.html

Комментировать тут нечего, картинки хорошо говорят сами за себя. Повторюсь: профессионально сделанные картинки будут продолжать делать профессионалы, но картинки уровня буквально чуть похуже сможет сделать любой школьник на своём даже не ноутбуке, а планшете или телефоне. Ему нужно будет только объяснить (голосом!) этому планшету то, что он на этой картинке хочет увидеть. Где-то к 2020 году это будет доступно всем и стоить дешевле грибов. Потерпите годика три, а пока сгенерируйте себе аниме-аватарку, пройдите по первой ссылке и нажмите кнопочку.

UPDATE: обсуждение в фейсбуке -- https://www.facebook.com/ailevenchuk/posts/10210981122938091
2019

Подрыв пошёл: начались продажи камеры Light L16

14 июля 2017 камера Light L16 начала отгружаться потребителям -- https://spot.light.co/welcome-to-the-world-l16/. Вот технология: https://light.co/technology, вот камера -- https://light.co/camera. 52+Мпикселя в размере 16.5*8.45*2.4см и весе 435г (сравним: у моего Xiaomi Redmi Note 4 телефона 15.1*7.6*0.83см и 175г), никаких торчащих за этими размерами объективов (при приведённом фокусном расстоянии 28-150мм), ISO до 3200, видео 4K, регулируемая глубина резкости.

У меня в презентации семинара по будущему один из примеров цепочки подрыва (disrupt) рынков из фотографии: плёночные камеры были подорваны цифровыми (сначала ужасными по качеству), а цифровые камеры были подорваны телефонами (сначала ужасными по качеству). Оставалось сделать заключительный штрих: чтобы маленькая телефонная камера (т.е. в габаритах телефона, без огромного торчащего объектива, который сегодня побольше камеры) делала снимки лучше, чем традиционная огромная цифровая зеркалка с не менее огромным объективом к ней. Именно такой аппарат и начал отгружаться потребителям 14 июля.

Вот это инженерия, вот это я понимаю.

UPDATE: почитал комменты. Похоже, мало кто понял принципы работы этой камеры. Но это ничего, ещё будет у всех время разобраться. Почему зерно у цифровой камеры не хуже, чем у плёночной, тоже долго никто не понимал. И что обычные телефоны с двумя камерами с разным фокусным расстоянием уже есть, а тут камер 16 штук в одном корпусе, и это родственные решения -- вот это не отслежено. И что фишка в том, что длиннофокусник упихнули в такой корпус, это тоже незамечено. Невнимательные читатели, что тут скажешь.
2019

lytdybr

К такси в аэропорт пришлось идти пешком аж на садовое кольцо -- и это в шесть утра! Репетиция парада. Всё пытался вспомнить, чем отличается первобытный культ предков от его современных разновидностей. Мне кажется, что масштабом: в современности культ гораздо организованней, чем в доисторических обществах. В остальном не сильно поменялось. Дикое количество КАМАЗов, перекрывающих ленинградку аж на третьем кольце в порядке подготовки к ритуалам -- это сильное зрелище.

В самолётах совсем другая атмосфера, нежели буквально пяток лет назад: в каждом кресле дисплей с приличной фильмотекой, и народ в четырёх состояниях:
-- смотрит фильмы каждый свой, с затычками в ушах
-- работает на ноутбуках (обычно тоже с затычками в ушах), реже -- читает (опять-таки, с затычками)
-- спит
-- в перерывах между всем этим кушает
И всё, никаких разговоров между пассажирами -- с людьми в вышеописанных состояниях не поразговариваешь. Все сами по себе, тотальное отчуждение всех ото всех.

По прилёту купил переходник на американскую розетку (тут они простейшие стоят по $22 прямо в гостинице, но в супермаркете я видел и по $35, и по $39). Сам виноват: вспомнил про необходимость переходника практически на выезде, в шесть утра.

В Сан-Хосе хорошо, солнышко и тепло. Вот он я, уже на месте (и не спрашивайте, каким именно образом фотоаппарат в режиме селфи вдруг переворачивает фото -- это мне неведомо, а разворачивать назад мне лень update: перевернул, спасибо al_kur):
IMG_20170507_173257[1]

Гугль подсказывает, что я нахожусь в местной кафешке и показывает меню этой кафешки. Моим собеседникам он тоже это показывает. Большой Брат нервно кусает локти в сторонке. Хотя о чём это я! Какая там сторонка!

В программе самой конференции http://www.gputechconf.com/ дикая эклектика, ибо речь идёт о самых разных технологиях, опирающихся на вполне понятную платформу ускорения вычислений. Про это нужно говорить как про "платформенное дерево", "сад расходящихся технологических стеков". Всё это кипит и создаётся прямо на моих изумлённых глазах. Но думать об этом буду потом. В Москве уже 10 утра, а я ведь ещё и не ложился -- по местному времени всего только полночь. Ну, или аж полночь, ещё не разобрался.