Category: техника

2019

Big Neuro: триллионы транзисторов на чипе, квинтильоны и квадрильоны операций в секунду

Буквально за несколько лет мы пришли в мир Big Neuro -- в коннективистских архитектурах, то есть "нейросетях" счёт переходит с миллиардов/гига на триллионы/тера и даже квадриллионы/пета, а пока изредка и квинтиллионы/экза (короткая шкала -- https://ru.wikipedia.org/wiki/Системы_наименования_чисел).

Самый большой чип ускорителя для нейросетей -- это 1.2триллиона транзисторов на 42тыс.мм2, Cerebras Wafer Scale Engine компании Cerebras Systems, изготавливаемый на фабриках TSMC -- https://venturebeat.com/2019/08/19/cerebras-systems-unveils-a-record-1-2-trillion-transistor-chip-for-ai/, https://www.forbes.com/sites/tiriasresearch/2019/08/20/ai-start-up-cerebras-develops-the-most-powerful-processor-in-the-world/#26b4e5a86592. Это в 57 раз больше, чем чип V100 фирмы NVIDIA с 21млрд.транзисторов на 0.8тыс.мм2. Скорость обмена данных с памятью -- 9петабайт/сек, ещё одно Big. The energy cost of communication in this architecture is well under 1 picojoule per bit, which is nearly two orders of magnitude lower than in graphics processing units. В компании Cerebras Systems работает всего 194 человека (хотя мы и не знаем, сколько у них разработчиков было в подрядчиках, тем не менее -- это ли не восхитительно?!).

Конечно, это не сравнится с суперкомпьютером. Так, Summit (запущен в эксплуатацию год назад -- https://blogs.nvidia.com/blog/2018/06/08/worlds-fastest-exascale-ai-supercomputer-summit/) имеет 27648 NVIDIA V100 и 200петафлопс (умножений плавающей) и 3exaops, экза/квинтиллионов операций умножения-сложения целых в секунду -- это помньжьте "пета" ещё на тысячу, миллиард миллиардов. At 200 petaflops — If everyone on Earth did 1 calculation/second, it would take 1 year to do what Summit does in 1 second. At 3 exaops of AI — If everyone on Earth did 1 calculation/second, it would take 15 years to do what Summit can do in 1 second. А сколько занимает места этот Summit? Два теннисных поля! Следующий за V100 чип для текущего нейро-поколения AI -- это Huawei Ascend 910, который имеет удвоенную производительность (закон Мура продолжается для GPU!), но это всего вдвое, 0.25PFLOPS, 0.5PTOPS, по факту того же класса чип -- https://medium.com/syncedreview/huaweis-first-commercial-ai-chip-doubles-the-training-performance-of-nvidia-s-flagship-gpu-86e4d0078f6f

Cerebras Wafer Scale Engine это всего один чип, хотя и потребляет он 15Квт на свои 400тыс. AI вычислительных ядер -- примерно столько же, сколько потребляло бы эквивалентное количество одиночных чипов. Чудес-то не бывает, вычисления требуют энергии.

Самая скандальная языковая модель (модель языка в нейросети) была скандальна ровно потому, что она оказалось достаточно большой, чтобы произвести нетривиальные результаты -- это GPT-2 от OpenAI, которую даже отказались публиковать из-за боязни злоупотреблений в использовании. В ней было 1.5B параметров, 0.0015P. Только что опубликовали сокращённую вдвое модель -- https://venturebeat.com/2019/08/20/openai-releases-curtailed-version-of-gpt-2-language-model/. Но десятые триллиона уже никого не останавливают, только что опубликовали независимо реализованную языковую модель такого же масштаба с практически такими же результатами: https://medium.com/@vanya_cohen/opengpt-2-we-replicated-gpt-2-because-you-can-too-45e34e6d36dc. Потолок цены тренировки такой модели -- $50К, и есть много возможностей снизить цену -- основная цена это те самые чипы и электроэнергия на их работу, сколько на их охлаждение.

И этих чипов нужно много. Чтобы обучить языковую модель BERT всего за 53 минуты потребовалось 1472 GPU V100, это 92 компьютера DGX-2H ценой $399тыс., то есть там только аппаратуры для этого почти часового счёта на почти $40млн, https://devblogs.nvidia.com/training-bert-with-gpus/). И это не самая большая модель! В работе по этой же ссылке https://devblogs.nvidia.com/training-bert-with-gpus/ указывается, что была натренирована модель GPT-2 на 0.0083 триллиона параметров, при этом достигли 15.1 PetaFLOPS sustained performance!

Конечно, речь не идёт о том, чтобы заниматься сетями на 1 триллион параметров. Но если речь идёт о какой-то модульной конструкции из сотни (возможно, совсем неодинаковых) сетей (и, возможно, совсем не сетей) на 0.01 триллион параметров каждая -- то вот такая когнитивная архитектура явно сможет много больше, чем текущие даже самые большие сетки.

При этом сами сетки тоже становятся лучше. Полно работ, которые снижают время обучения и число параметров вдвое-втрое-вдесятеро без ухудшения качества работы сети. Но пока -- чем больше сетка, тем чудесатей результаты. Даже сильно ужатая сетка огромна и требует огромного времени обучения. И это невозможно достичь без выхода на Big Neuro.

А дальше Big Neuro сочтут маркетинговым термином, под которым будут понимать что угодно. Очень скоро будут обсуждать, как и с Big Data, что дело не в размере, а volume, veloсity, veracity, variety, value, variability (https://www.researchgate.net/figure/Six-Vs-of-big-data-value-volume-velocity-variety-veracity-and-variability-which_fig15_280124446) и ещё больше каких-нибудь V. И все формулировки можно будет брать из BigData, и все маркетинговые слоганы.

Но технологически это новый чудесатый мир, где если недостаточно мозгов, то просто добавь транзисторов. А если достаточно мозгов, то тоже добавь транзисторов.

Следующая история, конечно, про симуляторы мира. Чтобы обучить нейросетку, нужно построить виртуальный мир -- и обучать дальше сетку в этом мире, ибо в виртуальном мире эволюция идёт быстрей, чем в реальном мире. Нужно много-много симуляторов. Следующая большая история -- это логические вычислители, которым тоже хочется аппаратной поддержки (вот примеры работ, которые пытаются ускориться на текущих архитектурах вычислений -- https://arxiv.org/abs/1810.06617 и https://www.cyc.com/wp-content/uploads/2015/04/AAAI-SharmaA.1646.pdf, и такого много. Вполне возможно, что тут как с нейронными сетями поможет задействование аппаратного ускорения для получения нетривиальных результатов). Понятно, что будут попытки "повторить мозг" -- перенести логические вычисления в нейронные сетки (neural logic machines -- https://arxiv.org/abs/1904.11694, embedding of knowledge graphs -- https://arxiv.org/abs/1908.07141 и т.п.), равно как моделировать физику не уравнениями, а прямо нейронной сеткой -- https://ai.facebook.com/blog/phyre-a-new-ai-benchmark-for-physical-reasoning/. Смогут ли текущие ускорители AI на нейросетках сработать для этих же задач так же качественно, как могли бы сработать специализированные компьютерные архитектуры?

Ответ прост: нет, не смогут. Алгоритмы там везде разные, поэтому работает теорема бесплатного обеда: тот вычислитель, который хорош для одних задач, будет ужасен для других задач. Так что нейровычислитель будет хорош только "в среднем по больнице". И мы увидим в ближайший десяток лет ещё много разного и чудесатого -- и аналоговые спецвычислители, и универсальные цифровые архитектуры (для препроцессинга и постпроцессинга видео, физических вычислений, логических вычислений, вероятностных вычислений, а также и для вычислений в deep learning). Жизнь уже интересна, счёт транзисторов пошёл на триллионы -- и спецвычислитель BigNeuro на триллион транзисторов может сделать команда из меньше чем 200 человек.

А пока болеем не за динамо и спартак, а за участников этого чемпионата искусственных мозгов -- aNLI, https://leaderboard.allenai.org/anli/submissions/about. Это продолжатели дела CYC, они хотят закодировать common sence, здравый смысл. И сделали на эту тему соревнование. Рассказ про abductive commonsence reasoning -- https://arxiv.org/abs/1908.05739. У людей в этом соревновании 92.9% правильных ответов. У нейросетки BERT Large Finetuning -- 66.75%. У CYC (там ведь как раз цель соревнований была дизайн-целью) -- неизвестно, у IBM Watson (это ж победитель "Jeopardy!", по сути это ж то же самое) -- неизвестно. Но там много-много лет ручного кодирования знаний, а BERT тренируется, как мы знаем, за 53 минуты (грубо говоря, читает за это время в себя если не всю Библиотеку Конгресса, то сравнимый объём текста). А ещё было бы забавно увидеть соревнующимися там не только нейросетки и логические вычислители, но и людей. Скажем, команда победителей что-где-когда сколько бы решила в этом соревновании? Не смогла ли выдать больше ли 92%? С другой стороны, и это соревнование тоже ни о чём: нобелевские лауреаты и крутые политики обычно не эрудиты, а эрудиты и другие победители викторин не так уж и заметны в других сферах жизни. Но мы всё равно болеем.

Но причём тут Big Neuro и решение задач, объявленных в этом соревновании по использованию здравого смысла в рассуждениях? Напомню тезис Rich Sutton (http://www.incompleteideas.net/IncIdeas/BitterLesson.html): прогресс в AI определяется доступной вычислительной мощностью при простых алгоритмах. Размер решает. Текущая самая большая нейросетка GPT-2 8B пока всего в 24 раза больше BERT, текущего победителя соревнования по объяснениям на основе здравого смысла. И хотя понятно, что с этой архитектурой существенно улучшить результат не удастся, то альтернативные более успешные архитектуры вряд ли будут с меньшим количеством вычислений. IBM Watson, победивший в Jeopardy! -- это прежде всего суперкомпьютер! Big Neuro таки решает, а если там пойдёт ещё и Big Simulation и Big Logic, которые сольются в какой-то момент в Big Evolution Multi-engine, то аж дух захватывает, что может получиться!

UPDATE: обсуждение в фейсбуке -- https://www.facebook.com/groups/nevronet/permalink/1406594802840170/

Краткое содержание поста:
-- есть no free lunch тезис, что разные алгоритмы для разных задач имеют разные оценки времени
-- Sutton говорит, что побеждают простые алгоритмы при масштабировании. Типа нейросеток, когда их посадили на нормальный "их" кремний.
-- есть ряд классов алгоритмов, которые могут помогать решать разные задачи с интеллектом. Логика, эволюция.
-- по идее, должна быть когнитивная архитектура, которая позволяет использовать такие алгоритмы, маршрутизируя им соотвествующие классы задач
-- не факт, что их все нужно выполнять на нейро-инфраструктуре.
-- это означает, что перспективно попробовать ускорители и для логики, и для физики, и для эволюции в конечном итоге (где потребуется интеграция всех ускорителей: эволюционировать-то должна будет когнитивная архитектура!).

А эволюция съест всю вычислительную мощь, которая доступна, и ещё потребует. Так что радуемся и имеем дело с Big Neuro и Big ВсёОстальное.
2019

Разнообразие в кизомбе: заметки с мастер-класса Ronie Saleh

Вчерашний мастер-класс Ronie Saleh был по факту про разнообразие в кизомбе, моя любимая тема. Он поднял традиционную в социальных танцах тему "развлечь девушку" и разнообразие как способ этого достичь. Многое из этого материала давалось мне на самых разных других тренингах, но тут всё было собрано в одном месте.

Были предложены контрасты:
-- ритм шагов быстро-медленно (в том числе очень хитрый закольцованный ритм раздватричетыре-пять-шесть-семь-и-восемь-и, хитрость его в том, что замедление не в конце восьмёрки, а в самом начале. Обычно наоброт: пробежка-замедлиться). Это традиционно, "все делают это" на занятиях по музыкальности, так или иначе.
-- топтаться на месте с акцентами -- бегать по залу -- крутые динамичные фишки. Это любит объяснять Худоногов.
-- супермаленькие шаги--большие шаги. Вот этого мне не хватало: поначалу меня ругали за слишком большие шаги, но я чётко видел на всяких роликах реально большие шаги и не очень понимал, за что ругают. Теперь понял: большие шаги можно делать, но нужно делать и маленькие шаги, танцевать на контрасте.
-- корпус мягкая "змея" -- жёсткий "робот" (но не промежуточное поднатянутое состояние). Про это лучше и детальней объясняет на своих занятиях Антон Климат, но "нет пророка в своём отечестве". Буду к этому ещё внимательней. Ну, и сам Ronie извивается волнами время от времени: это сильно отличает его танец от каменных бюстов героя других urban kiz или kizomba fusion преподавателей. Вот это он объяснил подробно, это чёткое внешнее отличие его стиля (или, вернее, многостилья). И я тоже буду так делать, хотя с моим заржавевшим позвоночником это трудно.
-- партнёрша далеко-близко (близко как в классической кизомбе: полный контакт). Тут Ronie Saleh честно сказал, что не признаёт деления по стилям, и танцует всё подряд. Это полностью соответствует моим ожиданиям. Он совсем не касался ведения корпусом или рамкой. Ведёт уж чем придётся, и это правильно. Ronie молодец, делай как Ronie.

Акценты-фишки:
-- вверх (прыжок) и вниз. Это тоже все делают, много преподавателей мне это объясняли.
-- толчок диафрагмой. Это мне подробно объясняла на занятиях Анна Мельникова, но Ronie задрал майку, показал как использовать, и стало ясно, что я недооцениваю эту фишку.
-- трясучка (диафрагмой или просто ногами, если диафрагмой не можешь). Видел неоднократно, считал, что это дабстеповская трясучка-паппинг, в голову не приходило самому так делать. Ronie объяснил, что ничего страшного, можно просто потрястись ногами.
-- прижать на секунду. Ага, вот так просто.
-- отпустить (для ответных реакций). Это объяснял Субачёв на своих занятиях, но Ronie показывал, как это делать именно для ответных реакций после фишек -- отпуская явно, на контрасте после жёсткого контроля.
-- повторение одного движения на разный ритм. Это его любимый приём, неоднократно замечал в роликах. Да я и сам так люблю )))
-- волна корпусом на мелизмы в песне
-- стоп на жёстком корпусе/перекос корпуса/подъём на одной ноге. Он стоял и дёргался в самых разных направлениях, самыми разными мышцами. Очень интересно, никогда не думал о таком разнообразии акцентов буквально "из ничего". Это, похоже, и есть его фирменный стиль: все эти движения мимо какой-либо традиции, чистый танец.
-- чача на музыкальный акцент.
-- прерывистое движение (cut-cut-cut) ногами или корпусом. Это мы подробно учили у Худоногова.

Повторюсь: ничего сложного, ни одного нового движения (кроме, может быть, трясучки диафрагмой, милостиво разрешённой к исполнению через трясучку ногами), но аккуратно всё собрано в одну трёхчасовую программу мастер-класса.

Вот демо с этого мастеркласса, Ronie танцует с Алёной Фортуновой. У них с Алёной удивительно подходящие друг ко другу стили -- это в основе своей urban, но очень мягкий, "с рюшечками" (https://vk.com/video64657980_456239156):
2019

Генератор аниме-аватарок на нейронных сетях

Сгенерируйте себе аниме-аватарку -- http://make.girls.moe/#/, при этом глубокая нейронная сеть для генерации будет работать прямо на вашем компьютере, и генерация занимает буквально несколько секунд даже на ноутбуке (короткое описание того, как это сделано -- https://makegirlsmoe.github.io/main/2017/08/14/news-english.html, технические подробности -- https://makegirlsmoe.github.io/assets/pdf/technical_report.pdf).

Вот образцы компьютерного творчества:

А вот тут сгенерированные пейзажи 128*128: https://raw.githubusercontent.com/robbiebarrat/art-DCGAN/master/images/landscapenet_waifu2x.png (это из другой работы -- https://github.com/robbiebarrat/art-DCGAN). Это не векторная графика, так что пока страшненько, тем не менее, прогресс и тут налицо.

Ах да, ещё генерируют лица высокого разрешения, там ещё более страшненько -- но если подумать, что это всё именно что компьютерные фантазии, и компьютеру никто не объяснял, какие пиксели где рисовать, и что в лице бывают рот, нос и два глаза, и какие там обычно расстояния, то результат тоже впечатляет. Поглядите там заодно и фильм, в котором эти лица перетекают одно в другое: http://mtyka.github.io/machine/learning/2017/08/09/highres-gan-faces-followup.html

Комментировать тут нечего, картинки хорошо говорят сами за себя. Повторюсь: профессионально сделанные картинки будут продолжать делать профессионалы, но картинки уровня буквально чуть похуже сможет сделать любой школьник на своём даже не ноутбуке, а планшете или телефоне. Ему нужно будет только объяснить (голосом!) этому планшету то, что он на этой картинке хочет увидеть. Где-то к 2020 году это будет доступно всем и стоить дешевле грибов. Потерпите годика три, а пока сгенерируйте себе аниме-аватарку, пройдите по первой ссылке и нажмите кнопочку.

UPDATE: обсуждение в фейсбуке -- https://www.facebook.com/ailevenchuk/posts/10210981122938091
2019

Подрыв пошёл: начались продажи камеры Light L16

14 июля 2017 камера Light L16 начала отгружаться потребителям -- https://spot.light.co/welcome-to-the-world-l16/. Вот технология: https://light.co/technology, вот камера -- https://light.co/camera. 52+Мпикселя в размере 16.5*8.45*2.4см и весе 435г (сравним: у моего Xiaomi Redmi Note 4 телефона 15.1*7.6*0.83см и 175г), никаких торчащих за этими размерами объективов (при приведённом фокусном расстоянии 28-150мм), ISO до 3200, видео 4K, регулируемая глубина резкости.

У меня в презентации семинара по будущему один из примеров цепочки подрыва (disrupt) рынков из фотографии: плёночные камеры были подорваны цифровыми (сначала ужасными по качеству), а цифровые камеры были подорваны телефонами (сначала ужасными по качеству). Оставалось сделать заключительный штрих: чтобы маленькая телефонная камера (т.е. в габаритах телефона, без огромного торчащего объектива, который сегодня побольше камеры) делала снимки лучше, чем традиционная огромная цифровая зеркалка с не менее огромным объективом к ней. Именно такой аппарат и начал отгружаться потребителям 14 июля.

Вот это инженерия, вот это я понимаю.

UPDATE: почитал комменты. Похоже, мало кто понял принципы работы этой камеры. Но это ничего, ещё будет у всех время разобраться. Почему зерно у цифровой камеры не хуже, чем у плёночной, тоже долго никто не понимал. И что обычные телефоны с двумя камерами с разным фокусным расстоянием уже есть, а тут камер 16 штук в одном корпусе, и это родственные решения -- вот это не отслежено. И что фишка в том, что длиннофокусник упихнули в такой корпус, это тоже незамечено. Невнимательные читатели, что тут скажешь.
2019

Функции компонент и сервисы модулей

Не нужно путать функцию (поведение компоненты) и сервис (поведение модуля).

Функция -- это внешнее поведение компоненты в её операционном окружении. Функции обсуждают во время работы целевой системы, компоненты взаимосвязаны в своих функциях, чем и обеспечивают эмерджентность -- появление функции, отсутствующей у её взаимосвязанных компонент.

Сервис -- это законтрактованное (т.е. определённое во время разработки и выбора модулей, во время интеграции системы из модулей) внешнее поведение модуля в его операционном окружении, проявляющееся через интерфейс этого модуля. Сервисы по возможности стандартны (open architecture, их интерфейсы не проектируются специально, а определяются опубликованными стандартами).

Сервисы (реальное поведение модулей на их интерфейсах) используются инженерами для того, чтобы реализовать функции (логическое поведение компонент на их связях). Можно сказать, что сервисы (реализуемые модулями) назначаются инженерами на функции (реализуемые компонентами). Модульный синтез по факту является сервисным синтезом -- интересует синтез не только системы-продукта/вещи, но и сервисов, которые на выходе дадут ожидаемое от системы поведение, синтез системы-функции/сервиса/поведения.

Помним, что на границе целевой системы компоненты и модули обычно совпадают. И вообще, в большинстве случаев их соответствие 1:1, но это не всегда так. Стремятся обычно, чтобы множество функций выполнялось одним модулем, множество функций было скрыто за одним интерфейсом.

Так, в компрессоре вентильный двигатель реализован в виде магнитов, прикреплённых к ротору (это часть "роторной сборки", наряду с лопатками колеса турбинки) и каких-то обмоток на корпусе (это часть "корпусной сборки"), плюс внешняя коробочка управляющей и силовой электроники как часть той же "корпусной сборки". Нет модуля двигателя, но есть его функция. Сервис же есть от компрессора в целом, он определяется главным образом поставщиком компрессора. Функция же компрессора в момент поставки неизвестна -- она определяется использующим его в своих проектах инженером по отношению к его системному окружению.

Это разъяснение для тех, кто знаком с моим курсом системного мышления -- все эти слова (компоненты и их связи, модули и их интерфейсы, операционное окружение и эмерджентность) термины, их определения можно посмотреть в учебнике http://techinvestlab.ru/systems_engineering_thinking/. И помнить при этом, что речь идёт не столько о словах-терминах, сколько об их значениях, мы за сами выбранные слова не держимся (в учебнике Косякова, например, наша "компонента" -- это "функциональный элемент", а наш "модуль" -- "компонента").

UPDATE: дискуссия в https://vk.com/wall2449939_1214
2019

lytdybr

Отрок сегодня утром гипнотизировал многочлен, пытаясь разложить его на множители в уме. Через десять минут такой медитации жена на него орала, и орала сильно, ибо икс там был в пятой степени, и для "в уме" был явно великоват -- можно было медитировать и два часа, всё было бы бестолку. Это у нас традиционная семейная практика "принуждение к использованию экзокортекса", т.е. принуждение к выкладкам на бумаге, в том числе и для записи успешного решения "в уме" (ужас ещё и в том, что время от времени он таки что-то сложное решает в уме, хотя это больше исключение, чем правило).

Второй утренний ор был по поводу рациональных дробей в физике. Алексей Бульбич писал буквально два дня назад (https://www.facebook.com/dmitry.smolyak/posts/1085323924888394) "У моего сына в 8-м классе реальной школы (самый запад западной Германии) год начался с арифметики числовых дробей. У меня аж зубы сводит: сколько же лет надо мусолить эту ненужную фигню". Наш отрок не имел никаких трудностей с дробями, и не мусолил их. Тем не менее, у него на них залипание. Он регулярно даёт ответ 10/3 км/ч в физической задачке (ибо там же никаких иксов нет! десять третьих -- это ж число, законный ответ!). Когда ему указываешь, что так нехорошо -- он поправляется: 3 1/3. Заставить его писать в физике десятичные 3.3 (или, если уж такой пуританин, показывать три в периоде) невозможно, и это "невозможно" продолжается второй год -- разницу между физикой и математикой он не хочет понимать принципиально, он действует в физике всегда как математик (и думает как математик, и перешибить это пока невозможно).

А ещё он сегодня вспомнил про Kerbal Space Program -- https://kerbalspaceprogram.com/, которая была на старом компьютере. Я ему установил новую версию и взял обещание, что он таки долетит до Луны (прошлые развлечения у него закончились только выходом на орбиту). Надеюсь, он на этом космическом тренажёре научится уверенно различать вес и массу -- до сих пор ведь путает, это ж для него чистая абстракция "из задач"!

Сам я по части игрушек долго смотрел сегодня на Intel Joule 570x и пускал слюну -- https://software.intel.com/en-us/iot/hardware/joule. Почему-то очень хочется такое попрограммировать, абсолютно неважно, что именно -- это для меня точно попало в разряд "интересная игрушка". Вот Raspberry Pi почему-то никогда не хотелось, а вот это чудо природы хочется, моё радиолюбительское детство прямо таки выпрыгивает наружу при виде этого девайса.Рекомендованная цена $369 (ага, вдесятеро больше, чем у Raspberry Pi) и за эту дикую цену абсолютно полноценный компьютер на 14нм проектных нормах четырёхядерный Atom на 1.7GHz, с кучей портов и полноценным Linux внутри (или ROS -- это ведь и для роботов тоже предназначено), память 4Gb и ещё диск 16Gb, да монитор подключаем туда 4K, ибо там и графика интеловская на борту -- и всё это в 24*48*3мм, то есть вот такое:

Интересно, что нигде не приводятся цифры по энергопотреблению модуля.
Конечно, покупать нужно не только модуль, но и плату со всеми нужными разъёмами (SDK), вот шесть разных вариантов -- https://store.gumstix.com/expansion/partners-3rd-party.html?cat=45 (и размеры плат, конечно, побольше, чем голого модуля). И пока это всё без нейронных сетей. Я думаю, что нейронные сети для этого формата появятся где-то через год, над этой аппаратурой сейчас интенсивно работают самые разные фирмы.

Заодно наткнулся на тред про сравнению Julia и Mathematica (помним, что Wolfram Language работает и на Raspberry Pi) -- этот тред начался пару лет назад, но пару дней назад продолжился: https://groups.google.com/forum/#!topic/julia-users/EQH5LJZqe8k
Julia язык, конечно, не для слабонервных. Впрочем, как и любой другой современный язык. В версии 0.5 там уже третий релиз-кандидат.

Увы, это всё вещи, до которых я вряд ли доберусь поработать руками. Нельзя объять необъятное. Но само их существование на планете почему-то сильно радует.

minski_gaon троллит математиков, физиков, инженеров, информатиков с позиции логиков -- http://minski-gaon.livejournal.com/99986.html. В его шутке, конечно, есть доля шутки. Конечно, он философских логиков и онтологов тоже называет "логиками", ибо его "логика" всеохватна и не знает границ. У меня самого более подробно заняться логикой в планах (скажем, она есть в списке beyond STEM http://ailev.livejournal.com/1283663.html), но пока это тоже из серии "нельзя объять необъятное". А пока я "методолог" -- таких зверей в "людях с техническими мозгами" у логиков вообще не предусмотрено.

UPDATE: в фейсбуке комменты тут -- https://www.facebook.com/ailevenchuk/posts/10207968186216556
2019

Архимейт 3.0, теперь со стратегией и физикой

Cмотреть новую спецификацию (формально вышла позавчера) ArchiMate 3.0 вот тут: http://pubs.opengroup.org/architecture/archimate3-doc/

Авторский коммент "что там нового": http://blog.bizzdesign.com/archimate-3.0-the-next-step-in-the-evolution-of-the-standard, формальный список изменений -- http://pubs.opengroup.org/architecture/archimate3-doc/apdxe.html#_Toc451758153 (в частности, отношение used_by изменено на serving, к motivation elements добавлен outcome, infrastructure переименовали в technology и т.д.).

Из главных новинок -- выполнение стратегии (элементы resource, capability и course of action -- используется в связке с motivation elements) и физический слой для IoT и Industrie 4.0. (то есть стандарт из кибер стал киберфизическим -- элементы equipment, facility, material, distribution network -- и communication path стал просто path, чтобы включить сюда и физику).

Конечно, много ещё не столь инновационной полировки напильником по тексту. Хотя добавленный механизм кастомизации нельзя сказать, что "мелкое дополнение". Факт-ориентированность Архимейта закончилась, можно добавлять атрибуты. Специализировать элементы можно было и раньше, но появились в количестве informative примеры этой специализации (типа business collaboration может быть специализирована до social network -- A social structure made up of social actors (individuals or organizations) and the connections between these actors. Пример специализаций Course of Action как раз Strategy и Tactic). И появились "профили", что по факту означает возможность препрограммирования в моделерах каких-то специализированных для тех или иных применений версий языка на базе предопределённых наборов специализированных элементов языка с их атрибутами.

Редакторы для всех этих новаций пока платные, Archi будет попозднее (разработчик ищет денег на разработку апгрейда -- http://forum.archimatetool.com/index.php?topic=229.0, "If funding is successful we are aiming for around October/November 2016").

Одновременно иметь стратегию и (кибер)физику в ArchiMate -- это очень сильный ход. Понятно, что версию 3.1 с корретировкой ошибок нужно ждать очень скоро (ибо наверняка там противоречий при добавлении физики осталось предостаточно), но и текущий вариант вдохновляет и открывает новые горизонты.
* * *
Мои посты по русификации Архимейта (версии 2.1) по ссылкам тут: http://ailev.livejournal.com/988360.html
2019

Мой экзокортекс, наконец, переехал на новый носитель!

Я, наконец, вчера вечером запустил свой новый ноутбук (XPS 13 модели 9350 -- http://ailev.livejournal.com/1242520.html) в прежней конфигурации -- на три экрана внешних плюс четвёртый ноутбука. Ничего не изменилось по сравнению с тем, как я работал на старом ноутбуке, но я всё равно радуюсь. Вы как-нибудь попробуйте поработать не с 4К на маленьком экране, а с 4К с нормальным пиксельным шагом -- сами удивитесь, как вырастет ваша производительность. Головой вертеть всё-таки проще, чем окошками моргать на одном экране. Подробности текущего подключения см. в профильном чатике владельцев XPS 13 http://forum.ixbt.com/topic.cgi?id=17:52118-42#1323

Хотя чуть-чуть лучше всё-таки стало:
-- матрица нового ноутбука лучше
-- RF приёмник мышки я воткнул в док-станцию (и перестал носить её с собой), а ещё туда же воткнул наушники и домашнюю клавиатуру. Итого в ноутбук втыкается теперь дома только питание и USB кабель на док-станцию. Есть док-станция сразу с питанием, но она на $200 дороже моей, и её еще в Москве нет -- она неделю назад только выпущена была.
-- один из дисплеев в старой конфигурации втыкался по VGA (других портов не было), а теперь по DVI, так что изображение стало получше.
-- не знаю, за счёт чего, но работает всё как-то быстрее, меньше тормозит (думаю, это более быстрый SSD сказывается).
-- в походе новый ноутбук удобней за счёт того, что на 3см короче и его легче доставать из сумки и укладывать туда. А ещё я не беру с собой адаптер питания, ибо батарейка там тянет где-то девять часов -- и этого заведомо хватает на день.

Но моей крови, нервов и некоторое количество денег на разные ненужные в итоге адаптеры для USB-C этот новый ноутбук попил за месяц достаточно. Можно считать это платой за курсы повышения квалификации, я много чего узнал за этот месяц.

Дальше можно продолжать эксперименты с подключением экрана 2560*1600 на нормальном пиксельном шаге, в портрете. Пока меня постигла в этом неудача, но есть у меня подозрение, что проблема в noname кабеле DP-DVI (он может быть распаян не как dual-DVI, хотя внешне и выглядит как dual). Это не срочно, но заняться нужно: для работы с моделерами (Archi тут как пример) один экран 2К более удобен, чем набор из нескольких на 1К каждый.

А ещё нужно уговорить себя не расслабляться, а таки наладить нормальный бэкап (тьфу-тьфу-тьфу, чтобы до этого момента ничего страшного не произошло!).
2019

Dell XPS 13 2015 -- висит груша, пока нельзя скушать

Админский бубен стучал в эти дни у меня без устали. Как я писал позавчера, подключение всех трёх внешних экранов на VAIO Z23 у меня приводило к зависанию. Постучал докстанцией по столу -- прошло. Утром началось опять. Итого: ноутбук с одним внешним FullHD экраном, а этого мне для работы маловато. Писать в ЖЖ ещё сойдёт, но вот презентации готовить уже неудобно -- по моей технологии слишком много окон задействовано на всех трёх экранах (обычно на одном экране я работаю со слайдами, на другом у меня открыт .pdf ридер с десятком книжек и статей, а на третьем экране браузер с полусотней нужных для дела табов. Экран самого ноутбука я почти не использую: глазки устают, и стоит этот ноутбук неудобно сбоку).

И тогда я купил машинку, на которую дружно показывали пальцем все владельцы VAIO Z23 как "достойную замену" -- это Dell XPS 13 2015, модель 9350-8293 (с FullHD матовым экраном без тачскрина) -- http://www.mvideo.ru/products/noutbuk-dell-xps-13-9350-8293-30024146#specification. Вес такой же, экран такой же (хотя на глаз чуть поприятнее), скорость такая же, память такая же, SSD такой же -- за четыре года ноутбукостроение недалеко ушло. Отличия в плюс:
-- примерно на три см короче по длине, на пару мм тоньше (при той же ширине). И блок питания поменьше.
-- заявлена поддержка внешних 2 экранов 4K или 3 FullHD. То, что мне нужно.
-- USB 3.0 портов два (а в прошлой машинке был только один).

Минусы:
-- дискретной графики нет совсем (в Z23 она была в докстанции), но я в игры не играю
-- нет портов VGA и HDMI (на Z23 были оба!), вместо них предложено пользовать USB Type C Thunderbolt 3.
-- нужно обживать машинку с нуля, но это разовая трата.

По долларам машинка стала вдвое дешевле, чем была VAIO Z23, но из-за выполнения всех блистательных планов Президента РФ и его команды по рублям она обошлась в примерно ту же сумму.

Реалии жизни: USB Type C оказался просто форм-фактором разъема. По нему может быть электроника Thunderbolt, DisplayPort, USB 3.1, и я встретил даже "просто питание" (для макбуков). Запутаться легко. Более того, на Савёловском рынке практически нет к нему переходников-адаптеров-кабелей для дисплеев, есть только переходники на USB и питание. Более того, каждый кабелёчек и переходничок там считается произведением электронного искусства, и какой-нибудь адаптер от Apple на HDMI+USB+USB-C-питание стоит аж 6500 рублей (это по дешёвке, ибо в re:Store за него просят уже 9тыс. -- и вообще, цены меняются сейчас ежедневно, сами понимаете). Была ложная идея, что этот адаптер каскадируется через USB-C. Нет, не каскадируется, в этом порту у него кроме питания ничего нет, проверено. Более того, через тамошнее HDMI не подключаются даже мониторы 2560*1600. И любые адапторы на этот формат стоят от 3тыс. рублей, поэтому ими предпочитают не торговать. Кабелёчки и переходнички превратились в существенную часть стоимости компьютера (с учётом всяческих скидок и бонусов компьютер в М-Видео обошёлся где-то в 90тыс. рублей, так что один трёхпортовый адаптер встаёт в 10% от стоимости компьютера, однопортовый в 5%). То есть бизнес модель меняется на "патефон и пластинки": единственный тип порта у ноутбуков будет этот самый USB Type C, универсальный и суперскоростной. Но вот дальше с вас снимут за подключение всей остальной периферии ещё одну стоимость ноутбука, а то и больше.

Итого: у меня сейчас два ноутбука один уже с одним внешним экраном, другой на неопределённое время ещё с одним внешним экраном. Форум владельцев XPS 13 2015 полон печали и ожиданий. Dell должен выпустить 28 января 2016 года док-станцию для этого компьютера (http://www.tomsitpro.com/articles/dell-type-c-thunderbolt-docking-stations,1-3094.html), там всё с дисплеями должно стать хорошо. Но когда эту станцию можно будет купить в России -- это тайна, покрытая мраком.

Ну, и можно купить один 4К дисплей с почти нормальным пиксельным шагом, чтобы не мучиться со многими дисплеями (http://4k.com/monitor/a-review-of-the-philips-brilliance-bdm4065uc-4k-40-inch-monitor/). Это ещё по нынешним ценам 60тыс. рублей (хотя уже не факт -- курс-то ежедневно меняется не в лучшую сторону!). Но есть 16 причин, по которым этого пока не хочу делать:
-- нет пороха (то есть я пока не нашёл переходник или адаптер или любое другое решение USB-Type-C на DisplayPort. Это всё нужно выписывать из Китая или Тайваня или ещё откуда-то, и не факт, что будет работать).
-- я как-то приспособился к трёхэкранной работе, и экраны стоят у меня по крутой дуге (я-то к ним близко сижу, не кино смотрю). Как оно будет с одним большим глянцевым дисплеем, который ещё и не нельзя покрутить-наклонить, я не знаю.
-- да и просто выкидывать уже имеющиеся дисплеи жалко, они ещё в моих глазах недостаточно морально устарели.

Переползать ли со старого обжитого (но с грозными подземными стуками и в любой момент готового развалиться) ноутбука на новый, или подождать ещё немного -- не знаю, ибо в обрезанной на пару экранов жизни мало что поменяется.

Так что -- висит груша, пока нельзя скушать. Будущее уже здесь, только из-за его неравномерной распределённости толку с него нет.

UPDATE: вот тут больше подробностей про мои приключения и эксперименты -- http://forum.ixbt.com/topic.cgi?id=17:52118-38#1198
2019

lytdybr

В воскресенье пришлось проапгрейдить семейный компьютер: там сдох пятилетней давности SSD с операционкой. Теперь у меня дома первая Windows 10 появилась, но я особых отличий от Windows 7 там не заметил. Отрок убивается по пропавшим играм и их результатам по бессмертной схеме "Всё, что нажил непосильным трудом, всё же погибло! Три магнитофона, три кинокамеры заграничных, три портсигара отечественных, куртка замшевая… три куртки… И они ещё борются за почётное звание дома высокой культуры быта, а?" (https://youtu.be/1rxrwdSriBA).

Но ему в утешение перепала при этом апгрейде игровая мышь, ибо старую он довёл до состояния отваливания частей корпуса. Оказалось, что современная игровая мышь bloody RT7 warrior умеет исполнять кликовые макросы, которые грузятся прямо в память мыши. Дальше мышь отрабатывает эти макросы сама без специальных драйверов, и это вроде как "читить" в играх не называется. Я случайно включил там режим пулемёта, и долго удивлялся, почему мышь при одном нажатии вдруг выдаёт целую серию кликов. А это оказалась, не бага, а крутейшая фича -- впрочем, совершенно бесполезная. Смена старинной GeForce GTX 8800 на свежую 960 тоже оказалась нечувствительна, у нас требовательных к видео игр отродясь не бывало. Итого: потеряно ой-ой сколько времени на манипуляции с админским бубном в попытках восстановить хоть что-нибудь, но существенно к лучшему в жизни ничегошеньки не изменилось.

И тут же начала глючить графическая докстанция для моего VAIO ноутбука. Временное лечение помогло: выбивание из неё пыли и постукивание всеми углами об стол. Но вряд ли этого лечения надолго хватит. Тем более в ноутбуке SSD, и он наверняка уже тоже на ладан дышит, просто от старости. Исследование рынка показало, что ближайший интересный ноутбук это Dell XPS 13 9350-8293, который в Москве сейчас есть по 99900руб. во множестве мест (дискуссия о нём на последних страницах тут: http://forum.ixbt.com/topic.cgi?id=17:52118). А всё более интересное и новое (от трансформера ThinkPad X1 Yoga до удивительной машинки Razer Blade Stealth с полноценной графической картой в доке) отсутствует как класс и непонятно когда и по каким ценам будет.

Заодно поглядел, какие сейчас бывают 4К дисплеи. Из нормальных пиксельных шагов есть только 40" BDM4065UC, http://4k.com/monitor/a-review-of-the-philips-brilliance-bdm4065uc-4k-40-inch-monitor/, в Москве он сейчас где-то по 56000руб. (хотя во времена скачков доллара цены на вебсайте и реальные цены могут отличаться разительно).

И вдруг осознал, что фотографией я как-то перестал интересоваться. И все остальные в семье тоже Даже домашнюю ёлочку никому в голову не пришло сфотографировать, пока она не осыпалась -- а там уж поздно было. А ведь есть любопытные модели, типа Sony Cyber-shot DSC-RX100 IV (http://www.dpreview.com/products/sony/compacts/sony_dscrx100m4). Раньше я бы точно не смог бы пройти мимо такого. А сейчас смотрю, и никакого придыхания.

Пообсуждал немножко "целостность системы" в фейсбуке: https://www.facebook.com/elashkina/posts/1085280574827103, там хорошая подборка комментов -- показывает разнообразие взглядов на этот вопрос. Я знаю, что в политике, футболе и воспитании детей разбираются все. Нужно обязательно вставлять в этот список "систему", в системном подходе ведь тоже все разбираются.

Довольно много народу меня сегодня пытались поздравить с праздником. С трудом разобрался, с каким именно: Крещение. Моя точка зрения на это дело совпадает с кратко изложенной в https://youtu.be/q9RpiLSUNi0 (осторожно, там не слишком нормативная лексика. Но суть дела изложена вполне убедительно). Парной ссылкой к ней должна идти, например, http://hi-news.ru/research-development/padenie-religioznosti-ne-oznachaet-padenie-nravstvennosti.html