Category: наука

Category was added automatically. Read all entries about "наука".

2021 год

Покрытие интеллект-стека курсами ШСМ

Первое, что было мной сделано на coda.io -- это модель покрытия интеллект-стека курсами ШСМ. Я сделал табличку практик интеллект-стека (он подробно описан в ОдО2021) и для каждого курса вывел слайдеры, дающие оценки от нуля до сотни. Это в попугаях, но нас тут точность не волнует. Например, я даже не задаю вопрос -- это оценки мастерства на момент выхода с курса, или это оценки авторов курса, как они считают их материал накрывает тему. Для простоты считаем, что речь идёт о закрытии темы, а не о реальном научении.

Затем я попросил разработчиков курсов подвигать эти слайдеры (это ж коллективное моделирование!), а в отдельной колонке вывел сумму оценок для каждой практики. Цель для меня -- это в какой-то момент довести покрытие курсами каждой практики до 300 (это означает что предмет давался минимум трижды в разных контекстах, тогда можно ожидать обобщения мастерства на разные ситуации его использования). Для меня, как научного руководителя, это главная задача -- добиться того, чтобы в графе "всего по Школе" в каждой клеточке было не меньше 300, причем по числу предъявлений материала. Потом нужно будет всё переделать на оценку реального уровня мастерства, но там ведь тоже будет в среднем по больнице -- мы пока гениев и двоечников не особо различаем.

Как видите, для этого нужно ещё много работать (это только пример, на картинке явно не все наши курсы -- нет, например, стратегирования, системного фитнеса, системной инженерии и т.д.):


UPDATE: обсуждение в фейсбуке -- https://www.facebook.com/ailevenchuk/posts/10221812434674115 и https://www.facebook.com/groups/blended.learning.russia/posts/3017053111870551/
2021 год

lytdybr

Сегодня в ОдО нашёлся содержательный баг: в интеллект-стеке пропущена эстетика. А её нужно туда воткнуть в явном виде, иначе трудно будет цеплять интеллект-стек и к художественной культуре, и к промышленному дизайну и даже к тому, что в науке именуют элегантностью (Дойч, кстати, не забывал об эстетике, равно как Stanley писал статьи про свои гипотезы об искусстве, Уилбер хоть и про "духовность", но давал системную теорию искусства, и нам тоже нехорошо мимо проходить). Пока же я прописываю логику -- про правильные рассуждения в S2, как относиться к длинным спискам когнитивных искажений, как работать с аргументами и argument maps, а также про нечёткую логику, вероятностный вывод и так далее.

Слушали сегодня статус проекта по active inference (обсудили, что переводить лучше как "активное обновление", а не "активный вывод", как и в случае "байесовского обновления", а не "байесовского вывода"). Решили, что по этой теме нужно делать курс -- и это уже второй вопрос, русскоязычный или англоязычный. Есть гипотеза, что:
-- материал можно изложить не строго математически, а на уровне "псевдокода", как системное мышление или онтологику, "без формул"
-- это трансдисциплина. И дальше можно думать, распихивать её частями по всему интеллект-стеку, или дать компактно.
-- идеи насколько элегантны, что может быть взрывной рост популярности подхода. И тогда этот материал будет более чем востребован.

Обсудили курс системной инженерии, целимся к новому году. И всё остальное (экономика, онтологика в виде онлайн-курса и всякое разное другое) тоже -- к новому году. Хотелось бы к рождеству, чтобы на каникулы люди уходили -- и учились. Но я думаю, что будет ровно наоборот: на каникулах мы все как раз закончим наши курсы.

План по системному мышлению: не просто сделать апдейт текста и задания по моделированию, но и выпустить кроме обновлённого онлайн-курса ещё и тренинг (курс системного мышления в среднем идут два месяца, сделать тренинг трёхмесячным -- и с инструктором. Не думаю, что в качестве инструктора для курса буду я, но у нас уже достаточно опыта в ведении тренингов с инструкторами, подготовленными из наших дополнительно протренированных выпускников).

Дальше нужно будет обеспечить закрытие нашими курсами всего интеллект-стека -- ОдО оказывается не только курс/книжка для обучения, но и для меня это план работ. В ОдО я излагаю, как сделать человека умней. А дальше нужно развернуть систему обеспечения для этого, учить всем дисциплинам интеллект-стека, без пропусков.

Интересная цифра: на прохождение нашего курса системного саморазвития у выпускницы ушло 237 часов. Результат -- другая версия себя, более собранная и способная читать не только художественную литературу (вот тут рассказ об этом, и речь идёт о сугубом гуманитарии: https://www.youtube.com/watch?v=un783Hkyp30).

В эту субботу стартует очередной поток очного системного фитнеса (у нас в офисе), и у меня в мыслях пройти его ещё раз. И как научному руководителю (супервизия), и как лично себе -- нужно не только танцами заниматься, но и непосредственно телом.

Выпущен продукт JuliaSim https://juliacomputing.com/products/juliasim/ и в рамках этой экосистемы обновлена Modia, https://github.com/ModiaSim/Modia.jl. Помним, что я писал о digital twins и физическом моделировании с его компиляторными проблемами тут: https://ailev.livejournal.com/1549559.html. Julia Computing стала золотым спонсором 14th Modelica Conference https://2021.international.conference.modelica.org/ (другие два спонсора -- это Dassault Systemes с софтом Dymola и поставщик библиотек на Modelica германская LTX). На конференции полно докладов с Julia, и в том числе доклад по модульному и расширяемому компилятору Modelica на Julia.

Студиозус уже несколько дней ходит на занятия второго курса по программе робототехники СТАНКИНа. Первый год получился дистантного образования без лабораторных работ, сейчас всё очно. Робототехникой не пахнет абсолютно. Сопромат есть, но семинаров там всего три за семестр. С инженерной графики был изгнан домой: "ты с сегодняшним материалом наверняка сам разберёшься, а сидеть в аудитории -- компьютера на тебя нет, иди гуляй". T-flex заменён на Solid Works. Самое хлопотное -- электротехника, закон Кирхгофа с матричными вычислениями для него (в Excel, в чём же ещё!). Я не вмешиваюсь.

UPDATE: комменты в фейсбуке -- https://www.facebook.com/ailevenchuk/posts/10221700495475705
2021 год

lytdybr

Сегодня 19 лет, как я пишу в ЖЖ -- 7 сентября 2002 года у меня там первая запись. Я тогда по наитию дал название блогу -- "Лабораторный журнал", ибо мне казалось, что практика ведения лабораторных/бортовых и прочих журналов (логов, блог -- это сокращение от web log, журнал в WWW) правильная. Ну, а потом годы шли, а потом была книжка Ahrens, и я написал про "мышление письмом/моделированием", https://ailev.livejournal.com/1513051.html. Для моделирования coda.io у меня есть (она тоже свеженькая, 2019 года), но я там пока ничего не делаю. А надо бы.

Много вопросов по тому, как мы выдавали наши квалификационные сертификаты (https://ailev.livejournal.com/1582019.html). Конечно, не по индексу хирша и его аналогам, то есть не по "объективным показателям", это тупик. Никакой "объективности", никаких индексов цитирования, никакой технологичности. Смотрят несколько глаз, Aisystant хранит все активности (чтобы они не были забыты). Если будут обнаружены какие-то очевидные плюхи, они будут исправлены. Если будет понятно, как что-нибудь улучшить, оно будет улучшено. Критикам вежливо замечают, что если не хотят пользоваться сертификатом -- пусть не пользуются, а если хотят -- вперёд, для этого и делали. Никаких экзаменов и прочих формальных процедур. Лучшие наши выпускники вместо экзаменов делали сразу доклад на конфереции, и сразу после доклада становилось ясно, что человек научился делать, и причём тут наши курсы. Система рангов предложена пока ad hoc (но мы согласовали её европейской шкалой), а там посмотрим. Главное тут -- это не делать вид, что тут где-то кардинализм присутствует, то есть какие-то "абсолютные значения квалификации в квалификационных единицах и метрологией, а также поверками для системы замеров". Нет, в квалификациях мы придерживаемся ординализма (как теории субъективной полезности: не можем сказать, "объективную цену", но можем сказать, что X сейчас для нас полезней Y"), так победим. И что делать, если квалификация не выглядит как то, чем можно хвастаться? Если неинтересно как-то использовать квалификацию, то её просто не используют. Если интересно -- используют. Если человек просто пошёл на какой-то наш курс, то ему дают первокурсника. Если что-то смог закончить -- начинающего. Дальше зависит от того, что он потом с этим знанием делал и как публичил. Например, у нас есть защиты проектов, они показывают понимание курса. Доклады на конференциях, на них можно показать, как и что из курсов использовано было в проектах разной величины. Но некоторые ещё и продвигают знание. Если кто-то что делает с материалами курсов, что Школе неизвестно, то статус присваивается по тому, что известно.

Мне в ленту лезут и лезут публикации по "безопасности AI", в количестве разве не бОльшем, чем "как сделать AI умнее". Ждунедождусь, когда будут писать о безопасности естественного интеллекта! А то рожают, рожают, а ведь могут и очередного Гитлера родить, и очередного Мао (про живых не пишу, "неполиткорректно"), нельзя же считать, что только Эйнштейнов рожают! Да и просто Чикатило, или жуткое количество вообще никого. Как регулировать-то будем? А вдруг это Эйнштейн, которого занесёт в политику, и он там решит эффективно чего похуже? Уничтожат ли человество люди, и если уничтожат, то как?
Вот можно чипы вшивать в людей, чтобы гарантировать их безопасность и дистантное выключение. Можно чипы эти будет хакнуть, вот веселуха будет! А можно живых людей вшивать в AI, и этих людей тоже какие-нибудь политтехнологи могут хакнуть, или какие-то сектанты, вот веселуха будет! Тема безопасности будет кормить вечно, неважно чего это безопасность! Астероидная угроза, ожидание очередного ледникового периода, неважно уже что. Эта музыка будет вечной, у неё не кончатся батарейки!

Пришлось забанить какого-то матерщинника, который пришёл мне рассказывать, как я неправ, что поехал на танцевальную тусовку в Крым, а не в Турцию или ещё куда-нибудь. Я тут в Крыму поговорил с людьми, они тут себя не считают оккупированными, референдум считают абсолютно честным (и результат его предсказуемым -- настроения были перед референдумом однозначны), стройка идёт повсеместно (ещё бы! Сколько сюда денег российских налогоплательщиков вгрохано!). И вот я туда еду и что вижу? Вижу, что я не должен везти на "оккупированную территорию" свои деньги? Чтобы люди там стали беднее, под оккупацией? Я вижу, что сервисы Гугля там работают через пень-колоду, что спотифай музыку не играет. Что, эти добрые люди хотят как-то улучшить жизнь крымчан?! Кто там кого оккупировал?! Мне плевать на то, где там государственные границы (я ж либертарианец). Но когда я вижу, что кто-то пытается сделать жизнь людей хуже, я прямо об этом говорю. Пока получается так, что крымчане страдают не от оккупантов, а от тех, кто ограничивает их в сервисах. Замечу, что даже я под это попал, вынужден пользоваться NordVPN (который уже решили запретить в России -- тут у меня ровно такое же возмущение. Все эти правительства одним миром мазаны, люди для них просто материал, а как они живут -- не волнует). "Чем хуже, тем лучше" -- это сволочной образ мыслей.

Танцую я тут немного -- часа три днём, часа четыре вечером. Это семь часов в день, больше организм не выдерживает. Всё, хватит цокать по клавишам, пошёл плясать. Какие-то заметки по танцевальной части я делаю в ленте ВКонтакте -- https://vk.com/ailev
2021 год

Алгоритмика

Информатика, её поддисциплины и её инженерная практика
Дэвид Дойч считает информатику/computer science (https://en.wikipedia.org/wiki/Computer_science) одной из четырёх нитей, без которых не получается объяснить структуру нашей реальности (другие – это квантовая физика в интерпретации Эверетта, эволюционная эпистемология Поппера, эволюционная теория репликаторов Докинза).

Иногда информатику делят (https://cstheory.stackexchange.com/questions/1521/origins-and-applications-of-theory-a-vs-theory-b) на Theory A как алгоритмику, занимающуюся вопросами сложности алгоритмов и их эффективностью, и Theory B, занимающуюся вопросами теории информации, семантики и логики вычислений.

В интеллект-стеке мы рассматриваем SoTA информатики как научной практики в разных местах стека. Более того, мы встречаем в интеллект-стеке информатику не только как научную дисциплину/science (теорию и средства моделирования для теории), но и как опирающуюся на её теорию инженерную практику в составе труда (компьютерную и программную инженерию как виды инженерии: создание компьютеров как физических вычислителей и программного обеспечения к ним). Грамотный человек сегодня не только умеет сам умеет читать сложный текст и писать слепым десятипальцевым методом на клавиатуре, но и может сам отмоделировать какой-то кусок мира, и даже сам выполнить какие-то несложные вычисления с помощью компьютера -- как предки с трудом научились умножать "в столбик", как дедушки-бабушки научились это делать при помощи калькулятора, так любой школьник должен уметь сделать это на каком-то языке программирования, хотя бы программируя на языке электронных таблиц MS Excel или Google Tables.

Понятие алгоритма как некоторой последовательности вычислений, из входных данных получающих выходные данные, все знают ещё из школы. Сегодня понятно (первый доклад в https://vimeo.com/553810189, слайды https://yadi.sk/i/F6e33aVANX3J3g), как алгоритмику в объёме требований по программированию из текущего ЕГЭ дать уже к окончанию начальной школы, причём детям на это требуется решать задачи всего около 16 часов (да, так мало!), а взрослым около 8 часов (они всё-таки более организованы, чем дети). Удивителен сам факт, что дети и взрослые осваивают азы мастерства императивного/процедурного программирования за примерно одинаковое время, а для этого достигают понимания основных понятий: алгоритма, вычислителя/интерпретатора алгоритма, языка программирования, программиста (составляющего алгоритм), шага алгоритма, данных. Эта учебная программа уже преподаётся десяткам тысяч детей.

Но всё-таки компьютеры в массе своей в труде используются только как ручка-бумажка-на-стероидах. Не "вычислитель" (computer -- это вычислитель!), а просто "счёты с хорошей коллективной памятью". Память при при этом, конечно, структурированная -- она содержит не просто какие-то тексты и картинки, а описания мира/модели, обширные "базы данных" с довольно кучерявыми "моделями данных". Или даже неструктурированную информацию для полнотекстового поиска в корпоративных хранилищах документов. Как устроены эти описания мира разной степени формальности в computer science разбирается в рамках Theory B (теория информации, логика, семантика, далее мы будем ещё рассматривать онтологию с многоуровневым мета-моделированием, они все идут по этой линии Theory B): как мы думаем о мире, как записываем наши мысли, что означают знаки, как представлены знаки на физических носителях, как их интерпретировать.

Выычислительная мощь компьютеров в бизнесе пока задействуется примерно в объёме бухгалтерских счётов-на-стероидах, простейшие сложения и умножения. Это вычисления человека, который использует компьютеры и компьютерную связь для помощи в управлении личным и коллективным вниманием, для организации общения с другими людьми, для умощнения памяти. Вычислять ничего не нужно, знание о том, как составить простой алгоритм и объяснить его компьютеру на языке программирования школьники получают, сдают ЕГЭ -- и дальше не используют.

Проблема в том, что в 21 веке алгоритмика (Theory A из computer science/информатики) поменялась, и нужно с ней разбираться заново.

Новая алгоритмика: изучение универсальных алгоритмов
В Theory A предметом заботы является алгоритмика, вычисления как таковые -- нахождение таких способов вычислений, которые как дают точный результат, так и укладываются в ресурсный бюджет. Проблема в том, что точность моделирования мира и потребность в вычислительных ресурсах в большинстве случаев увязаны между собой. Если вы хотите отмоделировать мир точно, то вам нужно много исходных данных и много вычислений. Иногда это удаётся обойти придумыванием нового способа моделирования, новых алгоритмов вычислений, но иногда теория говорит, что в общем случае это невозможно. Например, сегодня для многих и многих задач находится максимум какой-то функции методом градиентного спуска. В конце 2021 года выяснилось, что точность и вычислительная сложность (время вычисления) для таких задач связаны пропорционально . Если точность удвоить, то время нужно увеличить вчетверо (и это обычно приемлемо), но если для некоторых приложений нужна точность в квадрате, то время (число вычислительных шагов) нужно увеличивать тоже в квадрате – и это может оказаться за пределами разумного. Скажем, 1млрд шагов одинарной точности могут выполняться одну секунду, но вот миллиард секунд для квадрата этой точности – это 32 года работы вычислителя!

Похожие рассуждения по ресурсным (а не теоретическим!) ограничениям на вычисления есть и для многих других классов задач. Например, криптографические задачи основываются на том, что вы легко проверяете ключ на его правильность, за долю секунды. Но вот найти этот ключ, если вы его не знаете, может потребовать тысяч лет вычислений. Ситуация осложняется тем, что при переходе на другую физику (например, квантовый вычислитель/компьютер разбрасывает нужные для получения операции по бесконечному числу вселенных, а потом собирает их результаты для получения конечного ответа, подробно это рассказывается в книгах Дэвида Дойча) оценка сложности алгоритмов меняется. И ещё всё время придумываются новые алгоритмы, причём нахождение нового алгоритма – это творческий процесс, для многих классов задач до сих пор (2021) непонятно, можно ли вообще найти быстрый алгоритм получения решения (проблема перебора, https://ru.wikipedia.org/wiki/Равенство_классов_P_и_NP ): можно ли для задач, которые заведомо решаются методом перебора придумать алгоритм, который решает их не за экспоненциальное по отношению к объёму входных данных время, а за меньшее, полиномиальное или даже линейное. Алгоритмика до сих пор не даёт ответа на этот важный вопрос!).

Есть математический результат 1989 года (теорема Джоржа Цыбенко, https://ru.wikipedia.org/wiki/Теорема_Цыбенко ), который показывает, что нейронная сеть с одним скрытым слоем является универсальным аппроксиматором, то есть может отмоделировать с заданной точностью любую функцию, если в ней есть "достаточное количество нейронов". Любая функция -- это таки математически любая, например, "распознавание речи" это из входных бит огибающей сигнала на выходе аналого-цифрового преобразователя с сигнала микрофона вычислить по фукнции распознавания речи последовательность бит слов текста в подходящей символьной кодировке. Синтез речи -- это обратная функция, из букв в звуки. Диагноз -- это функция из входных данных множества анализов больного в выходные с текстом диагноза. Назначение лечения -- обратная функция.

Проблема только в том, что на существующих классических компьютерах моделирование даже простых функций занимает на такой нейронное сети огромное время, это математически очень крутой результат, но практически он бесполезен. Алгоритмика как раз наука о том, как получить практически полезные результаты. Так, если сделать глубокую нейронную сеть (несколько скрытых слоёв), то свойства универсального аппроксиматора остаются, но время моделирования оказывается вполне приемлемым -- хотя опыт показывает, что один расчёт по сегодняшним ценам может стоить несколько миллионов долларов за аренду вычислительных мощностей для этого (нейронная сеть GPT-3 была вычислена за примерно $4.6 миллиона долларов, а если на том же уровне цен обучать нейросеть GPT-4, то это обошлось бы в $8.6 миллиардов долларов, https://www.reddit.com/r/MachineLearning/comments/i49jf8/d_biggest_roadblock_in_making_gpt4_a_20_trillion/).

Интеллект компьютеров, похоже, зависит главным образом от вычислительной мощности -- это так называемый "горький урок" (http://incompleteideas.net/IncIdeas/BitterLesson.html), полученный анализом всех прошлых прорывов в области AI. Все эти прорывы оказывались прорывами не столько в хитрых конструкциях самого интеллекта как исполняемого на хитрых компьютерах хитрыми алгоритмами, сколько прорывами в не очень хитрой вычислительной мощности, которую отдавали относительно простым универсальным алгоритмам. То есть вы в конечном итоге терпите неудачу, когда пытаетесь сочинить сложный алгоритм, управляющий каким-нибудь автомобилем в поездке. Но если вы в автомобиль включаете суперкомпьютер, и этот суперкомпьютер выполняет относительно простые вычисления в нейросети, то вы получите такие результаты, какие не получите от специально разрабатываемого традиционного "алгоритма вождения автомобиля". Поэтому внимание исследователей искусственного интеллекта обращается к HPC, high performance computing и универсальным аппроксиматорам, вычисления с которыми ведутся на этих компьютерах.

Новые универсальные алгоритмы отличаются тем, что сами функции не программируются/моделируются/описываются вручную/аналитически, но познаются/выучиваются/learn/вычисляются компьютером при минимальном вмешательстве человека. Распознавание речи, изображений, поиск аномалий (тут нюанс: аномалия характеризуется тем, что нужно распознать не то, что компьютер уже видел, а наоборот -- то, чего он ещё не видел!) компьютер делает уже лучше, чем человек.

А алгоритмы творчества есть такие? Если вернуться к универсальным алгоритмам, которые работают с универсальными аппроксиматорами, могут ли они творить? Да, могут. Творчество идёт по тому же пути, что и эволюция: в шуме (например, шуме, получаемом при помощи генератора случайных чисел на тепловом шуме, чтобы надёжно этот шум был свободен от любых закономерностей) потенциально содержится всё новое, что может быть придумано в мире. И дальше можно просто модифицировать этот шум так, чтобы он попал под необходимые ограничения. Если немного поманипулировать со сжатием информации (схематизацией/моделированием) и последующим разжатием (демоделированием/рендерингом), то вычислительно это всё может быть вполне осмысленным. Если каждый алгоритм распознавания основывается на какой-то модели, сохраняющей знания о важном для распознавания аспекте входных сигналов, то можно всегда предложить алгоритм порождения, который в выходном сигнале сохранит это важное -- алгоритм распознавания признает творчески сгенерированный новый объект "своим". Алгоритм устроен примерно так: тренируют подалгоритм распознавания, и на вход ему подают шум от подалгоритма генератора -- распознаватель говорит "это не то" и сообщает генератору, что ему особо не понравилось. Генератор подстраивает свой выход, чтобы понравиться распознавателю -- и так много раз, пока ему не удаётся обмануть распознаватель. Если распознаватель умеет распознавать картины Ван Гога, то генератор в конце концов сумеет сделать картину, которую и человек и этот распознаватель (качество распознавателей сейчас уже не хуже, чем у людей) признают, как картину Ван Гога, но готовил эту картину не Ван Гог, а генератор. Это и есть алгоритмика: придумать такого сорта алгоритм!

В статье 2017 года "Software 2.0" (https://karpathy.medium.com/software-2-0-a64152b37c35) Andrej Kaprathy (сегодня он главный по искусственному интеллекту в Tesla) сделал пророчество, что при наличии достаточных вычислительных ресурсов качество алгоритма, которое даст оптимизация градиентным спуском (иногда это называют дифференцируемым программированием/differentiable programming, https://ailev.livejournal.com/1464563.html) будет выше качества алгоритма, которое разрабатывается программистами, и поэтому людям-программистам придётся заняться чем-нибудь ещё.

Уместна ли алгоритмика в интеллект-стеке?
Кому нужно знать про универсальные аппроксиматоры и алгоритмы, их реализующие? Нужно ли людям сегодня понимание того, как и зачем используются алгоритмы, какие они бывают, где используются вычисления по самым разным алгоритмам? Грубо говоря: нужна ли алгоритмика в интеллект-стеке?

Да, она нужна. Ибо мы не только запоминаем-вспоминаем информацию, но и как то над ней задумываемся, погружаемся в размышления/вычисления, которые требуют ресурсов. По большому счёту, вычисления нужны для:
-- познания/исследований: создание объяснительных моделей на основе восприятия окружающего мира и учёта уже имеющихся объяснений
-- деятельности на нескольких системных уровнях: в цикле/динамике вычисление/инференс/вывод/апдейт предсказаний по имеющимся моделям на основе восприятия/внешних данных, планирование действий, которые приведут предсказания к нас устраивающим, и действия/выполнение плана/актуация

Познание как построение всё более и более мощных объяснений/описаний/моделей мира, дающих всё более и более точные предсказания и деятельность по изменению мира в сторону благоприятных для нас предсказаний по имеющимся объяснениям -- это и есть жизнь.

Это всё не очень ново, так как в такой общей постановке вопроса не отличается от классических задач той области computer science, которая называлась artificial intelligence и занималась поиском решения отдельных проблем, имеющих большую вычислительную сложность, и поэтому не подвластную старым компьютерам: это как раз задачи представления знаний (моделирования/познания мира, и тут мы опять попадаем в семантику и логику), а также задачи планирования. Про человеческий "интеллект" говорили, но это всегда казалось далёкой целью. Почему же это была отдельная область знаний от всей остальной информатики? Потому как решения этих задач в общем виде никак не давалось алгоритмизировать, получающиеся в результате расчёта модели и планы были хуже тех, которые готовил человек. А сейчас за очень дорого (для самых интересных приложений это миллионы долларов за один расчёт, а этих расчётов нужно много!) модели и планы начинают быть лучше тех, которые могли бы приготовить люди.

Прежде всего это относится к таким расчётам, которые делаются для предобучения глубоких нейронных сетей, это лучшие универсальные аппроксиматоры (напомним, что речь идёт о свойстве с какой-то заданной точностью аппроксимировать любую функцию как преобразования из входных данных в выходные, под это можно подогнать практически любую задачу). Алгоритмы глубокого обучения -- это первый обнаруженный людьми класс алгоритмов, который показал удивительную особенность: качество полученных моделей растёт при добавлении вычислительных ресурсов. Уточнение решений для этих алгоритмов заканчивается не потому, что уже ничего там улучшить не удастся, сколько не вычисляй, а просто потому, что слишком дорого вычислять. Было бы дешевле, получили бы решение получше! Это очень, очень дорогие на сегодняшний день расчёты, их цена падает с годами экспоненциально, но и потребность в них растёт экспоненциально, потому как если потратить столько же денег завтра, сколько тратим сегодня, закупив на эту же сумму побольше вычислений, то получим результаты лучше! Этот класс алгоритмов был придуман в 1987 году, но другие алгоритмы этот класс алгоритмов смог обогнать только тогда, когда было использовано компьютерное "железо", особо подходящее под эти алгоритмы (GPU, https://towardsdatascience.com/what-is-a-gpu-and-do-you-need-one-in-deep-learning-718b9597aa0d), на обычных компьютерах эти алгоритмы не работают, ибо не хватает вычислительной мощности.

Отвлекаясь от конкретных алгоритмов решения вычислительных задач, где сегодня используется компьютерная мощь, именно вычисления, где можно подглядеть то будущее, которое нас ждёт при реализации тренда экспоненциального падения стоимости вычислительных ресурсов?

Получается такой разрыв: понимание, почему вычисления такие дорогие, и как их сделать дешевле -- это предмет алгоритмики, которая находится довольно низко по интеллект-стеку. А использование этого понимания должно быть в бизнесе. Вот идём в бизнес. Квантовые компьютеры обещают дать нам невиданную вычислительную мощность, которая явно избыточна для тех, кому компьютеры нужны как ручка-бумажка-на-стероидах. Кто уже сегодня интересуется квантовыми компьютерами, для каких расчётов будут использовать их головокружительные вычислительные возможности? Если посмотрим на разные предложения по использованию (https://www.idquantique.com/quantum-safe-security/quantum-computing/real-world-applications/, https://hbr.org/2021/07/quantum-computing-is-coming-what-can-it-do, https://builtin.com/hardware/quantum-computing-applications), то заметим там примеры того, о чём мы тут писали, наши догадки верны:
-- создание объяснительных теорий в естественных науках (физика, метеорология, химия, биология и медицина, криптография)
-- предсказания и обновления предсказаний (инженерия, медицина, трейдинг, компьютерная безопасность -- смотри все те прикладные практики, которые задействуют объяснительные теории из естественных наук)
-- планирование (всё те же прикладные практики, которые задействуют предсказания из предыдущего пункта)

Продажи нынешних не очень ещё мощных квантовых компьютеров уже идут в научные учреждения (познание), финансовые институты (алгоритмический трейдинг -- задачи предсказания), логистические фирмы (задачи планирования), маркетинг (рекомендательные системы, распознавание голоса), медицина (диагностика и планирование лечения, создание новых лекарств, генная инженерия), инженерия (создание новых материалов и цифровые двойники). Все они не могут себе позволить прозевать момент, когда квантовые компьютеры будут доступны, но их специалисты не смогут их использовать, ибо не будут уметь их программировать. Все эти организации попросту проиграют в конкуренции!

Как отследить тренд на вычислительные модели в которых существенно задействована алгоритмика, а не просто использование компьютеров для накопления данных и их красивого показа? Цифровой двойник/digital twin как понятие сегодня быстро размывается в значении, но всё-таки его создание подразумевает создание какой-то модели физического двойника на стадии и эксплуатации тоже, для того, чтобы иметь предсказания и предупреждения (вот тут вычисления!) по поводу состояния физического двойника по состоянию отмоделированного цифрового двойника (https://ailev.livejournal.com/1546514.html, https://ailev.livejournal.com/1570630.html). На сегодняшний день в инженерии принимаются решения на основе традиционных алгоритмов физического моделирования, базирующихся на вручную составляемых людьми системах дифференциальных уравнений, которые потом решает компьютер (https://ailev.livejournal.com/1549559.html). Но и тут работает тот же тренд: физическое моделирование на универсальных аппроксиматорах оказывается надёжней, цифровые двойники тоже переходят на использование универсальных алгоритмов моделирования, сегодня это прежде всего алгоритмы на глубоких нейронных сетях.

А пока квантовых и иных с "новой физикой" дешёвых и мощных компьютеров нет, новые универсальные алгоритмы вычисляются на "обычных" компьютерах с кремниевыми чипами как центральных процессоров (CPU), так и ускорителей вычислений на базе GPU.

Как и где эти алгоритмы применяются? Как и естественный интеллект: везде, в самых неожиданных местах, которые только можно придумать!

Например, алгоритм NVIDIA на основе глубоких нейронных сетей сокращает требуемый для видеоконференций трафик вдесятеро, https://syncedreview.com/2020/12/02/nvidia-neural-talking-head-synthesis-makes-video-conferencing-10x-more-bandwidth-efficient/. Если вы занимаетесь видеоконференциями, и не знаете об этом прогрессе в алгоритмике, то вы покинете рынок. Главная тут мысль -- такое происходит сегодня повсеместно, универсальные алгоритмы появляются в самых неожиданных местах и дают самые неожиданные результаты. Если вы не знаете, как про эти алгоритмы говорить, сколько они стоят, как и кто их разрабатывает, отслеживают ли их появление айтишники вашей фирмы -- вашей фирме не жить. Алгоритмика важна. Первая волна компьютеризации "управления коллективным вниманием" в фирмах быстро переходит во вторую волну, где компьютер берёт на себя часть мышления/вычислений в двух ситуациях:
-- слишком дорого заказывать эти вычисления людям. Так, миллиарды переводов с самых разных одних естественных языков на самые разные другие, которые делают за сутки автоматические переводчики Гугля, Фейсбука, Яндекса и других технических гигантов, просто не были бы выполнены. Да, они пока ужасного качества, на уровне десятиклассника, едва знакомого с языком, но они есть -- и не были бы выполнены, если бы нужно было обращаться к людям. Переводчики не потеряли работу, но часть работы взяли на себя алгоритмы
-- алгоритмы выполняют работу, которая раньше людям была недоступна. Законы Кеплера компьютер уже может переоткрыть из данных наблюдения за планетой (https://arxiv.org/abs/2011.11981). А фирма Сони не стесняясь говорит о создании компьютера-учёного, которому выдадут нобелевскую премию, что ожидается к 2050 году, https://www.engadget.com/sonys-head-of-ai-research-wants-to-build-robots-that-can-win-a-nobel-prize-180059012.html. Это всё алгоритмика, эти алгоритмы нужно создать, и эти алгоритмы нужно использовать.

Куда развивается алгоритмика в части развития универсальных алгоритмов?
В этой универсальности нейросетей не хватает сегодня:
-- предсказания нейронных сетей, равно как их творечство необъяснимы на сегодняшний день. Этой проблемой занимаются, какие-то успехи тут уже есть. Нам нужно не просто аппроксимирование какой-то функции, нам нужно ещё и объяснение ситуации, объяснение решения!
-- выход из чисто вычислительной работы в реальность, то есть восприятие и актуация (extended/embodied cognition).
-- осознанности, которую связывают в том числе и с возможностью строить длинные цепочки рассуждений по поводу рассуждений (алгоритм выбора алгоритма, алгоритм управления вниманием как выделением ресурсов для вычислений)

Есть много разных подклассов универсальных алгоритмов. Об этой погоне за универсальностью, за Master Algorithm рассказывает книжка Pedro Domingos, но она выпущена аж в 2015 году, это уже хорошее историческое введение, за шесть прошедших лет в алгоритмике много чего произошло нового (и продолжает происходить со скоростью два прорыва в неделю, https://syncedreview.com/). Сейчас нужно было бы писать новую книгу, примерно той же направленности, но дополненную новыми знаниями, полученными за последние шесть лет.

Например, учёные из DeepMind заявили (https://www.sciencedirect.com/science/article/pii/S0004370221000862), что настоящую универсальность дают алгоритмы reinforcement learning, в которых алгоритм "дрессируется" как животное: за достижение цели (или хотя бы приближение к цели) выдаётся награда. Тут же развязалась широкая дискуссия о том, что никакой особо универсальности от этих алгоритмов ждать не приходится, ибо типичная ситуация в том, что мы избегаем неприятностей/выживаем, при этом понятия не имеем, что такое "награда" или даже какого сорта могут встретиться "неприятности". Интеллект сам выбирает, что у него награда, ибо осознанность включает в себя и свободу выбора! Эволюционные алгоритмы -- с ними всё в порядке насчёт универсальности (человека-то они сделали!), но для них никогда не хватит вычислительных ресурсов. Чтобы сделать человека, вся Земля несколько миллиардов лет была эдаким вычислителем! Ещё одна заявка на "безнаградные" алгоритмы -- это отсылка к понятиям predictive coding, active inference, а вместо "награды" агенты с такими алгоритмами стремятся к минимизации свободной энергии/free energy principle (помним, что "энергия" эта не из физики, а из математики для физики, как и "энтропия" в теории информации). Алгоритмы этого подхода (чаще всего его называют active inference, больше информации можно найти в общественной организации, координирующей самых разных исследователей этого класса алгоритма, Active Inference Lab/ActInfLab, https://www.activeinference.org/), крайне элегантны (кратки и универсальны), но пока не продемонстрировали каких-то впечатляющих практических результатов по сравнению с другими видами универсальных алгоритмов. Алгоритмы формального логического вывода (раньше это называли "экспертные системы", потом "системы представления знаний", теперь самый распространённый термин -- knowledge graphs) показали, что они сами по себе работают плохо, их неудача повлекла так называемую "зиму искусственного интеллекта", когда науку универсальных алгоритмов практически перестали финансировать, вплоть до 2012 года, когда обратили внимание на глубокое обучение. И так далее, по многим и многим классам претендующих на универсальность алгоритмов. И при этом работает теорема бесплатного обеда: что универсально для какого-то класса задач, будет ужасно для другого. Хотите решения для многих разных классов проблем -- имейте много разных алгоритмов, выполняющихся на вычислителях с разной физикой! Так что "самый универсальный алгоритм" будет, скорее всего, каким-то сочетанием идей изо всех этих подходов.

Алгоритмика не только про способы вычислений на компьютерах, она и про способы мышления людей!
Но это всё разнообразие подходов к универсальности вычислений и дороговизна универсальных расчётов не снимает факта, что люди перестают заниматься алгоритмикой как придумывание людьми специальных алгоритмов для отдельных частных прикладных вычислений и больше внимания уделяют универсальным алгоритмам, а уж прикладные вычисления потом делаются по итогам работы универсальных вычислителей. Классическая алгоритмика, конечно, останется (программирование самих универсальных вычислителей включает и классическую алгоритмику), но акценты меняются буквально на глазах: алгоритмика 2016 года и 2021 года существенно разная. Так, архитектура универсального алгоритма Transformer была опубликована в 2017 году впервые, https://arxiv.org/abs/1706.03762, её просто не существовало в 2015 году (году публикации книги Педро Домингоса), но сейчас она по факту основная архитектура для всех универсальных алгоритмов, большинство практических применений следует идеям этой архитектуры и её модификаций. Ограничения такой архитектуры тоже уже хорошо известны, поэтому активно идёт поиск новых и новых универсальных алгоритмов -- более универсальных, более скоростных, менее требовательных к памяти. В 2026 году будут уже вполне в ходу квантовые компьютеры, но есть и аналогово-фотонные идеи (https://scitechdaily.com/novel-nanophotonic-analog-processor-developed-for-high-performance-computing/), и множество других аппаратных идей, так что и алгоритмика будет для них другой: сложность алгоритмов существенно зависит от физики вычислителя, что трудно для одного вычислителя, то нетрудно и быстро для другого.

Компьютерные вычисления и человеческое мышление одинаковы в том смысле, что это вычисления. Физику нашего "мокрого вычислителя" в голове мы тоже ведь дополняем "ускорителями" в виде разных компьютеров, так что они не только одинаковы, но и по большей части неразделимы. Весь этот наш подход "образования для образованных" через предобучение универсального интеллекта на основе интеллект-стека из фундаментальных трансдисциплин -- это такой же сдвиг от человека как "опытного" в части владения многими-многими прикладными специализированными алгоритмами решения отдельных прикладных задач к "умному", который способен справиться с самыми разными проблемами при помощи своего универсального интеллекта. Хотя по классификации Chollet -- ещё не универсального для всех классов проблем во вселенной, но всё-таки уже "экстремального" интеллекта, в отличие от текущего компьютерного интеллекта. Ход тот же самый, что и в современной алгоритмике: один и тот же универсальный аппроксиматор, задействуемый для решения самых разных проблем.

Люди тоже всё меньше будут просто "помнить и проверять, узнавать и передавать" (линейные менеджеры, передающие указания от топ-менеджеров персоналу, и собирающие отчёты по работе персонала, становятся не нужны, равно как не нужны и прочие клерки), но больше думать/рассуждать -- и плохо или хорошо это будет происходить тоже будет определяться способом их мышления, алгоритмами. Трансдисциплины интеллект-стека описывают лучшие известные человечеству способы мышления/алгоритмы мышления/последовательности действий, которые нужно выполнить интеллекту, чтобы решить проблему.

В интеллект-стеке нужна алгоритмика как мыслительная практика рассуждений о вычислениях/мышлении в той части, как рационально расходовать свой человеческий вычислительный ресурс, а также ресурс вычислительной техники. Мышление людей дорого, мышление компьютеров тоже дорого. Через некоторое время окажется, что самые дорогие, самые умные люди озадачивают самые дорогие компьютеры (и озадачить эти компьютеры помогают не менее дорогие компьютеры!), и хорошо бы, чтобы эти люди понимали, что способ вычисления/алгоритм имеет значение!
2021 год

Интеллект-стек 2021, версия на 17 августа 2021

Очедерной цикл обсуждений на наших методсоветах, и очередная версия интеллект-стека. Это тоже не окончательный вариант, даю тут снизу вверх с показом использования мыслительных практик одного уровня для объяснений на последующих уровнях:
• Понятизация учит выделять фигуры из фона и делать их предметами рассмотрения
• собранность учит удерживать во внимании «объекты», которые уже обсуждены в понятизации.
• семантика учит отделять физические объекты от математических/абстрактных/ментальных/идеальных, тем самым разделяя объекты и их более и менее формальные описания. Но эти объекты уже могут быть удержаны во внимании.
• теория информации учит, тому, как именно объекты из ментального мира представляются в физическом мире. Но семантика уже рассказала про разницу математических и физических объектов.
• Теория понятий учит машинке типов: что все объекты в каком-то смысле подобны друг другу, и это описывается типами. Об объектах мы можем судить по их отношениям друг с другом. Примеры часто встречающихся типов отношений – это классификация, специализация, композиция. Теория информации при этом уже сказала, как описания проявляют себя в физическом мире.
• системный подход учит про то, что физический мир многоуровневый по отношению композиции (мереология), и каждый уровень имеет новые свойства, поэтому описания одних уровней несводимы к описаниям других уровней (эмерджентность). Теория понятий уже дала композицию как одно из основных отношений, и можно дальше говорить о мереологии.
• онтология учит отвечать на вопрос, каким способом мы описываем/моделируем мир: как мы определяем важное и неважное (моделирование), как мы используем модели для ответа на вопросы (интерпретации). При этом мы уже понимаем, что моделирование многоуровнево (системный подход укажет, что на разных системных уровнях будут разные модели в силу эмерджентности), модели задействуют понятия (используем теорию понятий), а ещё модели используются для проведения по ним рассуждений, т.е. используются для предсказаний.
• Рассуждение говорит, какие есть способы рассуждений над моделями: логический вывод, функциональная оценка, вычисления математических функций, интуитивные оценки в человеческом мозге, прикидки, предсказания, и т.д.. Онтология для этого уже рассказала про то, как мы нарезали мир на объекты, описав эту нарезку какими-то моделями, так что рассуждения работают с моделями.
• Объяснение говорит о том, что рассуждения по моделям нужны для оценки причин и следствий в физическом мире, и совершенно недостаточно рассуждений только про математический мир. В этот момент из онтологии уже известно про разнообразие моделей и из рассуждений о том, какое разнообразие правил рассуждений может быть для этих моделей.
• Информатика это естественная наука, которая обсуждает способы проведения рассуждений по доказательству соответствия поведения математических/идеальных/ментальных объектов поведению физических объектов. Математик, физик, компьютер – это универсальные вычислители, то есть физические объекты, поведение которых как-то отражает поведение физических объектов, но это соответствие ещё нужно объяснить (что такое объяснение к этому моменту уже понятно), и доказать (вот что такое «доказать» и определяется информатикой, а не физикой или математикой). Информатика тем самым и про живых людей с их рассуждениями/вычислениями, и про классические компьютеры с их рассуждениями, и про квантовые компьютеры с их рассуждениями/вычислениями– всё это просто разные типы физики вычислителей.
• Исследование говорит о том, каким образом мы получаем объяснения. Мы делаем догадки о хорошей объяснительной (причинной) модели/теории, а затем критикуем эту догадку на предмет непротиворечивых результатов рассуждений по этой модели и на предмет лучшего соответствия предсказаний этой модели с результатами эксперимента. Тут уже можно использовать понимание моделей как объяснений, рассуждений, доказательств.
• Риторика говорит о том, как убедить какого-то человека совершить какие-то действия. Начинаем с того, что вы должны иметь какую-то модель ситуации (полученную вами в ходе исследований) и вы имеете агента, которому вы объясняете вашу модель ситуации и пытаетесь его уговорить использовать эту модель для достижения каких-то ваших целей.
• Методология рассказывает о человеческой деятельности, в которой люди организовываются в команду, занимают в ней какие-то роли, выполняют работы по каким-то практикам и тем самым добиваются своих целей. Риторика позволяет понять, как они договариваются.
• Праксиология объясняет, что для достижения своих целей люди создают какие-то системы (системный подход), для чего используют ограниченные ресурсы, которыми обмениваются, если они им нужны. Но достижение целей не гарантировано. Предприниматели предвидят будущее и организуют предприятие, которое для достижения целей использует разнообразные средства – и имеют прибыль в случае успеха предприятия и убыток в случае неуспеха. Системный подход нужен и для того, чтобы объяснить, что предприятие мы рассматриваем как агента, если люди в нём договорились. А если люди и предприятия как агенты ещё не договорились о достижении какой-то цели, то это другой системный уровень, уровень общества, и поэтому для него нужны другие модели/описания/объяснения.
• Системное мышление рассказывает, что одни системы (целевые в их системном окружении) создаются другими системами-предприятиями, и рассказывает об основных описаниях, которые нужны для объяснений при создании систем.
• Трансдисциплины трудовых практик – это трансдисциплины инженерии как изменения физического мира (включая кроме инженерии в традиционном строительном и машиностроительном варианте и варианты программной инженерии, образования, медицины и прочих трудовых практик по изменению мира), менеджмента (труд по эксплуатации предприятий), предпринимательства (труд по созданию предприятий и их нацеливанию на какой-то рынок). Для рассуждений о трудовых практиках задействуются все предыдущие уровни интеллект-стека (особенно если учесть, что в качестве агентов действуют люди, люди и компьютеры, и даже уже иногда сами компьютеры).

Прикладные практики тут не учитываем. Формально тут практики (что мы тут делаем со всем инструментарием, поскольку мышление -- то инструментарием являются моделеры), но по сути важны трансдициплины этих мыслительных практик, а не технологии.

Мы весьма условно растягиваем клубок объяснений разных трансдисциплин на отдельные части и располагаем их весьма условно в виде стека (нарративизация, вытягивания онтологической решётки/lattice трансдисциплин в какое-то более простое представление). Мы просто очень грубо оценили, что трансдисциплины/объяснения верхних уровней стека используют трансдисциплины/объяснения более низких уровней больше, чем наоборот.
Мыслительное мастерство поэтому нельзя приобрести, если просто «выучить всё снизу вверх». Нет, поскольку там клубок, то для того, чтобы последовательное изложение трансдисциплин как-то собралось в голове в связную картину мира, потребуется специальная организация учебного курса. Упоминание понятий, которые ещё не объяснены, неизбежно – и поэтому либо потребуется дважды проходить короткую последовательность курсов, чтобы откорректировать на втором проходе непонимание первых проходов, или иметь длинную якобы «однократную» версию с неизбежными повторами.

Из основных новаций:
-- вместо 12 уровней стало 16 (онтологику поделили на более мелкие части, чтобы уточнить стековое представление, меньше было обратных зависимостей. Скажем, системный подход -- это про системные уровни и эмерджентность, а системное мышление это уже больше про целевые системы, основные viewpoints, и жизненный цикл, в котором практики/труды/деятельности не вводятся, а рассматриваются до этого -- в методологии. В этом плане мой нынешний учебник системного мышления является именно учебником: включает в себя материал по многим дисциплинам интеллект-стека, это не учебник по дисциплине только одного уровня. Впрочем, это относится ко всем курсам: курсы набирают своё содержание образования из разных уровней интеллект-стека, чтобы учитывать разные уровни мастерства в разных дисциплинах, которое имеют их студенты на входе и выходе курсов).
-- меньше нашего сленга в названиях. Объяснение — это как раз и есть "работа с причинно-следственными связями", то есть causal inference. Или "вывод"/inference лучше бы переводить как рассуждение (хотя надтипом там является вообще вычисление, но нас интересует в привязке к логике прежде всего). Рассуждение вместо очень многозначной "логики" (логика как формальная логика, или философская логика, или онтологика?). Семантика вместо понятизации (семантический параллелограмм/треугольник, треугольник Соссюра -- это как раз про семантику, как знаки/описания соответствуют каким-то физическим/ментальным объектам). Вернули риторику (исходно это про создание и произнесение убедительной речи) туда, где убеждение и объяснение кому-то (а не создание объяснений как отчуждённое знание о причинах-следствиях, это тоже есть, и это вместо разбитой на несколько кусочков полной эпистемологии). И так по каждому пункту. Предложите имена получше, но а) из культуры (желательно, чтобы совпадало с какими-то имеющимися теориями) и б) всё-таки менее заумные слова (так, слово "праксиология" тут первый кандидат. Нас тут волнуют азы экономики по факту, кусочки политэкономии, но чтобы не было нормативности и не залезало в "устройство государства" и "общественный строй". Это нужно обсуждать).
-- деятельностные практики инженерии, менеджмента, предпринимательства как связанные с ролевым разделением труда я бы называл трудовыми. Деятельностный кругозор менее понятен и хуже выговаривается, чем трудовой кругозор. Трудовые практики и трудовой кругозор звучит как-то мягче, чем деятельностный/практический. Хотя это всё синонимы: труд, деятельность, практики, методы (как функциональное рассмотрение поведения) в отличие от работ (логистика и использование ресурсов, конструктивное поведение). Разделение труда и разделение работ -- это про разное. Хотя говорят, что "труд имеет отрицательную полезность", то имеют ввиду не труд, а именно работу: работа имеет отрицательную полезность. Работа задействует ресурсы (агентов, материалы, оборудование), а вот практика задействует проектные роли и используемую ими технологию. В ходе проекта это становится одним и тем же, ибо сводится к изменениям одних и тех же физических объектов. Добавление "труда" в ряд синонимов к "практике" и "деятельности" -- не слишком большая новация. Вопрос, стоит ли делать "труд" основным термином в наших курсах. Трудовой кругозор, трудовые роли вместо деятельностного кругозора, деятельностных ролей -- будет ли это понятней и проще, менее канцеляритно, будет ли меньше ошибок и путаницы? Не поздно ли что-то менять, когда только учебник системного мышления разошёлся с предыдущей терминологией в 10тыс. штук? Ну, мы в начале бесконечности. Это всегда начало. Если удастся что-то улучшить, то следующая сотня тысяч человек получит более правильный вариант. И мы потом ещё что-то улучшим. И следующий миллион человек получит вариант ещё лучше.

UPDATE: обсуждение в чате блога с https://t.me/ailev_blog_discussion/10013, в фейсбуке https://www.facebook.com/ailevenchuk/posts/10221563881900451, https://www.facebook.com/groups/blended.learning.russia/posts/2979009852341544/,
2021 год

lytdybr

Сегодня 27 лет московскому Либертариуму, "вода в аквариуме, свобода в Либертариуме!", он и сейчас работает, хотя уже давно не обновляется: http://libertarium.ru/. В России это первый вебсайт, который сделала непровайдерская организация, тогда это был "Институт коммерческой инженерии", которым я директорствовал. Потом было много чего "первого в России" по части интернета: первая художественная выставка в интернете, первая публикация музыкальных роликов, первая коммерческая работа как вебстудии (у первого клиента вебсайт заработал в ноябре 1994 года). Но Либертариум за 27 лет остался актуальным. Свободы в России за время с его запуска почему-то не прибавилось, хотя мы именно для этого его делали.

На методсовете сегодня Церен Церенов высказал предположение, что "Образование для образованных" в новом варианте 2021 года вполне читается, но не очень похоже на подготовительный курс, это больше похоже на мыслительный/трансдисциплинарный кругозор -- показывается то, как переплетены между собой различные дисциплины интеллект-стека. И я раньше думал, что этот курс хорош как начальный: "предъявите всё меню, что и зачем нужно учить?", но есть и другой вариант понимания "поглядите, чему вы уже научились, тут это разложено по полочками, теперь определите ваши пробелы и спланируйте, что делать дальше". Да, это можно делать, когда раскладывать по полочкам нечего, но можно делать и посередине учёбы, и даже по окончанию (хотя формально мы не предполагаем, что учёба когда-нибудь закончится, мир-то не стоит на месте, и SoTA даже трансдициплин быстро движется). Преподаватели уже получили 45% переписанного, следующими в понедельник переписанный кусок получат студенты текущего потока "Системного менеджмента и стратегирования 2021", ибо первый раздел как раз посвящён стратегированию (дополнительный материал шестого дня тренинга, хотя на эту тему есть и отдельный онлайн-курс, который должен потом входить в курс предпринимательства), а второй раздел уточняет содержание раздела про практики (там подробно разъясняется, что роли и практики всегда вместе). Третий раздел там про интеллект и мастерство как вычислители для мышления и рассуждений (и намеренно повешенный вопрос, вычислители эти с ушами и зубами, дающие на выходе практику/деятельность развития/познания и прикладную, или "чисто мозг" без датчиков и актуаторов, дающие только вычисления, не выходящие в тело и дальше в окружение). Закончить всё хочу к 1 сентября, а там уж как получится.

Думаю, нужно ли уже вставлять в ОдО Predictive Processing Framework (PPF), ибо он потихоньку становится SoTA в объяснениях поведения. Там примерно то же самое, что у кибернетики с её "петлёй обратной связи", только акцент делается не на "поправку поведения после получения отклика" и неминуемое дальше поддержание гомеостаза/равновесия, а на байесовскую оценку делающегося предсказания сенсорного окружения и далее управление этой ошибкой (скажем, подсаживание на наркотики резко уменьшает ошибку предсказания: делаешь одно и то же, получаешь на выходе одно и то же -- ошибка нулевая, то есть у тебя исчезает exploration и остаётся только exploitation, что явно не то, что хочешь получить. Поэтому ошибкой предсказания нужно управлять, и если проблемы исчезают, то нужно "выходить из зоны комфорта", управлять ошибкой в сторону увеличения, то есть искать новизну, чего в кибернетике и в помине нет). Я устал всем говорить, что кибернетика сдохла, и поделом. А тут можно просто говорить, что PPF относится к кибернетике, как термодинамика к флогистону, мы не просто выкинули кибернетику, но имеем для "управления живого" теорию/объяснение получше (а для неживого осталась ТАР/ТАУ с PID контроллерами). Парочка свежих работ по PPF: The Predictive Dynamics of Happiness and Well-Being, http://philsci-archive.pitt.edu/19282/ (тут всё больше психопатологию). Работа https://www.mdpi.com/1099-4300/23/6/783/htm со всеми знакомыми ключевыми словами: агент, внимание, сознание, attention schema theory, цель, active inference. embodied self-models. Работа по исследованию музыкального восприятия https://www.inverse.com/mind-body/neuroscience-of-imagined-music не впрямую ссылается на PPF, но там обнаружен нейрофизиологический факт, что мозг реально предсказывает каждую ноту в мелодии -- обрабатывая затем невязки по предсказаниям. Не факт, что это всё нужно включать прямо вот в текущей версии (ибо нужны ещё и какие-то прикладные результаты, а не просто "вот ещё одна теория всего". Нейросети тоже были десятки лет на уровне "вот ещё одна теория всего", но SoTA стали только в 2012 году, когда опора именно на эту теорию дала победу в ImageNet). Но отслеживать PPF нужно. UPDATE: ещё вот свеженький обзор Predictive Coding: a Theoretical and Experimental Review, https://arxiv.org/abs/2107.12979 -- Predictive coding offers a potentially unifying account of cortical function -- postulating that the core function of the brain is to minimize prediction errors with respect to a generative model of the world.

Ровно 14 лет назад, 3 августа 2007 года я написал "Очередные планы по PraxOS", https://ailev.livejournal.com/504220.html. В голове у меня тогда была машина TÆMS (Task Analysis, Environment Modeling, and Simulation), ибо в те годы в моде были мультиагентные системы, но очень хотелось как-то описывать организацию и TÆMS был найден полтора месяца перед этим планированием, ибо имел хороший язык для планирования и составления расписаний (planning and scheduling, вот я писал об этой находке https://ailev.livejournal.com/492997.html), и мы пытались прикрутить его к описанию работы организации наряду с деревьями Голдратта (вопрос ставился как "есть ли прямая аналогия между логикой качества в TAEMS и логикой необходимости и достаточности в голраттовских деревьях)? Мы тогда не очень уверенно различали управление жизненным циклом и операционный менеджмент, практики и работы. Ну и как были выполнены "Очередные планы по PraxOS"? Удивительно, но в целом -- выполнены, хотя и не в той форме, как нам тогда казалось. Никакого TAEMS и тамошних языков не осталось (потом был найден Essence для работы с жизненным циклом, язык оказался табличных форм и уровня "псевдокода", для операционного менеджмента нашёлся Reinertsen и понимание связи проектного, процессного, программного и кейсового подходов, из голдраттовских деревьев в существенно поправленном виде мы даём только strategy and tactics tree как strategy case, а ещё агентов мы вводим через агентские роли, да ещё и культурно-обусловленные (агенты тоже есть, но про них говорится в курсе онтологики). Но на основные вопросы, которые ставились в плане исследований, ответы таки были получены и отчуждены в виде онлайн-курсов "Системный менеджмент 2021" и "Стратегирование 2021". Вот меня это каждый раз удивляет, когда я обнаруживаю, что ставил какие-то вопросы лет пятнадцать-двадцать назад, долго упирался, а потом таки нашёл на них ответ! Мышление письмом в "Лабораторном журнале" таки имеет много достоинств. А что я вспомнил про эти "очередные планы"? А это не я вспомнил! Это могучий интеллект Живого Журнала прислал напоминалку "вы писали в этот день в 2007 году". То есть и тут не очень понятно, что там мой мозг вычисляет, а что вычисляют датацентры. Вместе с датацентрами я существенно умней любого человека без датацентров!
2021 год

lytdybr

ОдО переписано на 39%, переписывал сегодня кусочек про неработу трёхдневных курсов. Радикальных изменений нет, просто уточнения формулировок и чуть-чуть примеров (хотя примеры тоже получаются довольно абстрактны, я ж больше о трансдисциплинах говорю и об обучении, цепочка длинная получается -- примеры по-хорошему нужно дотягивать до момента, когда вся эта цепочка сработала или не сработала в каком-то проекте. Но оставлю это на третье переписывание, текст и без этого подраспух).

Прочёл сегодня на Архипелаге очередной двухчасовый обзор системного мышления, видео -- https://youtu.be/vwotFnYBIS0, слайды вот: https://yadi.sk/i/UPkHGCknBbL-gw. Там, конечно, на этом Архипелаге большой проходной двор: люди приходят и уходят во время рассказа, но десяток человек из пятидесяти заранее записавшихся таки прослушал всё от начала до конца. Конечно, потом видео просмотрят несколько сотен человек, для этого и стараюсь. Всё становится асинхронным: все эти доклады, лаборатории, мастерклассы и прочая активность превращается просто в сеанс видеозаписи. Люди смотрят не на то, как я рассказываю вот прямо сейчас, но "листают" видео моего рассказа на полуторной скорости когда-нибудь потом, когда у них есть подходящее для этого просмотра время. Этот просмотр-листание обычно на бегу, где-нибудь в машине в поездке, когда на экран с диаграммами, обложками книг и аутлайном текста и не посмотришь, и внимание наполовину направлено на дорогу и вождение, а наполовину -- на звучащий рассказ. Но это уже хорошо, прослушанная одна минута уже лучше, чем ноль минут! Хотя представление о системном мышлении от прослушанного пунктиром рассказа может быть очень превратным!

Фейсбук забанил мой комментарий про недостаточную инженерность математики, пост с этим скриншотом получил за сутки 67 лайков и 5 шеров, https://www.facebook.com/ailevenchuk/posts/10221467114361323. Это давний комментарий забанен был только сейчас, причины неизвестны -- хотя я там честно признаюсь, что текст мой мракобесный. Я и второй забаненный комментарий в фейсбуке нашёл, но там не про математику, а про радужный столб, и вот радуга мы ж знаем, её лучше не обсуждать!

Что касается содержания, так онтологический статус математики я представляю себе много лучше. Вот есть computer science, как естественная наука, и Дэвид Дойч примерно описывал взаимные отношения математики и computer science. Тут нужно сказать, что споры по поводу понятия вычислений с их Theory A и Theory B до сих пор ведутся, и квантовый компьютинг (и, думаю, оптический компьютинг тоже сюда добавит) не даёт этим спорам заглохнуть. Вот там такие работы как "Finite of Sense and Infinite of Thought: A History of Computation, Logic and Algebra", a history of the development of computation, logic and algebra from classical times to the twentieth century, told through primary sources -- https://pron.github.io/computation-logic-algebra с рассуждениями про различие вычислений как логического вывода (работа с абстракциями) и вычислений как моделирования (семантика языков программирования) в https://pron.github.io/posts/what-we-talk-about-when-we-talk-about-computation. Вот мне в ОдО нужно будет про информатику и системную информатику писать, а полного понимания ситуации с возможными курсами на эту тему у меня нет -- и, похоже, ни у кого нет. Понятно, что там должна быть пара курсов (теория/объяснения и деятельностный кругозор системной информатики как системной инженерии вычислителей с описанием SoTA практик), но вот с содержанием ещё нужно будет разбираться и разбираться.

Не выдержал и откомментировал у Розова про равномерность (хотя и экспоненциальную равномерность) развития: ну нету какого-то отдельного всплеска или торможения у прогресса в 80е годы прошлого века, хотя Розов и особо выделяет этот период (Пинкер хорош тем, что на подобранных им графиках эту непрерывность наблюдать удобно. Одно дело субъективное перечисление "важных событий", другое дело когда смотришь на данные -- и понимаешь, что какие-то события ведь происходят всегда!). Вот тут эти комменты, начиная с: https://alex-rozoff.livejournal.com/440776.html?thread=121510856#t121510856.
2021 год

lytdybr

Наткнулся на свой текст десятилетней давности "Эскиз образовательного проекта" -- https://ailev.livejournal.com/961237.html (и было ещё небольшое к нему приложение пять лет назад, https://ailev.livejournal.com/1277589.html). Там и комменты рулят. Удивительно, но проект каким-то образом реализовался. Единственное что, так это нужно тогдашние мысли о DSL, который нужен был для вполне традиционного формального моделирования, заменить на сегодняшнее менее формальное табличное и текстовое моделирование: принцип "мышления моделированием" был понятен уже тогда, но не очень была понятна форма реализации. Сейчас с ней много ясней. Ещё оказалось неожиданностью, что настолько всё плохо с curriculum -- делать его пришлось практически с нуля, до сих пор в методологическую работу уходит львиная часть времени, а вот методике время уделяется, но явно не в том масштабе, в котором предполагалось это делать в тех древних текстах. Было понятно, что "шикарно учить случайно подобранному набору предметов" нельзя, но вот обнаружить, что по факту нет самих предметов -- это было неожиданностью. Ну ничего, проект ещё далеко не закончен, десяток лет в таких делах -- не срок.

По какой линии я бы обсуждал предлагаемые Пинкером идеи противоядий против tribalism/трайбализма (это когда ключевое слово из какой-то политической повестки вызывает отключку разума, переключая на трансляцию верований своего племени и критику верований другого племени)? Я понимаю это так, что человек тренирует-тренирует S2 -- но когда встречается слово-триггер (даже не идея, а именно слово!), то S2 отключается и дальше мы видим мощную нейронную сетку типа GPT-3 и даже мощнее, выучившую несколько несложных тезисов и круто из воспроизводящих. Внешне это выглядит, как отключка разума при полностью сохранённых лингвистических способностях. Главное, что каждое порождённое слово статистически предполагает следующее слово из какого-то манифеста, и так пока не кончатся буквы, а они не кончатся. Рассуждений нет, есть поток метафор и ассоциаций, анекдотические свидетельства, напор на эмоции и всё прочее, что умеет делать S1 без контроля S2. Как лечить других и себя от такой напасти? Пинкер говорит о том, что все идеи разных людей нужно обсуждать без классификации их каким-то общим лейблом (у него главным образом лейблы республиканцев и демократов, иногда либертарианцев), а обсуждать содержательно по одному -- не относя к искусственно созданному классу. То есть игнорировать якобы связную картину мира в голове собеседника (она ни разу не связная, это морок -- там ведь мешанина из самых разных идей), а разбираться с ней по частям и без навешивания ярлыков на целое. Если зацеплены аборты, то обсуждать аборты, но не обсуждать свободу торговли, и наоборот. Эта идея напоминает мне разные аналогичные, и можно как-то думать в этом направлении:
-- освободить практики от власти методологий, деконструировать монстрообразные методы и работать с отдельными практиками (продвигается Ivar Jacobsen, OMG Essence как раз воплощение этой идеи). Парное программирование тут -- это парное программирование, и не нужно обязательно связывать его с планирующей игрой (хотя впервые они появились в рамках методологии eXtreme programming, но можно просто забыть про общее происхождение и думать про эти практики независимо, оценивать и модифицировать их независимо друг от друга).
-- не считать, что мир обязательно должен быть логически связным, ибо это онтологически невозможно (формальные онтологии несовместимы). Переходить к микротеориям.
-- не считать, что все идеи идут через запятую на одном системном уровне. Не делать винегрета из рассуждений на разных системных уровнях, ибо там разные практики, разные микротеории на каждом системном уровне.
-- главное, это научить мыслить о мышлении, чтобы все эти объекты внимания хоть как-то обсуждать. Если ты не знаешь о различиях S1 и S2, не знаешь понятия аргумента, не знаешь о предвзятостях, анекдотические свидетельства считаешь чем-то с вебсайта анекдоты.ру, то дальше бесполезно обсуждать мыслительные проблемы -- трайбализм-шмайбализм, логика-шлогика, всё это будет пропущено мимо ушей, будет невидимо, вне внимания. То есть таки нужно учиться мышлению о мышлении, постигать методологические дисциплины, чтобы хоть как-то нормально обсуждать околополитические темы.

Выяснил вдруг, сколько евреев среди нобелевских лауреатов: The strong representation of Jews in science and academia is evidenced by the fact that 193 persons known to be Jews or of Jewish ancestry have been awarded the Nobel Prize, accounting for 22% of all individual recipients worldwide between 1901 and 2014. Of whom, 26% in physics, 22% in chemistry and 27% in Physiology or Medicine. In the fields of mathematics and computer science, 31% of Turing Award recipients and 27% of Fields Medal in mathematics were or are Jewish (https://en.wikipedia.org/wiki/Jewish_culture). У меня, конечно, были смутные подозрения, но я таких больших цифр не ожидал. При этом цифры могут быть и больше, ибо еврейское происхождение в силу повсеместного антисемитизма могло и скрываться. Культурная ли это линия ("давние образовательные традиции", но их ведь давно уже нет!), или таки что-то в генетике связано с усилением S2 (вся эта наука в целом и особенно физика-математика-логика как раз про проявленность S2) -- это даже боюсь копать, ибо там и протоколы сионских мудрецов сразу всплывут, и особая одарённость белой расы, и много чего ещё помоечного. Но статистика, конечно, удивительная. "Избранный народ", ага.

В самых разных тусовках обсуждаю сейчас вопрос выбора языка для рассказа о каком-то предмете: удивительно, но при коммуникации пытаются сюсюкать -- как с детьми, машину обзывать бибикой. Это, замечу, другая тема, нежели химию давать на алхимическом языке (то есть игнорировать понятия предметной области, а просто "делать хоть что-нибудь, объяснять хоть как-то уже неважно что и неважно как"), я писал об этом в https://ailev.livejournal.com/1509956.html. В сюсюкании есть множество проблем: возникает "язык близнецов", то есть участники сюсюканья понимают друг друга, но общение становится строго ограниченным. Ни погуглить, ни привести в проект кого-то грамотного без дополнительных ему объяснений, ничего этого нельзя. И хорошо бы ещё машину называли бибикой, "как все"! Нет, машину назовут бижукой, матиной, ездилом и прочим таким, чем внешнему человеку и не догадаться. При этом будут знать, что это "машина"! Откуда-то появляется вот это общение с сотрудниками как с детьми, твёрдое убеждение, что они нормальных слов без сюсюканья не понимают. В принципе, сотрудники тоже обычно этому способствуют, на любое новое слово реагируют нервно -- и в ответ на их нервы получают сюсюканье. При этом идеи, почему нельзя произносить термины бытуют самые разные -- примерно такие же, какие появляются у взрослых, сюсюкающих с детьми. Вот хоть бери литературу по общению с детьми от года до трёх и цитируй её взрослым. Конечно, хорошие термины (особенно, если речь идёт о переводах иностранных слов, которые не хочется давать как кальки) нужно придумывать, я и сам постоянно этим занимаюсь. Но придумывать такие слова вот прямо в каждом проекте для каждой новой команды -- быстро теряешь связь с мировой культурой и сам, и отрубаешь от мировой культуры команду. Язык на то и язык, чтобы служить коммуникации! Канбан надо таки называть канбаном, а не "работой по чуть-чуть"! А ещё бывает, когда со стороны кажущийся сюсюкающим не сюсюкает, а просто не знает оригинальных терминов (нет кругозора), и перезобрёл (или откуда-то услышал в плохом пересказе) известную давно идею. Это я вообще не рассматриваю.

Прогресс в AI продолжается со скоростью два прорыва в неделю. Например, из последнего:
-- Вышла работа по нейронным причинным моделям (NCM) по образу и подобию структурных причинных моделей (SCM) с участием Bengio и Barenboim -- https://arxiv.org/abs/2107.00793. An important property of many kinds of neural networks is universal approximability: the ability to approximate any function to arbitrary precision. Given this property, one may be tempted to surmise that a collection of neural nets is capable of learning any SCM by training on data generated by that SCM. In this paper, we show this is not the case by disentangling the notions of expressivity and learnability. Specifically, we show that the causal hierarchy theorem (Thm. 1, Bareinboim et al., 2020), which describes the limits of what can be learned from data, still holds for neural models. For instance, an arbitrarily complex and expressive neural net is unable to predict the effects of interventions given observational data alone. Given this result, we introduce a special type of SCM called a neural causal model (NCM), and formalize a new type of inductive bias to encode structural constraints necessary for performing causal inferences. Building on this new class of models, we focus on solving two canonical tasks found in the literature known as causal identification and estimation. Leveraging the neural toolbox, we develop an algorithm that is both sufficient and necessary to determine whether a causal effect can be learned from data (i.e., causal identifiability); it then estimates the effect whenever identifiability holds (causal estimation). Это всё особенно пикантно с учётом твита Pearl про невозможность для нейронных сеток быть хоть как-то разумными, ибо они не могут подняться до третьего ранга в лестнице контрфактуальности: https://twitter.com/yudapearl/status/1411842797376659457
-- с участием того же Bengio сделали нейронную продукционную систему, https://arxiv.org/abs/2103.01937 (но это ещё в марте было. Просто иллюстрация тренда "берёшь что-то из старого символьного AI и делаешь то же самое нейронное -- оно ж универсальный аппроксиматор!"). We take inspiration from cognitive science and resurrect a classic approach, production systems, which consist of a set of rule templates that are applied by binding placeholder variables in the rules to specific entities. Rules are scored on their match to entities, and the best fitting rules are applied to update entity properties. In a series of experiments, we demonstrate that this architecture achieves a flexible, dynamic flow of control and serves to factorize entity-specific and rule-based information. This disentangling of knowledge achieves robust future-state prediction in rich visual environments, outperforming state-of-the-art methods using GNNs, and allows for the extrapolation from simple (few object) environments to more complex environments.
-- продолжилась серия побед "нейронная сетка сдаёт экзамен лучше, чем средний студент", в этот раз экзамен по вводному курсу машинного обучения в MIT, https://arxiv.org/abs/2107.01238. The proposed model achieved an overall accuracy of 96 percent for open-response questions and 97 percent for multiple-choice questions, bettering the average MIT student score of 93 percent.
-- и очередной рекордсмен в SuperGLUE, ERNIE 3.0, https://arxiv.org/abs/2107.02137. We trained the model with 10 billion parameters on a 4TB corpus consisting of plain texts and a large-scale knowledge graph. Empirical results show that the model outperforms the state-of-the-art models on 54 Chinese NLP tasks, and its English version achieves the first place on the SuperGLUE benchmark (July 3, 2021), surpassing the human performance by +0.8% (90.6% vs. 89.8%). Красота тут в том, что GPT-3 -- это 175 billion parameters, а этот чемпион -- всего 10 billion. Вдобавок . It fuses auto-regressive network and auto-encoding network, so that the trained model can be easily tailored for both natural language understanding and generation tasks with zero-shot learning, few-shot learning or fine-tuning.
-- ... и такого много, чуть ли не каждый день что-то новенькое.

UPDATE: обсуждение в фейсбуке -- https://www.facebook.com/ailevenchuk/posts/10221386545587154
2021 год

Описание описаний

Руки чешутся поподробней разобраться с описаниями описаний в цепочке описаний, ибо до этого подробней разбирались с описаниями физического мира. Вот поглядите, "мама мыла раму" -- это:
-- Информация, ибо обсуждаем то, что различимо на носителе информации и может быть копировано в различениях на другой носитель, описание физично. [Дойч, Марлетто. И далее пошла теория информации: Шэннон и вот это всё]
-- Данные, ибо запись цифровая (битами) и в известной кодировке
-- Текст, ибо это последовательность паттернов как знаков. [семиотика это наше всё, хотя ушла любовь, завяли помидоры -- и, похоже, ещё в прошлом веке]
-- Предложение, ибо законченное высказывание в грамматике (ещё и полное: присутствуют subject, object, predicate)
-- высказывание (в логике, utterance), ибо может быть истинно или ложно
-- сведения, ибо описывают определённые объекты внимания
-- Онтология, ибо описаны мама и рама как сущности в реальном мире и отношение мытья между ними.
-- Теория, ибо говорит о связи между мамой и рамой, позволяет предсказать состояние рамы и мамы.
-- Объяснение, ибо рассказывает о причине изменений в раме и маме. [привет Попперу-Дойчу]
-- Модель, ибо из сложной ситуации выделяет самое важное: маму, раму, что делает мама с рамой, и опускает всё остальное как неважное.
-- Описание, ибо описывает что-то в мире, неважно как
-- Наблюдение, ибо описывает что-то, "измеренное" (эээ... наблюдённое) в физическом мире
-- Репликатор, ибо эта запись упорно заставляет физический мир воспроизводить себя на самых разных носителях [привет Докинзу и его мемам]
-- ... этот ряд можно продолжать и продолжать.

Дальше можно обсуждать классы всех этих классов описаний: язык, дисциплина, знание, ... и этот ряд будет не меньше. И там по мелочи ещё набежит пара сотен понятий и три сотни терминов для этих понятий.

Хотелось бы навести хоть какой-то порядок в этом винегрете разных онтик описания, уточнить как понятия, так и терминологию (и по-русски, и по-английски). И чтобы с объяснениями. Как структурировать описания физического мира нам рассказывает системное мышление, а вот структурирование самих описаний (кроме того факта, что все описания -- это описания какой-то системы, если это не описания описаний) пока для меня не очень прозрачно. Хотя вроде всю жизнь этим занимаюсь. И это я ещё суперинформацию не поминаю, возможные миры и вот это вот всё.

UPDATE: Обсуждение в фейсбуке -- https://www.facebook.com/ailevenchuk/posts/10221152740502173 и https://www.facebook.com/groups/771940449578453/permalink/3755566461215822/
2021 год

lytdybr

Понял, что хорошей формой документирования моей текущей исследовательской и даже организаторской (яжнаучныйруководитель!) работы будет переписка курса/книги "Образование для образованных 2020" (https://system-school.ru/uptodate, https://ridero.ru/books/obrazovanie_dlya_obrazovannykh/), доведение до версии 2021 года. Главная работа у меня сейчас -- переделка интеллект-стека и какое-то уторговывание содержания курсов по разным частям этого стека. Но изложение интеллект-стека и краткое описание каждой из его практик -- это и есть содержание курса/книги. Вот и нужно документировать результаты прямо в тексте. Конечно, это такая работа, которая никогда не сможет быть закончена: жизнь не стоит на месте, state-of-the-art по всем поминаемым практикам меняется. Но это просто означает release early, release often. Уже очень много с момента выхода прошлой версии изменилось, нужно это нормальным образом документировать. Конечно, всё как-то описано у меня в блоге и помянуто в видео разных докладов на семинарах и конференциях, но курс/книжка отличаются связностью изложения, полнотой рассказа истории. Так что опять начинаю писательствовать.

Основная цель Chiara Marletto -- квантовая гравитация, она занимается этим с Vlatko Vedral, на основе идей David Deutsch. Их свежие работы можно найти вот так: https://arxiv.org/search/?query=marletto&searchtype=all, https://arxiv.org/search/?searchtype=author&query=Vedral%2C+V. Основной путь, который там намечен -- это показ, что рассуждение должно быть полностью квантовым (скажем, если речь идёт о замере квантового состояния, то и измеритель должен рассматриваться как квантовый, запутывающийся с замеряемым квантовым объектом, а не как классический, и это убирает большинство парадоксов. А переход к классике -- это decogerence). То есть вся эта эпистемология у них просто "эпистемологическое обеспечение" для теоретико-физической работы. Что добавляет доверия ко всей этой затее: это не абстрактная эпистемология-про-саму-себя, а прикладная.

Можно выделить две разные идеи: evolutionary epistemology/open-endedness (что всё это знание будет развиваться бесконечно, не имеет цели и т.д.) как общее направление и critical rationalism (обсуждается шаг развития знания: что такое теория, почему нельзя говорить о подтверждении теорий, но можно говорить об опровержении, почему теории невыводимы из опыта и т.д.) как специфически попперовский вариант, усиленный Дойчем в части опоры исключительно на теории-объяснения. По critical rationalism есть много интересных работ, например по менеджерской эпистемологии, типа докторской диссертации 2011 года "A Critical Rationalist Inquiry of Managerial Epistemology. Toward the Confrontation of the Unawareness Problem", https://research.utwente.nl/files/6067232/thesis_D_Faran.pdf (и там, конечно, про предпринимательство -- strategic management). Тут для разбирательства две основные идеи:
-- трансдисциплины как работающие на любом уровне интеллект-стека, в том числе и на прикладных уровнях. Это означает, что онтологическое, эпистемологическое, системное и прочее подобное знание непосредственно помогает разбираться с прикладными задачами, с рабочими ситуациями. Нет ничего практичней хорошей теории, и эта хорошая теория работает с прикладным материалом непосредственно. На курсе онтологики, на курсе системного мышления мы предлагаемыми там практиками мышления непосредственно можем разбираться с прикладными задачами, для этого необязательно дожидаться даже и кругозорных курсов и прикладных курсов (и чем больше задействовано прикладных знаний, тем более верно это замечание: если у тебя ситуация с двумя десятками прикладных дисциплин, то тебе явно не третий десяток прикладных дисциплин ещё нужен, чтобы с ней разобраться -- нужно как раз средство для разборок с этими дисциплинами, то есть методологические/трансдисциплины). То есть всю эту эпистемологию можно прямо привязывать к работе инженеров, операционных менеджеров, предпринимателей и т.д. -- ровно как в этой диссертации пытаются показать привязку эпистемологических идей критического рационализма к работам по стратегированию.
-- по этой линии можно аккуратно попробовать перетрактовать "критическое мышление" как мышление, использующееся в critical rationalism для собственно критики (по сути дела, оно сводится к логике, хотя завязано в том числе и на испытания/testing и суждениями тестируемости/проверяемости/фальсифицируемости теорий, типа работы Дойча о проверяемости эвереттовской квантовой механики https://www.sciencedirect.com/science/article/pii/S135521981530023X). Да, оно непродуктивно (ничего не создаёт, а только опровергает), но тем ведь и полезно! Главное, что появляется более-менее чёткое определение, интуитивно совместимое с тем бредом, который несут учителя критического мышления (помним, что critical thinking -- это чисто академическая дисциплина, легко выясняется тем, что ищут в Гугле её в начале вузовских семестров, а в остальное время никто об этом critical thinking и не вспоминает, не нужна никому эта дисциплина, нет у неё внятного содержания!).

Читаю твиттеры David Deutch (https://twitter.com/DavidDeutschOxf) и Judea Pearl (https://twitter.com/yudapearl), половина тамошнего материала про неадекватность отражения западной прессой ситуации с Палестиной и Израилем. Логика западных СМИ, похоже такая: "выселили четыре палестинских семьи из частной собственности израильтян -- мы недовольны! -- [выпустим за это больше четырёх тысяч ракет, и объявим по радио, что еврейскому народу не должно быть места на Земле, мы их всех уничтожим!] -- ах, как нам больно, нам неоправданно дали сдачи, применили излишнее насилие [за недовольство частной собственностью израильтян на жильё, мы хотим отнять это жильё по самую шею, то есть надо чтобы они тут не жили, не было ни их, ни их жилья, нужно ещё выпустить 10тыс.ракет, заграница нам поможет!]". Квадратные скобки значительной частью западной прессы опускаются, на что и указывают Давид и Джудиа. Скажем, NYT указывает, что палестинским деткам страшно, что на их головы прилетит что-то военное из Израиля. А что пропущено? В Израиле сотни тысяч детей, которым тоже страшно, что за последний десяток лет на их головы всё время летят ракеты из сектора Газа, а за последний месяц прилетело больше четырёх тысяч ракет, но об этом западные СМИ как-то не пишут.

Но половина материала из лент Дойча и Перла -- это "по работе". В частности, Перл напомнил о его статье 2019 года, где прямо показывается прикладное значение структурных причинных моделей для ситуаций из маркетинга/юнит-экономики: когда считается, сколько рекламы нужно вложить в unit, чтобы он стал клиентом. Говорится, что метод подсчёта с помощью SCM лучше, чем применяемый в классике A|B-testing. Вот эта статья: https://yadi.sk/i/R-ghSdLZxRfFBg. Дойч строго возражает против статистической физики, говоря, что физика должна быть детерминистской, то есть без случайностей ("бог не играет в кости", ага), но у него довольно много работ, где он рассказывает, каким образом учитывать неопределённости -- как минимум, различать неопределённость и вероятность! И он выступает против байесианской логики как логики науки (то есть против линии Jaynes и Pearl), где причинность тоже контрфактуальна (то есть "объяснительна", counterfactual mode of explanation как относительно новый способ доказательств), но показывает путь к тому, как таки работать с вероятностными моделями в физике (и тем самым везде). Например, вот эта работа: constructor theory of probability -- https://arxiv.org/abs/1507.03287.

Занялся (в очередной раз) проблемой стиля, этого близкого родственника "паттернированию" и прочему такому невнятному -- все эти "отличия, которые дают отличия", "знаки, которые не знаки" и прочая муть. "Стили менеджмента", "инженерные стили", "архитектурные стили" -- слово, которое вроде как понятно, но при ближайшем рассмотрении оказывается неопределимым. В этот раз заход сделаю на примере танцев, ибо если с системным мышлением и танцами хорошо получилось продемонстрировать выделение системных уровней как работу внимания, может и со стилем получится разобраться. Вот небольшой мой текст по переносу стиля движения (style transfer) в рамках исследований по AI: https://vk.com/wall-179019873_1236. Вообще, танцоры про слова "танец", "стиль", "форма", "структура" говорят удивительно невнятно. Вот типичный текст, где пытаются разбирать ровно вот эти термины (и после знакомства с этим текстом понятней не становится): https://yadi.sk/i/Eesl_d8CYtGr7Q. Трудность тут и в том, что вся эта "стилистика" проявляется статистически, а не строгими правилами: нейронные сети (включая мокрые) с этим срабатывают, а всякие синтаксисы и прочие формальные системы эти стили не ухватывают -- это верно и в отношении языковых стилей, и в отношении танцев, которые по сути своей "языки" (более того, сами термины "танец" и "стиль" оказываются во многих ситуациях взаимозаменяемыми!). И уж тем более по стилистике нет объяснительных теорий. Буду потихоньку рыть в этом направлении.

В субботу опять собрался на рейв "Кутёж Губалты", там кроме басов UK-undeground будут реггей-басы: https://vk.com/wall-204812426_3. Движение саундсистем, оказывается, и у нас в стране есть, https://en.wikipedia.org/wiki/Sound_system_(Jamaican). Тут всё честно: привезут дополнительных 4 саба 21".Когда-то в 70-х ещё годах прошлого века (а первую свою дискотеку как DJ я провёл в РГУ в марте 1977 года) мы шутили: "диджей -- это тот, кто таскает колонки". Ах, как мы были правы! На этом "рейве", правда, есть две засады (которые частично компенсируются уникальной музыкой с уникальным саундом):
1. Говорят про два "танцпола", хотя танцами там по факту не пахнет. Музыка, музыка, музыка. Но на этих рейвах не танцуют, разве что очень изредка, но и тут не слишком танцевально, скорее притоптывая и очень редко припригывая под музыку, а иногда и просто помахивая рукой в ритм. Иногда "для качества звука" ещё и ковёр можно на полу обнаружить (в том же ДК Культура в подвальчике), какие уж тут танцы!
2. Эти "танцполы" обычно оказываются крошечными комнатками (а на этой вечеринке один из танцполов будет "дворик", но и к нему наверняка это тоже относится). На вечеринке социальных/парных танцев туда влезло бы три-четыре пары, сольных танцоров — умножьте на два, при этом ограничьте возможность размахивать руками, чтобы кого-то не зацепить, и при этом уберите зрителей, чтобы место не занимали. Так что "крошечные нетанцполики".