Categories:

lytdybr

Выступил с рассказом об адаптации к системной инженерии схемы OMG Essence за последний десяток лет, включая вариант из "Методологии 2022", а также об адаптации схемы уровня мета-мета-модели к мета-модели. Видео https://t.me/incose_rus/192, слайды https://disk.yandex.ru/i/Dj3d6kPQ6jf0Ew. Что приятно, так Пётр Леонтьев сразу показал вариант адаптации, который он сделал для DevOps на основе этой схемы как canvas -- и я понял, что не нужно специально и отдельно делать canvas для этой адаптации. Ибо все берут yEd, и отлично обходятся без фломастера и распечатки canvas на большом листе бумаги. Но интересней было не это, а что он сделал "полуторную" мета-модель. Мета-мета-модель, например -- "воплощение системы", промежуточная модель DevOps будет "программно-аппаратный комплекс", мета-модель будет "банковский программно-аппаратный комплекс Опердень", а модель будет "Опердень версия 104 от 12:07 25 мартобря 2029". Я думаю, не нужно какого-то особого огорода городить по подсчёту этих "мета". Наши выпускники вполне с этими многоуровневыми адаптациями справятся. Но отметим: схеме два дня, а мне уже известно два полезных её использования. Всё работает, как задумано!

Корректуру в "Методологию 2022" я сегодня внёс (огромное спасибо Роману Варьянко, у него не только орфография-грамматика в правках, но он ещё и тычет меня носом в мои онтологические ляпы), так что завтра таки приступаю к переписке видеолекций в текст. Что радует, так это возможность их потом потихоньку переписывать -- видеолекции я не понимаю, как редактировать, их нужно просто переснимать заново. С одной стороны это быстро, с другой -- будет в итоге не слишком качественно, не будет кумулятивного эффекта от многократных проходов с улучшениями при переписке. Кумулятивные улучшения будут отражены на слайдах, но не в итоговом тексте. Так что я лучше сосредоточусь, и таки сделаю текст.

Вышла очередная статья про "AI идёт не туда, дебютных идей нет, грядёт очередная зима AI" -- https://medium.com/codex/ai-winter-is-coming-2527e333df38. Я категорически не согласен, можно спокойно закупаться попкорном и продолжать смотреть на два прорыва в неделю по линии AI:
-- Исследования по explainable AI вполне идут и в deep learning (начиная с объяснений, почему требуется именно deep). В том числе обсуждается "что такое объяснение" (там и "директивные объяснения", и "объяснения причинности по Pearl" и много других подходов), и это не эмуляция нейросеткой просто логического вычислителя (там ведь есть проблемки из онтологии по проведению вычисления в разных онтологиях как логических, так и вероятностных байесовских, и рассуждения просто требуют других подходов, чтобы не останавливаться на противоречиях при слишком большой степени формализма. Байесовские вычисления, например, заменяют квантовоподобными — там из колмогоровской вероятности убирают одну аксиомку, этим Андрей Хренников занимается в количестве).
-- Есть прорывы в физике и эволюционной биологии, показывающей параллельность термодинамики, эволюционной биологии и deep learning (укажу тут только на одну работу со специфической табличкой, поглядите хотя бы её, но работ на эту тему множество, и работают там именно квантовые физики, https://www.pnas.org/doi/full/10.1073/pnas.2120042119)
-- При выходе на большой масштаб сети, они неожиданно становятся способными рассуждать, это ещё недоисследовано, ибо масштаб таки довольно большой должен быть. Наиболее круто это показано в гифке дерева в https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html — и там logical inference chains появляется на 540млрд. параметрах)
-- Архитектура этих нейросеток ещё продолжает развиваться в сторону универсализации для разных задач (а интеллект понимается именно как способность решать разные задачи одной архитектурой — например, текст и картинки в одной архитектуре), например, CoCa https://ai.googleblog.com/2022/05/image-text-pre-training-with.html

Написал текст с перечислением направлений исследований по мультидансу: https://vk.com/wall-179019873_1541. Борщ в процессе его варки не очень похож на борщ, а деятельность по изготовлению космического корабля на заводе не похожа на полёт на космическом корабле. С чего бы оно в танцах было по-другому? Подождите, танцы будут, над этим работаем — и довольно длинный пост как раз о том, над чем именно работаем.

Мне когда-то ростовский филолог из Киева Женя Самойлович говорил в Москве, что люди никогда не учат языки на предмет доступа к негуманитарному знанию, или желанию понять чужую речь. Но очень часто им вдруг хочется изучить язык, чтобы прочесть какое-то художественное произведение в оригинале. Это парадоксально, но он как филолог ответственно это заявляет: желание прикоснуться к прекрасному на языке оригинала -- самое мощное в плане мотива изучения языка. Пост Владимира Гуриева полностью подтверждает его наблюдение -- https://www.facebook.com/vguriev/posts/10159185168473305