-- 2016, коннекционистская весна онтологической инженерии, https://ailev.livejournal.com/1283541.html (отмечаю стагнацию онтологической классики и взлёт вариантов knowledge graphs+нейросетки. Помним, что transformer появился только в 2017 году! Ещё и arument mining поминаю). И в этом же 2016 году было про онтологии и бибинарную модель мышления -- https://ailev.livejournal.com/1305176.html (культурное-дичок, формальнодискретное-непрерывное, вторая шкала по сути про края спектра формальности/строгости мышления, и там ризонер против нейросетки как реализационные механизмы для этих краёв. Но ведь есть ещё и середина, которую все ищут, и движение по спектру!).
-- 2018, онтологическая инженерия в 2018, https://ailev.livejournal.com/1447922.html (тут основная мысль, что онтологическая работа уже совсем-совсем ушла от классических онтологов, и ведётся в разных других местах. И даже не называется как онтологическая работа! Вывод нужен в ответах на вопросы, и там даже соревнования появились. Кстати, одно из помянутых соревнований вполне живо, там в мае 2020 было обновление -- как раз SoTA по поддержке ответов фактами, https://hotpotqa.github.io/, и сейчас в 2020 по QA такие работы как https://arxiv.org/abs/2006.04131).
-- 2020, июнь, пост https://ailev.livejournal.com/1525111.html, где я отвечаю на вопрос про моё мнение по онтологической организации данных. Моё мнение, что не upper ontology там нужна, а языковая модель, и ссылка на работу CYC 2010 года, где демонстрируется, что из модели мира в рассуждениях по domain подтягивается сильно больше common sense, чем можно ожидать. И чтобы напомнить: в 2019 люди в CYC занимались выводом в сверхбольших базах данных -- https://www.cyc.com/resources/publications, жизнь там не останавливалась.
-- 2020, вчерашний пост
-- 2020, появилась ведь ещё и причинность.
Тут ещё ключевой момент в том, что вычислительных мощностей для нормальной работы не хватает, банально и алгоритмы ещё сырые, и аппаратура дохлая. Вычислительная мощь в этих задачах опеределяющий фактор, тезис Sutton. Я как раз добавил оценки экспоненциального роста вычислительных возможностей, нужных для решения текущих задач в AI https://venturebeat.com/2020/07/15/mit-researchers-warn-that-deep-learning-is-approaching-computational-limits/ к давнишнему тексту про AI at Scale, гонке экзафлопсов -- https://ailev.livejournal.com/1519171.html. И ещё материал про петафлоп в коробке для пиццы -- новый процессор Graphcore, https://venturebeat.com/2020/07/15/graphcores-m2000-ai-computer-can-achieve-a-petaflop-of-processing-power/
Вот эти вероятностно-причинные эпистемологические онтоизыски с ответами на вопросы с аргументацией и будут дальше развиваться. А классическая онтологика выживает пока как knowledge graphs, и John Sowa правильно указывает, что там всё плохо: повторяются решения 60-х годов, только огромных размеров. Никакие "умности", наработанные за десятки лет, в этих knowledge graphs не замечены -- даже микротеории как в CYC, хотя без этого ведь никуда! И сам John Sowa пытается напирать на стандарт DOL, поскольку это интеграционный онтологический стандарт, в котором в основании честная логика и честная математика. Но нет интенциональности, причинности, байесовщины и прочей эпистемологичности, плюс гигантской модели языка/common sense, которые только и способны сделать из старинной идеи вычислительной метафизики что-то полезное.
UPDATE: обсуждение в фейсбуке -- https://www.facebook.com/ailevenchuk/posts/10218966256881449 (бесовщина, на выходе даёт шайтан-машину).
Пояснение: не хотел писать интенСиональность, чтобы не путать с математической интенсиональностью, интенЦиональность тут о прагматизме.