-- 2016, коннекционистская весна онтологической инженерии, https://ailev.livejournal.com/1283541.html (отмечаю стагнацию онтологической классики и взлёт вариантов knowledge graphs+нейросетки. Помним, что transformer появился только в 2017 году! Ещё и arument mining поминаю). И в этом же 2016 году было про онтологии и бибинарную модель мышления -- https://ailev.livejournal.com/1305176.html (культурное-дичок, формальнодискретное-непрерывное, вторая шкала по сути про края спектра формальности/строгости мышления, и там ризонер против нейросетки как реализационные механизмы для этих краёв. Но ведь есть ещё и середина, которую все ищут, и движение по спектру!).
-- 2018, онтологическая инженерия в 2018, https://ailev.livejournal.com/1447922.html (тут основная мысль, что онтологическая работа уже совсем-совсем ушла от классических онтологов, и ведётся в разных других местах. И даже не называется как онтологическая работа! Вывод нужен в ответах на вопросы, и там даже соревнования появились. Кстати, одно из помянутых соревнований вполне живо, там в мае 2020 было обновление -- как раз SoTA по поддержке ответов фактами, https://hotpotqa.github.io/, и сейчас в 2020 по QA такие работы как https://arxiv.org/abs/2006.04131).
-- 2020, июнь, пост https://ailev.livejournal.com/1525111.html, где я отвечаю на вопрос про моё мнение по онтологической организации данных. Моё мнение, что не upper ontology там нужна, а языковая модель, и ссылка на работу CYC 2010 года, где демонстрируется, что из модели мира в рассуждениях по domain подтягивается сильно больше common sense, чем можно ожидать. И чтобы напомнить: в 2019 люди в CYC занимались выводом в сверхбольших базах данных -- https://www.cyc.com/resources/publications, жизнь там не останавливалась.
-- 2020, вчерашний пост vvagr https://www.facebook.com/victor.agroskin/posts/4293851813965910 про всё то же самое с лаконичным содержанием "чорт, как же напрягает изучать месяцами новую (для меня) предметную область, и обнаруживать в ней только лишь статьи не позднее 2011 года. ну 2013. как будто она закрылась, эта самая область (", и мой ответ "Не закрылась. Просто направление ветра переменилось ))) Как раз в 2012 году, если помнишь ))) [победа свёрточных сеток в соревновании ImageNet]", на что Виктор ответил, что результатов у нейросеток, сравнимых с результатами классических онтологов до сих пор нет, и новых результатов у классических онтологов тоже нет, все задачи так и стоят нерешёнными. Я отвечал, что если бы продолжали эти задачи решаться прежними методами, так и остались бы эти задачи не решёнными! А теперь брезжит шанс. Нужно ж было ещё вычислительную инфраструктуру подтянуть до правильных масштабов (причём прежними ручными методами масштабов недостижимых!). Опять же, и постановку задач нужно было существенно поменять. Не все прошлые задачи представляются сегодня хорошо поставленными и осмысленными. Ну, и видел я эти онтологические помойки (в CYC ещё хоть как-то была попытка уменьшить помойку через микротеории, но вот в ISO 15926 там мрак был внутри онтологии, использовать было просто нельзя по совокупности причин. Да, помоечность онтологий никто не отменял, равно как дикую трудоёмкость создания помоек). Так что всё одно нужно идти другими путями.
-- 2020, появилась ведь ещё и причинность. vvagr находит argument mapping (не путать с майнингом!) https://en.wikipedia.org/wiki/Argumentation_scheme и https://en.wikipedia.org/wiki/Argument_map, я отмечаю его в посте https://ailev.livejournal.com/1527250.html и дальше в фейсбук-дискуссии к посту kapterev добавляет про issue mapping https://en.wikipedia.org/wiki/Issue-based_information_system, а vvagr добавляет про докрутку всей этой классической логическоей аргументационно-причинной механики до байесовской в трудах Matthias Grabmair https://www.lti.cs.cmu.edu/people/222217573/matthias-grabmair ещё в 2010 году, https://drive.google.com/file/d/0Bx2Wbx6CAo3IUm1YNlY0dkVxNmc/view. Сейчас Matthias Grabmair продолжает работы по extracting representations и ответам на вопросы -- https://arxiv.org/search/?searchtype=author&query=Grabmair%2C+M
Тут ещё ключевой момент в том, что вычислительных мощностей для нормальной работы не хватает, банально и алгоритмы ещё сырые, и аппаратура дохлая. Вычислительная мощь в этих задачах опеределяющий фактор, тезис Sutton. Я как раз добавил оценки экспоненциального роста вычислительных возможностей, нужных для решения текущих задач в AI https://venturebeat.com/2020/07/15/mit-researchers-warn-that-deep-learning-is-approaching-computational-limits/ к давнишнему тексту про AI at Scale, гонке экзафлопсов -- https://ailev.livejournal.com/1519171.html. И ещё материал про петафлоп в коробке для пиццы -- новый процессор Graphcore, https://venturebeat.com/2020/07/15/graphcores-m2000-ai-computer-can-achieve-a-petaflop-of-processing-power/
Вот эти вероятностно-причинные эпистемологические онтоизыски с ответами на вопросы с аргументацией и будут дальше развиваться. А классическая онтологика выживает пока как knowledge graphs, и John Sowa правильно указывает, что там всё плохо: повторяются решения 60-х годов, только огромных размеров. Никакие "умности", наработанные за десятки лет, в этих knowledge graphs не замечены -- даже микротеории как в CYC, хотя без этого ведь никуда! И сам John Sowa пытается напирать на стандарт DOL, поскольку это интеграционный онтологический стандарт, в котором в основании честная логика и честная математика. Но нет интенциональности, причинности, байесовщины и прочей эпистемологичности, плюс гигантской модели языка/common sense, которые только и способны сделать из старинной идеи вычислительной метафизики что-то полезное.
UPDATE: обсуждение в фейсбуке -- https://www.facebook.com/ailevenchuk/posts/10218966256881449 (бесовщина, на выходе даёт шайтан-машину).
Пояснение: не хотел писать интенСиональность, чтобы не путать с математической интенсиональностью, интенЦиональность тут о прагматизме.