Anatoly Levenchuk (ailev) wrote,
Anatoly Levenchuk
ailev

Модель интеллектуальной обработки: ускорители в ассортименте. Вероятностный сопроцессор на подходе.

Моя модель интеллектуальной обработки сводится к разнообразию используемых обработок знаний (и тем самым применяемых в этих обработках спецпроцессоров -- ровно как в мозге довольно много разных "зон" с их специализацией), но в целом я бы выделил три основных работы (давно об этом думаю, вот, например, переписка июля 2003г. http://community.livejournal.com/openmeta/24040.html, но тут я добавлю куски):
1. Вероятностная работа со "смыслами" (контекст-анализ), определяющая предметную область в достаточной мере, чтобы разобраться с омонимами и вообще речью. Распознавание образов тоже сюда относится: отнесение каких-то "образов" к смыслам.
2. Эвристичные логические алгоритмы для высокопорядковых логик в рамках контекста/микротеории, найденной в пункте. Понятное дело, из-за NP-характера (запредельная вычислительная сложность) задачи эти все решения являются "вероятными", и не факт, что здесь тоже не будут работать вероятностные алгоритмы, связанные с "распознаванием образов". Cyc, например, решает такие задачи введением марковской логики (где логические высказывания снабжаются вероятностями их истинности).
3. Собственно "логика", подразумевающая "точное решение" (например, SAT). Но это совсем специальный случай, а не самый частый. Это только недоразумение, что компьютеры ассоциирууются сегодня только с этими алгоритмами.
4. А еще должны быть симуляционные модели, которые воспроизводят какие-то сложные куски реальности (можно думать о какой-нибудь Моделике).
5. И так далее...

Современные исследования тоже где-то в этом русле (например, поглядите на работы последних лет от Cyc: http://cyc.com/cyc/technology/pubs, или вспомните тот же пакет по работе с натуральными текстами Apache UIMA http://uima.apache.org/). Прорывы в софте налицо: одни и те же данные молотят самыми разными методами -- сочетая вероятностные расчеты и строгий логический вывод, а часто еще и численное моделирование в рамках одной задачи.

Но главное, намечается существенный прорыв в аппаратуре. Когда-то думали, что пролог-машины или лисп-машины решат все задачи AI, но теперь очевидно, что этого недостаточно. Нужны обильные вероятностные расчеты, и поэтому процессорные ускорители должны быть не только "логическими", но и "вероятностными". И вот оно -- готовятся к выпуску (скоро, в 2013 году) аппаратные ускорители x1000 для вероятностных алгоритмов: http://www.hpcwire.com/features/Startup-Aims-to-Shake-Up-Computing-with-Probability-Processing-100816474.html?viewAll=y

Компьютер потихоньку обрастает ускорителями: графика, DSP для аудио, вероятностные алгоритмы. Мне кажется, что появление этого "лирического процессора" будет критическим для работы с текстами на естественном языке, и тем самым критическим для продвижения к общему искусственному интеллекту. Так что -- ждем-с с нетерпением.

Я сейчас участвую (дистанционно) в семинаре по онтологическому моделированию. Основная процедура в онтологическом моделировании -- это поиск, который (увы и ах) совершенно неинтеллектуальный в текущих системах. А заканчивается эта процедура тем, что объем знаний, в котором нужно искать следующим модельерам, растёт. Я вот склоняюсь к мысли, что интеллектуальный поиск смог бы в разы и разы облегчить задачу промышленных модельеров данных. Но люди, которые занимаются интеллектуальным поиском, и промышленные модельеры практически незнакомы друг с другом. Наверное, придется их познакомить: если не я, то кто?!
Subscribe
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

  • 7 comments