Anatoly Levenchuk (ailev) wrote,
Anatoly Levenchuk
ailev

Ноябрьский форсайт нейронета

В прошлую субботу состоялся ноябрьский форсайт нейронета. Я планировал сразу отписаться по этому поводу, но как-то не сложилось, а сейчас уже не кажется интересным много и подробно писать -- так что коротенечко.

Было сильно поменьше научной фантастики, нежели в октябре (http://ailev.livejournal.com/1090080.html). Групп было три, а состав форсайтящих поменялся по сравнению с октябрём довольно существенно.

Группа "индивида" действительно попыталась представить работу с нейроинтерфейсами вне сети. Это было настолько удивительно, что я (и большинство остальных, как я подозреваю) полчаса не могли понять, что же пыталась сделать группа. А группа пыталась главным образом подумать над тем, что можно было бы сделать, если бы был надёжный и понятно работающий нейроинтерфейс, ну хоть какой-нибудь. Эту группу нужно сразу сюда: http://neurogadget.com/ (там как раз новости по нейроинтерфейсам, и мало что из этого как-то связано с сетью. Правда нейроинтерфейсы пока более чем простые, но уж какие есть. Более увлекательно сразу смотреть по вот этому тэгу: http://neurogadget.com/tag/neuroscience, но там явно не следят за всеми новостями).

Группа этики перешла от обсуждения этики к вопросам праксеологии. Какова была бы праксеология, если бы у нас кроме деятелей-принципалов были бы в изобилии их более-менее автономные агенты ("дубли" из "Понедельник начинается в субботу" -- плюс учитываем, что создание дублей не столь уж ресурсоёмко).

Наша группа "коллектива" занялась попытками описать архитектуру нейронета так, как будто это обычный интернет -- решив, что просто будем добавлять недостающее к уже существующей Сети, если в этом будет необходимость (сеть эту стали называть V8 -- просто продолжив ряд с V4 и V6. Ну, и широкополосность там должна быть ой-ой-ой, много ведь людей захотят стримить полный поток прямо с глазного нерва, добавляя много чего вокруг ещё и с окружающих вполне хардверных видеокамер высокого разрешения. Так, чтобы было).

Решили, что пока "интернет" будем понимать именно как "сеть сетей" (классическое понимание), а не народное "все сервисы, пользующиеся интернетом". Интересно, что "телефон" остался как сеть связи, ибо нет имеющих собственную память и разумение телефонных сервисов. А вот в нейронете такие сервисы будут, поэтому нейронетом будут называть не только саму сеть, но и все доступные через эту сеть сервисы. Но на форсайте мы договорились, что будем много более классичны -- и нейронет тоже пока будет только сеть, а не сеть и всё через неё доступное.

Для начала решили, что через нейронет будут общаться нейросубстраты с себе подобными нейросубстратами, обычными людьми через обычные интерфейсы и вещами из "интернета вещей". Общаться они будут через адаптеры (как и в случае интернета: все эти "сетевые карты", "контроллеры", "модемы" одним концом прямо в нейросубстрат, другим концом прямо в линию связи). Адаптеры будут сремительно умнеть, контроллер в них будет всё более и более мощный и самостоятельный. Помним, что чрезмерно распухший по ителлекту адаптер называется агентом.

Всё это происходит уже и сейчас. Распознавание голоса происходило в облаках, теперь уже автономно. Интеллектуальная поддержка SIRI пока происходит в облаках, но такого уровня поддержку мало что мешает тоже отправить в автоном поближе к телу пользователя. Но самое интересное для нейроета в проекте Samsung SAMI, в который ушёл Luc Julia, ранее разрабатывавший SIRI в Apple (http://www.macworld.com/article/2062280/apples-siri-chief-moves-to-samsung-to-build-connected-device-platform.html). Представляете, если аналог SIRI всё более и более умно начнёт разбираться для вас со всё более и более умными окружающими вас вещами -- начиная с заявленных часов, весов, чайников? Нейроинтерфейс и его адаптер у вас самих или у вашего соседа будут для такого приложения лишь одним из многочисленных устройств для сбора и обработки данных.

Этот же тренд может быть поддержан облачным IBM Watson -- ему открывают API и отдают его на растерзание разработчикам, дистантно в облаке (http://www-03.ibm.com/press/us/en/pressrelease/42451.wss). Ничего не мешает нейронет-адаптеру пользоваться всеми этими интерфейсами к внешним интеллектам, окружающим вещам, другим адаптерам.

Но это я чуть отвлёкся на свежие breaking news. А на самой форсайт-группе обсуждалось, что если уж у нас есть нейроадаптор, то можно поставить два таких адаптора на один мозг и иметь удовольствия интеллектуального модулирования межмозговой связи (что очень заинтересовало присутствовавших при обсуждении людей из лаборатории http://rebrain.2045.ru/).

В самом интернете нам придётся сделать протокол neuro: (как http:) для передачи данных и стрима данных, а также разобраться с форматом передаваемых данных (в случае http: это HTML). Даже нынешние данные с разнообразных полиграфов несовместимы друг с другом: ситуация очень похожа на ситуацию с видеокодеками, когда этих кодеков миллион, и нужно что-то делать. Основных решений тут может быть два:
-- нейронетный аналог контейнера "матрёшка" (.mkv), который несёт сложно устроенную бинарную информацию и знает про неё только имена кодеков.
-- какой-то "резиновый" стандарт типа ISO 15926, который будет нейтральным по отношению к производителям адаптеров стандартом передачи информации, снятой с нейроинтерфейса (или передаваемой в нейроинтерфейс). В этом случае первое что нужно понимать, это что там за онтология этой "нейроинформации" -- что передавать-то будем?!

Самым интересным для меня было тут подумать, чего не хватает в ISO 15926, чтобы сразу быть использованным (иногрируем факт, что пока нечего передавать в нейтральном по отношению к каким-то вендорам нейроадапторов формате):
-- он чрезвычайно пушист. Нужно что-то много более бинарное, а не XML-RDF-OWL и все связанные с этим убогим стеком семантического веба накладные расходы на чтение-запись.
-- сейчас этот стандарт не приспособлен для стриминга данных. А стриминг в нейронете будет. Стриминг важен был бы даже для инженерных приложений: для передачи данных датчиков стадии эксплуатации.
-- вообще нет намёков на онтологию "нейро" (но этих намёков нет пока и у всех участников форсайта. Пока все идут проторенной дорожкой и предлагают передавать биометрию -- пульс, температуру, ЭКГ и в меру возможности ЭЭГ. Можно начинать с этого, но это совсем не "нейро"). Тут как раз просто: нужно делать рабочую группу и выпускать RDL хоть сейчас, были бы люди, знающие предметную область.

Но предметную область в её сугубо нейроинтерфейсной специфике, похоже, никто из собравшихся пока не знает -- "нейро" слов не звучало совсем. И то верно, не информация же по спайкам отдельных нейронов будет передаваться по нейронету? Но если нет, то что тогда?!

P.S. Опечатку "нейроета" править не стал. Ибо это тоже в тему: всем было абсолютно понятно, для чего будет использоваться нейронет на первых (а также вторых и третьих) порах: там будут киски и киски!
Subscribe
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

  • 14 comments