Anatoly Levenchuk (ailev) wrote,
Anatoly Levenchuk
ailev

lytdybr

Сходил в пятницу вечером на вечеринку в хакспейс "Сталь", там по-прежнему "после лекции в клубе танцы", только народ собирается такой, что танцев не было -- все разошлись в 23:30 после просто разговоров на разные темы. "Лекцией" было открытие "Венчурной академии создателей" (то бишь начало обучения мейкеров в стартапах). Посмотрим, что там будет: учить можно и мейкерству-инженерии (чего сейчас никто не делает), а можно учить питчить-презентовать (чем заняты все поголовно, все эти стартап-кемпы кроме презентаций и поиска бизнес-моделей не учат ведь тому, как управлять инженерной частью проекта и как разработкой заниматься). Вроде как заявления прозвучали, что учить будут именно мейкерству-инженерству, но кончилось всё традиционно "питчами", про инженерию было мало. Посмотрим, как всё будет развиваться.

Атмосфера, конечно, в этом хакспейсе правильная, и разговоры тоже правильные. Я бОльшую часть времени прообсуждал неинвазивные нейроинтерфейсы на оптической (инфракрасные диоды) основе -- рассматривали уже закупленные комплектующие для https://en.wikipedia.org/wiki/Near-infrared_spectroscopy (в том числе 32-битную крохотульку-АЦП от TI -- зачем он там такой точности?! А ещё такие компоненты не только малошумящие, но и дешёвые -- http://www.ti.com/product/ads1262). Вообще, речь шла о беспроводном мультимодальном (ЭЭГ плюс NIRS) шлеме. В хакспейсе было достаточно людей, чтобы с одними обсуждать паяльные станции, с другими пропускную способность разных радиоинтерфейсов, с третьими особенности нейроинтерфейсов, с четвёртыми возможную организацию работы в таком проекте. Понятное дело, такой перспективный проект (это ведь по факту ход на дешёвую томографию! https://en.wikipedia.org/wiki/Diffuse_optical_imaging, https://en.wikipedia.org/wiki/Medical_optical_imaging#Diffusive_optical_imaging_in_neuroscience, https://en.wikipedia.org/wiki/Optical_Tomography) сразу получил предложение на место в коворкинге -- главный разработчик глубоко задумался: он живёт на другом конце города.

Я дообсуждал там мои предложения по платформенному стеку, который может помочь и нейрофизиологам и нейрофизикологам (как ещё называть спецов по deep learning?): в обоих случаях нужна сильная платформа для массово-параллельной численной математики. Нужно, конечно, уточнять -- насколько float там могут быть короткими (в deep learning они согласны чуть ли не на 8 бит, почти довольны 12 и просто счастливы от 16, двойной точности там заведомо не нужно -- но непонятно, что нужно нейрофизиологам в этом плане. Хотя если там тоже будут распознавать сигналы глубокими сетками, а не работать с традиционным DSP, всё слипнется и склеится быстрей). Я по сравнению с набором платформ из http://ailev.livejournal.com/1207520.html предложил прикладной уровень разбить на собственно прикладной и когнитивной архитектуры. А на следующее утро оформил это предложением в совместную тусовку нейрожити и нейронежити -- они там как раз озабочены непонятками в организации работ. Без архитектуры/платформенности нельзя применить обратный закон Конвея, следовательно любая организованность работ будет произвольной. Ну, я прикинулся архитектором и дал предложения: https://www.facebook.com/groups/1602081160032874/permalink/1632214417019548/

А ещё я предложил MH-metaphor (в пандан к H-metaphor) в дискуссии по поводу человеко-машинных интерфейсов -- https://www.facebook.com/groups/1602081160032874/permalink/1632214417019548/ (в работе 2003 года http://ntrs.nasa.gov/search.jsp?R=20040031835 была предложена H-metaphor, метафора лошади для человека-оператора -- учёт того, что все современные управляемые системы киберфизические, то есть умные сами по себе. Так что это всё будет не непосредственное руление, а наездничество. Но если поглядеть, как человек устроен внутри себя, так там тоже есть низкоуровневая моторщина на базе древних нейронных систем и высокоуровневое управление этой более-менее моторщиной, часто рефлексивное. То есть все эти "управления лошадьми" больше сводятся к управлению более-менее понятливыми обезьянками, которые потом управляют менее понятливыми, но всё ещё более-менее автономными лошадьми моторных структур. Дальше по вкусу раскидывайте этих обезьянок и лошадей по компьютерным и живым нейроструктурам -- получайте разные архитектуры управления). Очень ценная дискуссия, много ссылок!

Нравится мне Julia, а приходится писать на Python -- написал на двадцать с небольшим строчек решение задачи http://rosalind.info/problems/gc/ (чтобы доказать жене, что там всего один цикл и три условных оператора -- и всё!). Дальше жена будет это растолковывать отроку, ибо у того произошёл некий ступор: предметное биологическое содержание переплелось с вычислением процентов (помним, что тема процентов у школьников обычно вызывает вопросы, даже если это простые проценты) и максимумов, переплелось с относительно новой для него обработкой строк, переплелось с винегретом управляющих структур и тем самым оказалось слишком много разных тем из разных предметов в одном флаконе: ровно то, что я хотел -- сборка межпредметного знания прежде всего, сборка знания из разных тем одного предмета, что тоже не так часто. Тренируется решение многих (десяток, два десятка) маленьких задач в одной задаче -- а не как в школьных задачках, "решение в три действия". Что мне обидно, так это выяснилось полное отсутствие переноса навыков работы с циклами и условными структурами у отрока с курса на КуМире на курс на Питоне. За прошедшее с того курса время (лето-осень 2012 года, например http://aalev.livejournal.com/1122.html) навык отроком был полностью потерян, обучение идёт буквально с нуля.

Возвращаясь к Julia и изучению языков: похоже, что основной фишкой этого языка идёт его максимальная приближенность к пакетным языкам (они мелькнули буквально лет на пять: все эти Ada и Modula -- а дальше были буквально смыты объект-ориентированностью). У инженеров и математиков есть шанс свои матричные операции и взятие интегралов выражать в этих языках без суровой ломки мозга на объект-ориентированную и функциональную парадигмы. Этот язык именно что продолжатель традиций Фортрана и Матлаба, да Питона в их процедурных частях. Но для желающих мультипарадигмальности там есть метапрограммирование, и в нём уж делается всё что душеньке угодно. Вот, например, реализация функционального программирования в Julia -- https://github.com/one-more-minute/Lazy.jl. Вот cheatsheet (краткий обзор) для Julia 0.3 -- https://dl.dropboxusercontent.com/u/8252984/julia.html, а вот недельной давности выложенное видео с обзором планов по развитию языка -- https://youtu.be/xUP3cSKb8sI

У меня почему-то сложилось впечатление, что DeepMind собрал всех инженеров-изобретателей в нейронных сетках -- и там будет массовый выход в физику (роботы, гуглемобили, дроны, и виртуальная физика -- игры). А Facebook собрал всех "опровергателей основ" (то есть там ведут фундаментальные исследования, приводящие к смене парадигмы). А Baidu просто прикладная лавка, там просто без затей и особой новизны просто будут выводить на рынок приложение за приложением. Из этого наблюдения я бы делал ставку на фейсбук: что-нибудь абсолютно крышесносящее может появиться именно оттуда. Но это чистые догадки, конечно. И вообще, это не футбол, а я не болельщик.

А про продолжающийся надуваться пузырь глубокого обучения немного инфографики тут: https://medium.com/@VentureScanner/the-state-of-artificial-intelligence-in-six-visuals-8bc6e9bf8f32
Subscribe
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

  • 32 comments