Или народная забава зимы 2017 -- получение качественного фото из GameBoy камеры (190*144 пикселя, 4 оттенка серого): http://www.pinchofintelligence.com/photorealistic-neural-network-gameboy/. Или интерполяция между шрифтами -- https://patrickgadd.github.io/feel-the-kern/. Вот такое нынче хоббийное машинное обучение: либо развлекаешься, программируя Arduino, либо то же самое почти-ардуино обучая. Можно играть на пианино с нейросеткой на пару, Гугль выпустил вчера веб-приложение в открытый доступ: https://aiexperiments.withgoogle.com/ai-duet/view/
Это обыденность. Это всё на первых страницах самых разных СМИ, на первых страницах выдачи Гугля. Мне же кажется, что судьбы мира стремительно меняются событиями, о которых можно прочесть не на первых, а иногда даже и не на вторых страницах. Эти события не попсовы, их легко не заметить.
Вот я, например, уже несколько дней возвращаюсь к слайдам 0.288mW процессора с памятью для deep learning (374GOPS/W) и задумываюсь о судьбах мира глядючи именно на них -- https://reconfigdeeplearning.files.wordpress.com/2017/02/isscc2017-14-7visuals.pdf. Вот ещё из этой же серии, с заголовком "процессор на 0.3-2.6 тераопераций в секунду на ватт с масштабируемой точностью для крупномасштабных свёрточных сетей реального времени", https://arxiv.org/abs/1606.05094. Все они для 40нм, кто ж такое прямо сейчас пустит на 14нм! Погляжу в очередной раз на эти слайды, и судьбы мира начинают видеться мне всё менее и менее определёнными.
Или решение проблемы с выучиванием отношений. Новая работа DeepMind -- Discovering objects and their relations from entangled scene representations, https://arxiv.org/abs/1702.05068. Тут нужно понимать, что картинки, аудио, тексты для нейросетей вполне однородны, мультимодальность не такая страшная проблема, как в традиционном программировании. Так что прогресс в выучивании/моделировании отношений между объектами в видео вполне можно затем перенести в отношения между объектами в тексте. Ещё подумалось, что DeepMind из London, United Kingdom. Британские учёные, ага.
Растущий интеллект нейросеток и сопутствующих им технологий машинного обучения хорошо бы как-то оценивать, при всей безнадёжности такого оценивания. В этой области всё время что-то происходит, а метрики оценки людей и сетей сближаются. Вот, например, предлагют замерять крутость сеток так же, как крутость людей -- по Item Responce Theory (любимая теория p2004r, он регулярно мне её в комментах поминает, говоря об обучении людей -- http://ailev.livejournal.com/1263070.html?thread=13636574#t13636574, http://ailev.livejournal.com/1280262.html?thread=13896966#t13896966). Я её упоминал в докладе об автоматизации образования (на слайде 14 "дисциплины в обучении: есть ли там наука?!" в https://www.slideshare.net/ailev/ss-71186567). А вот тут её отличненько применяют для оценки нейросеток: An Analysis of Machine Learning Intelligence -- https://arxiv.org/abs/1702.04811.
Текущий тренд -- попытка возврата к концепции IA (intelligence augmentation -- https://ru.wikipedia.org/wiki/Усиление_интеллекта, ход на экзокортекс) вместо текущей линии на AI (artificial intelligence в его высшем проявлении AGI, "человекоподобный" общий искусственный интеллект, т.е. автономный более-менее разумный агент, ход на ассистента).
Это всё про границы антропоцентризма, любые решения в этих обсуждениях будут временными -- развитие технологий интеллекта все различия как подчеркнёт (технологии ведь не в человечью сторону будут развиваться! на выходе этого прогресса будут совсем не люди!), так и размоет -- ибо с этими технологиями можно будет поговорить, а аватары у них будут самые мимимишные, и эта внешняя антропоморфность будет срывать человеческие крыши. Какой-нибудь Нью-Стив-Джобс скажет, что "наши роботы должны быть такими, чтобы их людям захотелось лизнуть" -- и так и будет! Ещё и будут подстраивать внешность под индивидуальный вкус общающихся с этими роботами людей. Так что защитников роботов среди людей будет более чем достаточно.
Увы, я не ожидаю мирного и радостного решения проблем мирного сосуществования людей, детей, собачек, роботов: всякий аболиционизм в конечном итоге заканчивается какой-нибудь гражданской войной (при этом освобождаемые зачастую даже не являются сторонами в этой войне!). И если детей и собачек особо не спрашивают, и их аргументация не учитывается, то через некоторое время роботов можно будет спросить -- не столько про мнение самих роботов, сколько про мнение людей. К этому начинают подбираться уже сейчас: inverse reinforcement learning (https://people.eecs.berkeley.edu/~pabbeel/cs287-fa12/slides/inverseRL.pdf) предлагается использовать для того, чтобы выяснить ценности людей -- вытащить человеческую reward function или utility function: https://jsteinhardt.wordpress.com/2017/02/07/model-mis-specification-and-inverse-reinforcement-learning/. Сетки как люди, люди как сетки, людям хочется узнать, как работают и люди, и сетки.
При этом я регулярно писал про людские права роботов (вот, например, 9 лет назад, http://ailev.livejournal.com/645241.html, вот 7 лет назад -- http://ailev.livejournal.com/808365.html, а последний раз меньше месяца назад -- http://ailev.livejournal.com/1326566.html), но это всё было очень далеко от России. Но вот и в России начали появляться правоведческие тексты на эту тему не на сайтах гиков, а на самых что ни на есть юридических сайтах: https://zakon.ru/blog/2017/02/15/mechtayut_li_androidy_ob_elektroovcah. Но эти комментарии не будут успевать делать, ситуация будет меняться быстрей, чем правоведы будут соображать -- по самым разным прогнозам tipping point будет где-то в 2020 году.
Это всё свеженькое, последней недели, и такого сейчас много каждый день -- только нужно смотреть не на первые страницы попсовых СМИ, а на вторые страницы профессиональных. И читать между строк: "мене, текел, фарес".
UPDATE: обсуждение в фейсбуке -- https://www.facebook.com/ailevenchuk/posts/10209431248312194