Anatoly Levenchuk (ailev) wrote,
Anatoly Levenchuk
ailev

Суббота вечер: декабрьская пасха, суперкомпьютерная микрореволюция, кнопочные и ручные аккорды

Дитятко уже пару дней одержим идеей красить яйца, мы никак не могли понять, почему. А сегодня жена принесла с прогулки в Терлецком парке распустившиеся почки вербы, точь в точь апрельского розлива (россыпа? выгона? среза?). Все сразу же стало понятно: завтра вербное воскресенье!

Люблю весну в начале мая. И в декабре ее люблю.
* * *
Почитал немного про персональные суперкомпьютеры на концепте GPGPU (general-purpose computing on graphics processing units, http://www.gpgpu.org) -- NVIDIA CUDA, AMD ATI Stream (драйвер будет доступен 10 декабря), будущую Intel Larrabee. Общий язык для всех хардверных вариантов этой технологии OpenCL только-только специфицирован (http://www.khronos.org/opencl/).

CUDA уже сейчас круто меняет жизнь у многих и многих людей. Так, 3млн. пользователей Mathematica от Wolfram Research получили 18 ноября 10-100x ускорение работы, если на их компьютерах установлены видеокарты NVIDIA (http://www.nvidia.com/object/io_1227010734073.html). Думаю, в течение года многие долгосчитающие приложения последуют тем же путем. А если учесть выпуск суперкомпьютера Tesla, который предлагает за $10К 4Tflop (http://www.nvidia.com/object/io_1227008280995.html), то можно считать, что как раз на днях свершилась маленькая революция.

Но эта революция актуальна пока для очень небольшого числа приложений. Вот типичный стартап этой новой суперкомпьютер-на-графкартах волны: http://www.rapidmind.net. Как обычно, медицинская аналитика, финансовая аналитика, пересчет видео из высоких разрешений в низкое. И всё.

А ведь эти персональные параллельные архитектуры адресуют ахиллесову пяту всех искусственноинтеллектуальных методов: слишком долгий счет. Увы, экспоненциально долгий. Но ведь и в начале экспоненты можно неплохо поразвлекаться. Странно, что на эту тему почти ничего не находится, кроме ускорения нейронных сетей. Для меня нейронные сети как раз маргинальны для задач AI. Я попробовал поискать, делает ли кто на этих архитектурах графовые алгоритмы. Да, делает, ускорение в 35 раз по сравнению с "обычным стиральным порошком" -- но сходу я нашел только одну такую работу (http://www.nvidia.com/content/cudazone/CUDABrowser/downloads/Accelerate_Large_Graph_Algorithms/HiPC.pdf).

Интересно, если пересадить на OpenCL (или хотя бы CUDA) приложения semantic web, движок CYC и т.д. -- что было бы? Почему все они этого до сих пор не сделали? Или мы узнаем об этих работах буквально завтра, когда выйдет очередная серия пресс-релизов?
* * *
Вдруг заметил, что аккорды, которые берутся на моем Korg нажатием падов, звучат совсем не так, как играемые мной с клавиатуры. Такое впечатление, что звучит какой-то другой аккорд. Но достаточно передать исполнение одной единственной ноты из правой руки в левую, как аккорд начинает звучать так же, как "компьютерный"!

Оказалось, что вся разница в звучании проистекает из-за моего неумения обеспечить одинаковую силу удара каждым пальцем правой руки, ежели задействую более трех (а то и двух) ее пальцев и не луплю по клавишам со всей силы (тогда сила удара клиппируется клавиатурой, и все сразу ОК). Левая рука у меня в этом специфическом аспекте много лучше, и аккорды облагораживаются простой передачей нот из правой руки в левую.

Никогда бы не подумал, что все эти нюансы так сильно влияют на звучание. Если бы не было "компьютерного эталона" -- ни за что бы не догадался.
Subscribe
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

  • 22 comments