Anatoly Levenchuk (ailev) wrote,
Anatoly Levenchuk
ailev

Мощнее и быстрее: в железе, софте и мясе.

1. Компьютерная архитектура медленно дрейфует вокруг наследия Intel 4004, но какие-то мелкие подвижки наблюдаются и тут. Вот только два примера:

-- Продолжается наступление по линии "ускорителей арифметики" -- Heterogeneous System Architecture (HSA Foundation, http://hsafoundation.com/) архитектурный стандарт для того, как системная архитектура компьютера будет включать кроме CPU разнообразные "ускорители" (GPU, DSP и т.д.). Провозглашается, что "first time ever: GPU and CPU have uniform visibility into entire memory space (up to 32GB)". AMD Mantle драйверы с базированием на HSA дают выигрыш примерно вдесятеро в играх по сравнению с "независимыми от аппаратной архитектуры" драйверами типа DirectX (http://www.engadget.com/2014/01/14/oxide-star-swarm-real-time-strategy-mantle-demo/, http://www.youtube.com/watch?v=QIWyf8Hyjbg) или не менее тормознутым и устаревшим OpenGL. Новые чипы под HSA пекутся в AMD как пирожки, и новости о свеженьком AMD Kaveri получают броские заголовки: "a solid gaming chip that's ahead of its time" http://www.engadget.com/2014/01/17/amd-kaveri-review-round-up/. Заявления там такие, что "вы можете играть современные игры на 30 кадров в секунду, и не иметь при этом дискретной графической карты" -- при сохранении всех преимуществ архитектуры и для неигровых приложений.

-- Есть какие-то шаги по направлению к ускорению работы с трипл-сторами ("графовыми базами данных"): Urika (то бишь eurika, юрика, то бишь "эврика") это аппаратный ускоритель для Big Data, выпускаемый YarcData (филиал Cray Inc. -- yarc это cray наоборот, любят там поиграть буквами). Тамошние умельцы (http://www.yarcdata.com/Resources/videos.php) изо всех подходов к BigData выбрали квад-стор и посадили его на железо (тут показано, как выглядит этот шкафчик: http://www.youtube.com/watch?v=H3Ux7vzmV_c). Для сисадмина это SuSE Linux компьютер, для спеца по базам данных это SPARQL endpoint, только вот жужжит этот SPARQL чрезвычайно быстро -- ибо софтовый движок трипл-стора подхакали под высокопроизводительную железку мейнфреймовой/суперкомпьютерной архитектуры. Как я понял, там классическое железо суперкомпьютеров Cray со 128 тредов на процессор, до 8000 процессоров -- это миллион тредов над доращиваемой до полупетабайта оперативной памятью. Это не специализированное пакетирование традиционного железа под BigData типа того, что делает SGI для Hadoop кластеров (http://www.datanami.com/datanami/2013-10-22/sgi_aims_to_carve_space_in_commodity_big_data_market.html), это действительно попытка подхода к графам с хардверной стороны (хотя мне не кажется, что там уж так сильно переделывали классическое железо Cray, но всё-таки).

2. Алгоритмика развивается стремительно.
-- machine learning выходит за пределы "просто статистики", пытаясь работать с супербольшими объемами данных (http://avlasov.livejournal.com/138257.html говорит пару слов об этом)
-- Big Data в связи с крайней разнородностью данных изобретает способы перехода к унифицированному "семантическому" (RDF) представлению, готовому к быстрым всевозможным запросам, и от dense matrixes с ключами для реляционок переходит к sparse matrixes для представления RDF и испытывает разные формы представления и алгоритмы обработки (http://en.wikipedia.org/wiki/Sparse_matrix). Поглядите на визуализации: насколько разные бывают данные -- http://www.cise.ufl.edu/research/sparse/matrices/
-- генетические (и близкие к ним разные другие оптимизаторы) алгоритмы ругали много лет (как и deep architectures до 2006г, впрочем) за отсутствие внятных результатов, но потихоньку пошли успехи. Вот как учат ходить, бегать и прыгать роботов: http://digg.com/video/watch-a-computer-try-to-learn-how-to-walk (спасибо ayoshi за наводку: на видео редкостное мимими!). Вот как научились распознавать изображения практически со 100% точностью (http://news.byu.edu/archive14-jan-objectrecognition.aspx): "Lee and his students fed their object recognition program four image datasets from CalTech (motorbikes, faces, airplanes and cars) and found 100 percent accurate recognition on every dataset. The other published well-performing object recognition systems scored in the 95-98% range. The team has also tested their algorithm on a dataset of fish images from BYU’s biology department that included photos of four species: Yellowstone cutthroat, cottid, speckled dace and whitefish. The algorithm was able to distinguish between the species with 99.4% accuracy".
-- Ontology Summit 2014 ставит задачу наладить мосты между традиционным (онто)логическим выводом (reasoning) и статистическим -- речь идёт о гибридном выводе, новых алгоритмах. В этой области пока не так много сделано, но перспективы неплохие. Например, если к обученной глубокой сетке применить операцию контрастирования/вербализации/скелетонизации (http://ru.wikipedia.org/wiki/%D0%92%D0%B5%D1%80%D0%B1%D0%B0%D0%BB%D0%B8%D0%B7%D0%B0%D1%86%D0%B8%D1%8F_%D0%BD%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D1%8B%D1%85_%D1%81%D0%B5%D1%82%D0%B5%D0%B9, http://www.softcraft.ru/neuro/ni/p12.shtml -- это ещё 2003г., сейчас наверняка есть что-то покруче), то можно получить "логически прозрачную сеть", т.е. такую сеть, на основе которой можно построить вербальное описание алгоритма получения ответа.

3. Правильно говорить не только о том, что мощнее и быстрее становится hardware и software, добираются уже и до wetware (нет, я тут не о временных мерах типа кофе вечером и ноотропы утром). Пекинский институт геномики ожидает, что скрининг эмбрионов при оплодотворении в пробирке может поднять IQ потомства на 20 пунктов -- т.е. мозговое мясо тоже подлежит прогрессу (http://www.wired.com/wiredscience/2013/07/genetics-of-iq/). Конечно, IQ это ни разу не мера умности (как и FLOPS ни разу не мера скорости вычислений), тем не менее полно исследований на тему "что такое умность человека и как её увеличить, подкрутив гены" (https://www.cog-genomics.org/static/pdf/bga2012.pdf -- "Genetic architecture of intelligence from SNP distance measures", неплохое название, да? Тамошняя организация занимается когнитивной геномикой: https://www.cog-genomics.org/). Полный человеческий геном сейчас обсуждают как секвенсировать полностью на материале всего из 10-12 клеток (это примерно 100 пикограмм ДНК) -- http://www.nature.com/nature/journal/v487/n7406/full/nature11236.html, так что все эти эмбрионы не сильно пострадают при скрининге. Оплодотворение в пробирке тоже сегодня упало в цене: $250 за приборный трах вместо $7500 (http://www.bbc.co.uk/news/health-23223752).
Subscribe
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

  • 5 comments