-- Продолжается наступление по линии "ускорителей арифметики" -- Heterogeneous System Architecture (HSA Foundation, http://hsafoundation.com/) архитектурный стандарт для того, как системная архитектура компьютера будет включать кроме CPU разнообразные "ускорители" (GPU, DSP и т.д.). Провозглашается, что "first time ever: GPU and CPU have uniform visibility into entire memory space (up to 32GB)". AMD Mantle драйверы с базированием на HSA дают выигрыш примерно вдесятеро в играх по сравнению с "независимыми от аппаратной архитектуры" драйверами типа DirectX (http://www.engadget.com/2014/01/14/oxide-star-swarm-real-time-strategy-mantle-demo/, http://www.youtube.com/watch?v=QIWyf8Hyjbg) или не менее тормознутым и устаревшим OpenGL. Новые чипы под HSA пекутся в AMD как пирожки, и новости о свеженьком AMD Kaveri получают броские заголовки: "a solid gaming chip that's ahead of its time" http://www.engadget.com/2014/01/17/amd-kaveri-review-round-up/. Заявления там такие, что "вы можете играть современные игры на 30 кадров в секунду, и не иметь при этом дискретной графической карты" -- при сохранении всех преимуществ архитектуры и для неигровых приложений.
-- Есть какие-то шаги по направлению к ускорению работы с трипл-сторами ("графовыми базами данных"): Urika (то бишь eurika, юрика, то бишь "эврика") это аппаратный ускоритель для Big Data, выпускаемый YarcData (филиал Cray Inc. -- yarc это cray наоборот, любят там поиграть буквами). Тамошние умельцы (http://www.yarcdata.com/Resources/videos.php) изо всех подходов к BigData выбрали квад-стор и посадили его на железо (тут показано, как выглядит этот шкафчик: http://www.youtube.com/watch?v=H3Ux7vzmV_c). Для сисадмина это SuSE Linux компьютер, для спеца по базам данных это SPARQL endpoint, только вот жужжит этот SPARQL чрезвычайно быстро -- ибо софтовый движок трипл-стора подхакали под высокопроизводительную железку мейнфреймовой/суперкомпьютерной архитектуры. Как я понял, там классическое железо суперкомпьютеров Cray со 128 тредов на процессор, до 8000 процессоров -- это миллион тредов над доращиваемой до полупетабайта оперативной памятью. Это не специализированное пакетирование традиционного железа под BigData типа того, что делает SGI для Hadoop кластеров (http://www.datanami.com/datanami/2013-10-22/sgi_aims_to_carve_space_in_commodity_big_data_market.html), это действительно попытка подхода к графам с хардверной стороны (хотя мне не кажется, что там уж так сильно переделывали классическое железо Cray, но всё-таки).
2. Алгоритмика развивается стремительно.
-- machine learning выходит за пределы "просто статистики", пытаясь работать с супербольшими объемами данных (http://avlasov.livejournal.com/138257.html говорит пару слов об этом)
-- Big Data в связи с крайней разнородностью данных изобретает способы перехода к унифицированному "семантическому" (RDF) представлению, готовому к быстрым всевозможным запросам, и от dense matrixes с ключами для реляционок переходит к sparse matrixes для представления RDF и испытывает разные формы представления и алгоритмы обработки (http://en.wikipedia.org/wiki/Sparse_matrix). Поглядите на визуализации: насколько разные бывают данные -- http://www.cise.ufl.edu/research/sparse/matrices/
-- генетические (и близкие к ним разные другие оптимизаторы) алгоритмы ругали много лет (как и deep architectures до 2006г, впрочем) за отсутствие внятных результатов, но потихоньку пошли успехи. Вот как учат ходить, бегать и прыгать роботов: http://digg.com/video/watch-a-computer-try-to-learn-how-to-walk (спасибо
-- Ontology Summit 2014 ставит задачу наладить мосты между традиционным (онто)логическим выводом (reasoning) и статистическим -- речь идёт о гибридном выводе, новых алгоритмах. В этой области пока не так много сделано, но перспективы неплохие. Например, если к обученной глубокой сетке применить операцию контрастирования/вербализации/скелетонизации (http://ru.wikipedia.org/wiki/%D0%92%D0%B5%D1%80%D0%B1%D0%B0%D0%BB%D0%B8%D0%B7%D0%B0%D1%86%D0%B8%D1%8F_%D0%BD%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D1%8B%D1%85_%D1%81%D0%B5%D1%82%D0%B5%D0%B9, http://www.softcraft.ru/neuro/ni/p12.shtml -- это ещё 2003г., сейчас наверняка есть что-то покруче), то можно получить "логически прозрачную сеть", т.е. такую сеть, на основе которой можно построить вербальное описание алгоритма получения ответа.
3. Правильно говорить не только о том, что мощнее и быстрее становится hardware и software, добираются уже и до wetware (нет, я тут не о временных мерах типа кофе вечером и ноотропы утром). Пекинский институт геномики ожидает, что скрининг эмбрионов при оплодотворении в пробирке может поднять IQ потомства на 20 пунктов -- т.е. мозговое мясо тоже подлежит прогрессу (http://www.wired.com/wiredscience/2013/07/genetics-of-iq/). Конечно, IQ это ни разу не мера умности (как и FLOPS ни разу не мера скорости вычислений), тем не менее полно исследований на тему "что такое умность человека и как её увеличить, подкрутив гены" (https://www.cog-genomics.org/static/pdf/bga2012.pdf -- "Genetic architecture of intelligence from SNP distance measures", неплохое название, да? Тамошняя организация занимается когнитивной геномикой: https://www.cog-genomics.org/). Полный человеческий геном сейчас обсуждают как секвенсировать полностью на материале всего из 10-12 клеток (это примерно 100 пикограмм ДНК) -- http://www.nature.com/nature/journal/v487/n7406/full/nature11236.html, так что все эти эмбрионы не сильно пострадают при скрининге. Оплодотворение в пробирке тоже сегодня упало в цене: $250 за приборный трах вместо $7500 (http://www.bbc.co.uk/news/health-23223752).