Anatoly Levenchuk (ailev) wrote,
Anatoly Levenchuk
ailev

Компьютеры меняют начинку, и быстро

Похоже, застой в хардверных компьютерных архитектурах закончился -- и до конца десятилетия компьютеры будут массово менять начинку.

HP опубликовала подробности своего нового технологического стека для компьютинга, The Machine (официальная страница вот, но на ней практически ничего нет -- http://www.hpl.hp.com/research/systems-research/themachine/). HP has stated that a Machine-like computer could offer six times the performance requiring 80 times less power. Для этого в ней будет мемристорный хардвер, принципиально новая операционка Carbon (и более традиционная Linux++ как промежуточный вариант для плохо переучиваемых программистов-старперов), графовые базы данных (вместо реляционных), готовность прототипов в 2016 году (first prototype that HP is working on will have 150 compute nodes with 157 petabytes of addressable memory, причём уровней памяти в традиционных компьютерах от 9 до 11, начиная с кэша L1 в процессоре и кончая диском, а тут архитектурная задача стоит уменьшить число этих уровней) -- http://www.goodgearguide.com.au/article/558681/hp-radical-new-machine-could-start-computing-by-2016/

Но это цветочки для традиционных вычислений. Менее традиционные вычисления будут, конечно, на neuromorphic chips (нейронных сетках), куда потихоньку будут переползать GPU -- я думаю, что в очень и очень краткосрочной перспективе победят не новые игроки с новыми чипами, а именно GPU архитектуры в связке с передовыми софтверными пакетами. Гляньте, первая же картинка хвастовства по поводу выхода ускорителя NVIDIA Tesla K80 содержит именно пример про deep learning (на примере 24x разгона пакета Caffe по сравнению с чистым CPU и вдвое большим, чем в K40 -- http://www.anandtech.com/show/8729/nvidia-launches-tesla-k80-gk210-gpu). Фишка в том, что вся архитектура GPU потихоньку разворачивается в этом направлении, становится neuromorphic в каком-то смысле. Поглядите: разгон для машинного обучения NVIDIA заботит явно больше, чем разгон для многих и многих других типов задач (хотя тут может быть и просто тот факт, что раньше в этом направлении просто не думали, а сейчас вдруг озаботились. Но я именно об этом и пишу: озаботились, и это будет направление главного удара -- вместо компьютерной графики): http://www.nvidia.com/object/tesla-servers.html.

Квантовый компьютинг -- это ещё один вариант развития событий. На прошлой неделе стало возможно получить бесплатное время на D-Wave компьютере NASA, новая реальность пришла уже к людям: http://www.usra.edu/quantum/rfp/. The specific machine installed at ARC currently has 509 qubits in the working graph, and this is planned to be upgraded in the next few months to an enhanced processor with more than 1000 qubits. Приложения? Да хоть те же приложения neuromorphic computing, с нейронами -- http://dwave.wordpress.com/2014/01/06/first-ever-dbm-trained-using-a-quantum-computer/. Каждое поколение квантового компьютера (по мере удвоения числа кубитов за год-полтора, тот же закон Мура, только в квантовый его профиль -- Rose's Law, ) резко начинает обгонять традиционные компьютеры и суперкомпьютеры как раз начиная с 2015г., когда будет выпущен чип на чуть более 1000 кубит, а в разработке уже чип с 2048 кубит: http://dwave.wordpress.com/2014/10/14/some-washington-pictures/, там можно говорить уже о конкуренции по скорости со всеми имеющимися на Земле компьютерами (вместе взятыми). Да, я понимаю, что сейчас идут споры о том, что D-Wave "ненастоящие квантовые компьютеры", но лиха беда начало. С кубитами человечество ещё толком не работало, но быстро-быстро учится. Овчинка явно стоит выделки. Я ожидаю, что через год-два появится кто-то кроме D-Wave, физика-то на месте не стоит.

Программное обеспечение, как водится, будет опаздывать. Интересно, кстати, как будет формулироваться закон "What Andy giveth, Bill taketh away" через десяток лет, какие там будут имена. Но закон сохранится, безусловно. Железа никогда много не бывает, что бы там ни говорили -- про 640Кб, которых хватит для всех разумных приложений (http://lurkmore.to/640_%D0%BA%D0%B8%D0%BB%D0%BE%D0%B1%D0%B0%D0%B9%D1%82) и восьмиядерные процессоры мы уже всё давно поняли.
Subscribe
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

  • 38 comments