
Объединенная помощь памяти в CUDA 6 упростит для программистов писать код для совокупностей, каковые включают акселераторы GPU.Nvidia усиливает собственную платформу CUDA для упрощения для разработчиков программе для совокупностей той функции GPU акселераторы.Старшее значащее улучшение в CUDA 6 есть помощью объединенной памяти, включая разработчикам, каковые пишут код, что больше не будет касаться тем, где эти при попытке действенно применять графические возможности, по словам должностных лиц Nvidia.
Вместо этого возможности управления памятью в CUDA решат, должны ли эти быть в ЦП либо GPU.Это «значительно упрощает» программистов работы, должны сделать при создании кода для ускоренных GPU совокупностей, по словам Сумита Гупты, председателя совета директоров Тесла Ускоренные Вычислительные продукты в Nvidia.
«Это – что-то, что разработчики задавали вопросы в течение многих лет», сообщил Гупта eWEEK.Прежде, данные в ЦП должны были быть перемещены в GPU, где это выполнялось и после этого попятилось к ЦП.
Эти должны были бы быть скопированы, создав многократные пулы данных и заставив разработчиков должными быть включать кодирование, которое указало, куда эти пошли. Та работа управления памятью, которая до сих пор пребывала с программистом, может сейчас быть выполнена объединенными возможностями управления в CUDA, сообщил Гупта.
Объединенное объявление памяти Nvidia 14 ноября появляется та же семь дней, что должностные лица Advanced Micro Devices заявили о аналогичных возможностях в его ускоренных блоках обработки (APUs), каковые являются процессорами AMD, каковые интегрируют GPU с ЦП на том же куске кремния. В объявлении о нависшей отгрузке низкой мощности компании APU «Kaveri» должностные лица заявили, что GPU и ЦП на микросхеме совместно применяют ту же память посредством спецификации AMD HUMA, разрешая разработчикам создать приложения, не имея необходимость нервничать о том, действенно применяет ли код память GPU либо ЦП. То решение принято в APU.
Неспециализированная память в APU есть главной ролью роста AMD неоднородные вычислительные упрочнения.Объявление кроме этого появляется незадолго до начала для SC ’13 супервычислительных шоу в Денвере, что начинается 17 ноября. Шоу есть ответственным для Nvidia, в особенности учитывая рост в применении акселераторов GPU в суперкомпьютерах сейчас для улучшения выполнения этих совокупностей особенно при обработке весьма параллельных рабочих нагрузок – не увеличивая потребляемую мощность.И Nvidia и AMD содействовали применению их GPUs для вычислений рабочих нагрузок, тогда как Intel продвигает собственные сопроцессоры Xeon Phi на базе x86, каковые предлагают целых 60 ядер как альтернатива.
Пятьдесят четыре из суперкомпьютеров в новом перечне Top500 самого стремительного в мире, выпущенного от совокупностей в июньском применении разработки, включая 39, каковые применяют акселераторы GPU от Nvidia, 11 применений Xeon Phis и три ATI AMD применения акселераторы Radeon GPU.Новейший перечень будет выпущен на шоу в Денвере.Гупта заявил, что растущее число суперкомпьютеров с акселераторами GPU есть указанием довольно сильного принятия графических разработок в вычислениях и помогло Nvidia скоро развернуть собственную досягаемость в отрасли.«Мы лишь делаем графику, мы делаем вычисления», сообщил он.
Вместе с объединенной помощью памяти Nvidia кроме этого улучшил библиотеки в CUDA 6, что может ускорить приложения на GPUs к целых восьми разам, заявила компания. Помимо этого, перепроектированные библиотеки BLAS и FFT GPU смогут машинально масштабировать производительность максимум через восемь GPUs в единственном узле, что свидетельствует поставлять больше чем девять терафлопов производительности на узел и поддерживать громадные рабочие нагрузки до 512 ГБ.