
В ICML показывают, предложения производителя GPU, обновленные программные возможности стремились упрощать для разработчиков моделировать и обучать нейронные сети.На Технологической Конференции GPU Nvidia 2015 в марте, большинство фокуса для CEO Джен-Хсун другие руководители и Хуан компании были на растущем поле глубокого обучения – новая идея, что автомобили могут обучаться и улучшаться в течение продолжительного времени основанный на их опыте.На протяжении шоу должностные лица Nvidia представили массив продуктов и инструментов – от последней разработки GPU до нового, нацеленного на устройство на ускорение исследователей работы, и разработчики делают в поле.
Помимо этого, три включающих главных докладчиков должностных лица от Гугл и сказавший Baidu об удачах, достигнутых в глубоком обучении, и, были практически четырьмя дюжинами демонстраций, и проектирует демонстрирующийся показ упрочнений по глубокому обучению, приложенных вероятный GPUs.Компания на этой неделе воображает улучшения к собственному ускоренному GPU ПО, которое сообщили должностные лица, существенно повысит выполнение проектов глубокого обучения, делаемых учёными и исследователями, трудящимися с данными, разрешая им создать более правильные нейронные сети через лучше и более стремительный модельный учебный и модельный дизайн.Новости, о которых объявляют 7 июля на Интернациональной конференции по вопросам Машинного обучения (ICML) 2015 во Франции, включали обновления ЦИФР Nvidia, CUDA и cuDNN ПО, все созданные, чтобы упростить для организаций применять ускоренную GPU разработку в их упрочнениях.
Компании и исследователи в высокоэффективных вычислениях (HPC) и супервычислительных полях в течение многих лет действенно применяли акселераторы GPU от Nvidia и Advanced Micro Devices для увеличения выполнения их совокупностей, существенно не увеличивая потребляемую мощность. Должностные лица Nvidia считают, что возможности весьма параллельной обработки, включенные GPUs компании, могут оказать помощь стимулировать нажатие глубокого обучения учитывая требования от нейронных сетей.По словам Уилла Рэйми, главный менеджера по продукции для вычислений GPU в Nvidia, практические применения для глубокого обучения охватывают все от распознавания действия и классификации изображений к переводу и распознаванию речи и обработке естественного языка.
Самоходные машины должны будут быть в состоянии к не, лишь следуют за методом от одного места до другого, но выявят все около них – от надвигающихся пешеходов и механизмов к объездам и дорожным знакам – и реагируют соответственно.В медицинском поле варианты применения включают обнаружение митоза ячейки рака молочной железы и сегментацию изображения мозга, сообщил Рэйми eWEEK.«Все эти разные примеры о глубоком обучении, и GPUs в ядре», сообщил он.Улучшенные программные продукты согласуются с тем фокусом на вычислениях GPU, сообщил Рэйми.
Ключ для новой версии ЦИФР есть помощью максимум четырех GPUs, которая оказывает помощь привести к до двух раз более стремительному обучению нейронных сетей, согласно данным компании. Глубокое обучение ЦИФР Совокупность Обучения GPU – есть программным обеспечением, созданным на CUDA и cuDNN, что оказывает помощь пользователям создать, научите и удостоверьтесь в надежности глубокие нейронные сети. ЦИФРЫ 2 разрешают пользователям распространить учебные рабочие нагрузки по многократному титану GeForce GTX X GPUs параллельно, вместо того, чтобы иметь необходимость надеяться на однокристальную схему, уменьшая учебное время от недель до дней. Задачи, которые заняли два дня для исполнения, могут сейчас быть сделаны в единственный день, и где исследователи, быть может, лишь были в состоянии выполнить единственную рабочую нагрузку через день, они могут сейчас выполнить два рабочих места в единственный день.
ЦИФРЫ 2 также идут с графическим интерфейсом пользователя, делая его более дешёвым для более широкого диапазона пользователей.Nvidia также улучшает cuDNN (CUDA Глубокая Нейронная сеть), ускоренная GPU библиотека математических методов для нейронных сетей, которые разработчики могут применять в их упрочнениях по машинному обучению. Старше значащий cuDNN 3 сейчас поддерживает 16-разрядное плавное хранение данных точки в памяти GPU, по существу удваивая количество данных, что возможно сохранен.
Это также оптимизирует пропускную свойство памяти и разрешает исследователям научить громадные нейронные сети.«Вы можете выполнить учебные модели до двух раз стремительнее на единственном GPU», сообщил Рэйми.Последняя генерация версии инструментария 7.5 CUDA – додаёт 16-разрядную плавную помощь хранения данных точки, не смотря на то, что Сейчай Tegra X1 GPU предлагает ту возможность.
ЦИФРЫ 2 предварительных выпуска дешёвы сейчас, тогда как библиотека cuDNN 3 будет дешева в основной платформе глубокого обучения в ближайшее время, по словам должностных лиц Nvidia.