Аннотация:
Переход от академических соревнований на публичных датасетах к практическим внедрениям AI по реальным данным приводит к пониманию, что собственно тренинг модели – это только один из многих этапов большой работы. Для сбора, очистки и разметки терабайтных репрезентативных обучающих выборок нужны универсальные серверные кластеры и распределенные системы хранения. При тренировке большой модели важна не столько пиковая производительность одной ноды, сколько масштабируемость и экономическая эффективность всего кластера. При массовом исполнении обученной модели, «продаже AI» - становится важна устойчивость работы кластера под нагрузкой тысяч пользователей либо энергоэффективность Inference-микросхемы в конечном устройстве.
В докладе будет рассказано о технологиях Intel, созданных для решения задач на каждом шаге большого AI проекта. Это новые устройства на базе Intel® 3D XPoint™, позволяющие расширять память стандартного сервера до терабайтных размеров, новые процессоры семейства Intel® Xeon®, Intel® Nervana™ Neural Network Processor и Intel® FPGA. Так будет показано устройство на Intel Myriad для встраиваемых систем с искусственным интеллектом.
Вторая часть доклада будет посвящена исследованиям Intel в области нейроморфных вычислений – представленной недавно асинхронной схеме для самообучающейся импульсной нейронной сети.