Разработчики: | Huawei Device |
Дата премьеры системы: | 2012 |
Дата последнего релиза: | 2019/01/14 |
Технологии: | Маршрутизаторы (роутеры), Центры обработки данных - технологии для ЦОД |
2019: Коммутатор ЦОД Huawei CloudEngine 16800
14 января 2019 года компания Huawei представила коммутатор центров обработки данных, созданный для эпохи искусственного интеллекта (ИИ) – CloudEngine 16800. Huawei считает определяющими для эпохи ИИ три характеристики коммутаторов для ЦОД: встроенный ИИ-процессор, сетевая карта 400GE с 48 портами и способность эволюционировать в сторону автономного управления. Все эти технологии компания включает в свои коммутаторы центров обработки данных, помогая клиентам ускорить цифровую трансформацию из бизнеса.
Согласно отчету Huawei Global Industry Vision (GIV) 2025, коэффициент внедрения технологий искусственного интеллекта вырастет к 2025 году до 86%, тогда как в 2015 году он составлял 16%. Способность эффективно использовать искусственный интеллект для изменения бизнес-моделей, принятия решения и повышения качества обслуживания станет, по мнению Huawei, ключевой движущей силой.
![]() | «До появления совершенного интеллектуального мира осталось совсем немного времени. Центры обработки данных становятся ядром таких инфраструктур, как 5G и ИИ. Внедрение технологий искусственного интеллекта в коммутаторы центров обработки данных, способствует переходу сетей ЦОД из эпохи облачных вычислений в эпоху искусственного интеллекта». Кэвин Ху (Kevin Hu), президент направления Network компании Huawei | ![]() |
С наступлением эпохи искусственного интеллекта, его вычислительная мощность попадает в зависимость от производительности сетей ЦОД, что становится ключевой проблемой коммерческого внедрения технологии ИИ. В рамках традиционной технологии Ethernet, вычислительная мощность ИИ в центрах обработки данных достигает лишь 50%, отметили в Huawei. В то же время в компании предполагают, что годовой объем данных по всему миру вырастет с 10 зеттабайт в 2018 году до 180 зеттабайт (180 млрд терабайт) в 2025 году. По мнению представителей компании Huawei, существующие сети ЦОД стандарта 100GE не справятся с таким потоком данных. Кроме того, традиционные методы неавтоматизированного технического обслуживания не будут отвечать возрастающим требованиям, поскольку количество серверов ЦОД продолжает расти, и параллельно происходит объединение сетей. Соответственно, представляется необходимым разрабатывать и внедрять технологии для повышения производительности интеллектуальных систем технического обслуживания.Олег Чумаков, «АРБАЙТ»: В 2024 ПК и серверы ARBYTE закупали крупнейшие компании страны
Согласно заявлению производителя, CloudEngine 16800 - коммутатор центра обработки данных со встроенным высокопроизводительным ИИ-процессором, использующий алгоритм iLossless, обеспечивающий автоматическую оптимизацию под модели трафика, что обеспечивает низкую задержку и повышает пропускную способность. Коммутатор CloudEngine 16800 преодолевает ограничения вычислительной мощности, вызванные потерей пакетов в традиционном Ethernet, тем самым повышая вычислительную мощность искусственного интеллекта с 50 до 100 процентов и увеличивая количество операций ввода-вывода в секунду (IOPS) хранилища данных на 30 процентов.
Сетевая карта 400GE с 48 портами демонстрирует высокую плотность портов и поможет справиться с пятикратным увеличением трафика в эпоху искусственного интеллекта, утверждает производитель.
Как сообщили в Huawei, CloudEngine 16800 создан на усовершенствованной аппаратной коммутационной платформе – благодаря ортогональной архитектуре он избегает традиционных технических проблем, связанных с высокоскоростной передачей сигнала, теплоотдачей и энергоснабжением. Кроме того, потребление энергии на 1 бит снижается на 50%, что обеспечивает более экологичную работу. Благодаря локальной системе интеллектуального анализа CloudEngine 16800 и централизованному сетевому анализатору FabricInsight, распределенная ИИ-система технического обслуживания выявляет сбои в считанные секунды и автоматически определяет их источники, тем самым ускоряя автономизацию сети. Кроме того, эта архитектура повышает гибкость систем технического обслуживания.
2018: Описание линейки CloudEngine
Специалисты по инфраструктуре и эксплуатации сетей всё большего числа предприятий внедряют аппаратные SDN-платформы для повышения качества и эффективности клиентского обслуживания. Предполагается, что подобные платформы должны удовлетворять потребности предприятий на различных этапах перехода от традиционных центров данных к частным и гибридным облакам. Это означает, что аппаратные платформы должны быть открытыми, гибкими и способными модернизироваться на протяжении следующих 5-7 лет.
На март 2018 года коммутаторы линейки Huawei CloudEngine предоставляют обширный ассортимент продуктов, а также создают унифицированную, открытую и программируемую архитектуру, обеспечивающую беспроблемный переход от традиционных сетей центров данных к SDN и многооблачной среде. Кроме того, они предоставляют стандартные интерфейсы API для взаимодействия со сторонними вычислительными платформами, контроллерами и инструментами автоматизированного управления с целью удовлетворения разнообразных потребностей клиентов и создания возможностей для интегрированного внедрения.
С момента появления на рынке в 2012 году решение Huawei CloudFabric и коммутаторы линейки CloudEngine демонстрируют потенциал роста и активно применяются в коммерческой практике в сочетании с передовыми сетевыми платформами в таких сегментах, как предоставление облачных сервисов, финансы, масс-медиа и развлечения и телекоммуникации. На март 2018 года решения Huawei CloudFabriс внедрены более чем 2 800 предприятиями в 120 странах мира.
Подрядчики-лидеры по количеству проектов
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
Распределение вендоров по количеству проектов внедрений (систем, проектов) с учётом партнёров
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
Распределение систем по количеству проектов, не включая партнерские решения
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
Подрядчики-лидеры по количеству проектов
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
Данные не найдены
Данные не найдены
Распределение вендоров по количеству проектов внедрений (систем, проектов) с учётом партнёров
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
Данные не найдены
Данные не найдены
Распределение систем по количеству проектов, не включая партнерские решения
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)
![](/skins/ta/img/0.gif)