Уязвимость в старых прошивках Cisco Small Business Switches

Cisco разослала бюллетень с информацией об уязвимости в коммутаторах серии Small Business.

Это серьёзная уязвимость с высокой степенью опасности (атакующий получит управление вашим устройством),
поэтому рекомендуем клиентам, использующих эти свичи проверить их на предмет подверженности этой уязвимости.

Все коммутаторы 200 Series Smart Switches, 300 Series Managed Switches, 500 Series Stackable Managed Switches с прошивками ранее 1.3.7.18 подвержены уязвимости отказа в обслуживании.

Коммутаторы серий 250 Series Smart Switches, 350 Series Managed Switches, 350X Series Stackable Managed Switches и 550X уязвимости не подвержены.

Исходное сообщение на сайте вендора:
https://tools.cisco.com/security/center/content/CiscoSecurityAdvisory/cisco-sa-smlbus-switch-dos-R6VquS2u

Aruba change uplink when renew

Технологическая новость для клиентов, использующих точки доступа Aruba AP-318, AP-374, AP-375, AP-377 .

При обновлении прошивок Instant 8.3.x или 8.4.x до Instant 8.5.0.0, 8.5.0.1, и 8.5.0.2 происходит смена порта аплинка с Eth1 на Eth0.

Будьте внимательны, при неаккуратном обновлении можно потерять связь с точкой доступа!

Рекомендация HPE Aruba для владельцев точек IAP-314/315, IAP-324/325, AP-318 and AP-374/375/377/387  дождаться 8.5.0.3 releases

Cisco buy Acacia Communications

Компания Cisco объявила о покупке компании Acacia Communications 09 июля 2019 года.

Acacia Communications — разработчик и производитель новейших оптических компонентов для проводных сетей и элементных компонентов беспроводной инфраструктуры. Решения для проводных сетей CFP-DCO-ZR, CFP-DCO-M, CFP-DCO-LH и раньше случалось использовать в оборудовании Cisco, но теперь наши клиенты получат возможность использовать эти мощные решения без дополнительных проблем с поддержкой.

Собственный модуль AC1200 Coherent Module, основанный на собственном DSP ASIC — очень интересное решение, будет интересно увидеть результаты совместной работы специалистов Cisco и разработчиков этого модуля.

Поздравляем партнёров с объединением и надеемся, желаем нашим клиентам найти в совместных решениях Acacia и Cisco прорывные решения для своих задач.

WiFi6 or 802.11ax

Группе по стандартизации IEEE 802.11ax больше пяти лет, но окончательное принятие стандарта намечено на конец 2020 года. В это время от точек доступа являющихся «802.11ax ready» индустрия постепенно доросла до клиентских устройств поддерживающих основные инновационные идеи разрабатываемого стандарта (OFDMA, TWT, NAV).

Альянс  WiFi («Wi-Fi Alliance»®)  ввёл собственное наименование «WiFi 6» — в альянсе работают многие составители стандарта 802.11ax и это скорее маркетинговый ход для производителей, желающих привлечь внимание к своей продукции.

Поддержка элементов стандарта 802.11ax появилась в топовых точках доступа Huawei, Aruba, Cisco, Extreme, Ruckus довольно давно, с 2017 года.

Но в связи с выходом первых смартфонов с поддержкой элементов 802.11ax производители повысили активность в привлечении внимания к этим элементам в своих точках доступа. Пока в массовом сегменте беспроводных сетей нет и 802.11ac wave 2, а поддержка стандарта в отсутствие самого стандарта — способ показать наличие новых решений в линейке продуктов. При разработке новых проектов беспроводных сетей высокой плотности (High density) на перспективу наличие поддержки Wifi 6/802.11ax стоит иметь в виду, но важнее грамотное планирование и правильная настройка оборудования вашей инфраструктуры. Точки с поддержкой нового стандарта имеют большую мощность и повышенные требования к питанию, также узким местом могут оказаться другие элементы инфраструктуры.

Наши инженеры с удовольствием окажут помощь в подборе оборудования, планировании и построении ваших беспроводных сетей.

Catalyst 9600

Будет ли новая линейка коммутаторов Cisco Catalyst 9600 так называться?

Catalyst 9600 ожидается в качестве смены одной из самых старых и надёжных линеек — каталистов 6000 серии. То есть модульного шассийного коммутатора уровня ядра крупного предприятия или среднего провайдера.

Cisco удалила с сайта информацию о программном обеспечении для новой линейки

(но мы можем увидеть, что планировалось использовать открытое ПО:

«Open Source Used In Catalyst 9600 Series Switches Cisco IOS XE Gibraltar 16.11.1 1«)

Первая информация о 9600 в reddit была уже год назад, вместе с информацией об Catalyst 9200, но 9200 уже три месяца как вышел, а 9600 нет. В предвкушении информации о новом устройстве продолжаем мониторить ситуацию.

 

Update May 2019:

Есть первые технические характеристики на сайте вендора, партнёрам проведена презентация, можем рассказать кое-что о модели.

Пока не всё для публикации, поэтому обращайтесь к нашим инженерам, если у вас есть проект требующий серьёзного шассисийного коммутатора.

 

Cisco Catalyst 9200

У компании Cisco появилась новая линейка коммутаторов Cisco Catalyst 9200/9200L.

Линейка Catalyst C9200 без литеры L (всего четыре модели — C9200-24T, C9200-24P, C9200-48T, C9200-48P) содержит опциональные модули для аплинка (два варианта: четыре гигабитных слота под C9200-NM-4G  или четыре 1/10 слота C9200-NM-4X).

Catalyst C9200L со всеми фиксированными портами состоит из восьми моделей: C9200L-24T-4G, C9200L-24P-4G, C9200L-48T-4G, C9200L-48P-4G, C9200L-24T-4X, 9200L-24P-4X, C9200L-48T-4X, C9200L-48P-4X.

Кроме фиксации портов, литера L урезает возможности стэкирования свичей, а также количество mac-адресов, доступных vlan’ов, маршрутов IPv4/IPv6 и интерфейсов SVI.

Лицензирование Network Essentials или Network Advantage, дополнительные опции Cisco DNA Premier, DNA Advantage или DNA Essentials.  ASIC оптимизирован для управления коммутатором из под DNA-Centre. Конфигурирование из под cli аналогично другим с Cisco IOS XE. Настройки SD-Access с использованием Cisco Identity Services Engine (ISE), возможности расширенного шифрования MACsec позволяют повысить безопасность.

В будущем эта линейка станет заменой коммутаторам доступа серии Каталист 2960.

Ruckus/Arriss/CommScope

Сегодня, 08.11.2018г.  CommScope (NASDAQ: COMM) и Arriss (NASDAQ: ARRS) объявили о слиянии.

Мы надеемся, что для оборудование, продвигаемого Compuway под марками Commscope, ARRIS, ICX и Ruckus эти изменения будут на пользу.

Мы давно и успешно сотрудничаем и уверены, что это сотрудничество продолжит развиваться, а слияние даст кумулятивный эффект для всех участников. Надеемся, что совместная команда покажет новые прорывные решения в области сетевых технологий, WiFi, передачи и управления видеоконтентом.

 

Наши инженеры помогут вам подобрать оптимальное решение. Обращайтесь!

Телефон: +7-495-514-00-10 E-mail: info@compuway.ru

 

 

FlexPod

Попытаемся в нескольких словах описать, что же такое FlexPod, не прибегая к википедии или длинным DataSheet и многочисленным Design Guides производителей.

Если коротко, то FlexPod — это совместная поддержка оборудования и ПО разными производителями в рамках единой модели (всё, что касается FlexPod — это про сервера, сети и ПО для ЦОДов — Центров обработки данных). Многим приходилось сталкиваться с несовместимостью между адаптерами и коммутаторами разных производителей. Различия в протоколах, у которых заявлена поддержка стандартов и RFC зачастую требуют выключения многих важных функций. Даже сетевая плата в сервере может не захотеть работать с новым коммутатором другого производителя.

В рамках устранения перекладывания ответственности на партнёра «с другой стороны провода», Cisco и NetApp предложили модель, в рамках которой за обеспечение совместимости отвечают все участники, заявившие о поддержке технологии FlexPod. Основными провайдерами поддержки выступают Cisco и NetApp, выступая в кооперации с VMware, SAP, Microsoft, Oracle, Citrix.

Если компонент инфраструктуры не подтверждён на совместимость в рамках FlexPod, то его поддержка усложняется и становится похожа на обычное взаимодействие с разными вендорами, когда заказчик «сам виноват, что захотел гетерогенности в оборудовании».

В случае подтверждённых решений эскалация по сервису поддержки FlexPod происходит сразу для инженеров разных вендоров, а проверка инцидентов возможна в единой лаборатории, использующие те же компоненты, что и у заказчика.

Конечно, для правильного составления проекта по вашей инфраструктуре DataSheet и Design Guides просто необходимы (на сайте Cisco размещено более 90 Design Guides по FlexPod’у). Наши инженеры готовы облегчить вам задачу по навигации в этом море документации и готовы обсудить решение FlexPod для вашей задачи.

На чем строить беспроводную сеть Cisco

Для начала рассмотрим таблицу ниже. Эта таблица рекомендаций Cisco systems для WiFi сетей высокой плотности, HDX.

Табл 1.

Enterprise класс—базовые сетевые возможностиAdvanced класс—базовые возможности плюс добавочные сетевые возможностиКласс Mission Critical— Лучшие в своём классе сетевые возможности
Коммутатор ядраCisco Nexus 7700 серии с

Supervisor 2E или пара шасси Cisco Catalyst 6807-XL с супервизором Supervisor 6T VSS Quad Supervisor в режиме SSO (stateful switchover )

Cisco Nexus 7700 серии с

Supervisor 2E или пара шасси Cisco Catalyst 6807-XL с супервизором Supervisor 6T VSS Quad Supervisor в режиме SSO (stateful switchover)

Cisco Nexus 7700 серии с

Supervisor 2E или пара шасси Cisco Catalyst 6807-XL с супервизором Supervisor 6T VSS Quad Supervisor в режиме SSO (stateful switchover) 

Коммутатор распределенияСтекируемые коммутаторы Cisco Catalyst 3850 серииСтекируемые коммутаторы Cisco Catalyst 3850 серии или пара Cisco Catalyst 6880-X и 6840-X расширяемые фиксированные шассиСтекируемые коммутаторы Cisco Catalyst 3850 серии или Cisco Catalyst 6807-XL пара модульных шасси chassis pair with Supervisor 6T VSS четыре супервизора в режиме SSO
Коммутатор доступаCisco 2960-X и 2960-XR серии со стековыми модулямиСтекируемые коммутаторы Cisco Catalyst 3850 и 3650 серииСтекируемые коммутаторы Cisco Catalyst 3850 серии или Cisco Catalyst 4500E Series с двумя супервизорами 8-E SSO
WLAN контроллерCisco 8500 серия (AireOS) в режиме HA SSOCisco 8500 серия (AireOS) в режиме HA SSOCisco 8500 серия (AireOS) в режиме (HA SSO)
Точки доступаCisco 1850 серияCisco 2800 серияCisco 3800 серия
Ключевые возможности — проводныеДоступ на 1 Gigabit Ethernet, PoE+1/10/40 Gigabit Ethernet скорости, MACsec, TrustSec MPLS, NetFlow, UPOEВысочайшая доступность на скоростях 1/10/40/100 Gigabit Ethernet , MACsec, TrustSec MPLS, NetFlow, UPOE
Ключевые возможности — беспроводные2 Gbps Combined Data, 802.11ac Wave 2, 4×4 MUMIMO:3SS, 20/40/80MHz, Transmit Beamforming5 Gbps Combined Data, 802.11ac Wave 2, 4×4 MU-MIMO:3SS, 20/40/80/160MHz, HDX, CleanAir, ClientLink 4.0 + Transmit Beamforming, VideoStream5 Gbps Combined Data, 802.11ac Wave 2, 4×4 MU-MIMO:3SS, 20/40/80/160MHz, mGig+GE, HDX, CleanAir, ClientLink 4.0 + Transmit Beamforming, VideoStream

Для начала разберём шапку таблицы.

  • Enterprise класс. Это класс требований к проводной и беспроводной инфраструктуре. Кратко, это следующая ступень после категории small office/home office, SOHO. Условно, это более 20 пользователей на точку доступа и отсутствие критичности в сервисе WiFi для предприятия, невысокая пропускная способность
  • Advanced класс — повышенные относительно enterprise класса требования. К пропускной способности, количеству клиентов на точку доступа, сервисам сети (wIPS, DPI)
  • Mission Critical класс — высший класс требований к беспроводной сети. Отказоустойчивость, быстрый роуминг, интеллектуальное управление нагрузкой на точки доступа, адаптивное управление радио, высокая пропускная способность, глубокий анализ трафика и сильная защита. Это крупные сети магазинов, аэропортов, гостиниц, конференц-залов, стадионов

Отличия в сервисах с точки зрения беспроводной сети можно увидеть в строке «Ключевые возможности — беспроводные». Для всех вариантов классов сервиса сетей высокой плотности существует главный принцип — высокая плотность расположения точек доступа и клиентов, высокий объём трафика. В основном для таких целей используется 802.11ac и полоса 5ГГц, поскольку на 2.4ГГц сети высокой плотности не строятся по причине малого количества непересекающихся каналов и высокого взаимного влияния точек доступа.

Сеть LAN в этом случае полагается занимается передачей трафика не только беспроводных клиентов (это довольно редкий случай), поэтому на этом уровне присутствует ядро, которое может быть представлено коммутаторами Nexus N7K или Catalyst 6K. Распределение представлено сериями 3850, 6840 или 6880 в вариантах HA/stack.

Причём стоит учесть что частая практика для таких сетей это включение высокопроизводительных точек доступа именно в уровень распределения, т.к. например у WS-C3850-12X48U или WS-C3850-24XU  присутствуют multigigabit порты со скоростями 1/2.5/5/10Гбит/сек по одной витой паре. Таким образом с той же сетью СКС есть возможность повышать иерархию скоростей. Такие требования основаны на высоких скоростях WiFi точек доступа второй волны 802.11ac wave 2, например у AIR-AP3802I-R-K9C (или другие представители серии AIR-AP3802I-R-K9 , AIR-AP3802P-R-K9 и AIR-AP3802E-R-K9) или AIR-AP2802I-R-K9C (с аналогами AIR-AP2802I-R-K9 и AIR-AP2802E-R-K9C) работающие на максимальной скорости 5,2 Гбит/с. Альтернатива такому решению это portchannel интерфейсы, но тут максимум возможной скорости — 2 Гбит/сек.

Возможно подключение точек и к уровню коммутаторов доступа, но это рекомендуется делать в основном для точек серии ниже, например 1850, поскольку мы будем упираться в существующие ограничения скорости физического порта коммутатора, и даже на агрегированном интерфейсе мы получим 2 Гбит/с. Например, модель этой серии AIR-AP1852I-R-K9 (и её уличный аналог AIR-AP1852E-R-K9) имеет как раз максимальную скорость передачи с 2х радиоинтерфейсов 2,0 Гбит/с.

Стоит понимать что при выборе точек доступа мы часто становимся перед выбором который определяется существующей инфраструктурой, требованиями и средствами.

WLAN acc article 1

Теперь рассмотрим и прокомментируем следующую таблицу относящуюся к сетям «среднего размера кампуса», т.е. к беспроводным сетям средних размеров предприятий.

Табл 2.

Enterprise класс—базовые сетевые возможностиAdvanced класс—базовые возможности плюс добавочные сетевые возможностиКласс Mission Critical— Лучшие в своём классе сетевые возможности
Коммутатор ядра/распределенияСтекируемые коммутаторы Cisco Catalyst 3850 серииСтекируемые коммутаторы Cisco Catalyst 3850 серии или пара VSS Cisco Catalyst 6880-XСтекируемые коммутаторы Cisco Catalyst 3850 серии или пара VSS Cisco Catalyst 4500E Series с супервизором Supervisor 8-E
Коммутатор доступаКоммутаторы Cisco 2960-X и 2960-XR серии со стековыми модулямиСтекируемые коммутаторы Cisco Catalyst 3850/3650 серииСтекируемые коммутаторы Cisco Catalyst 3850 серии
Беспроводной контроллерFlexConnect с Cisco 8500/5500  серия (AireOS) в режиме HA SSOИнтегрированный в коммутатор доступа— Cisco Catalyst 3850/3650 серии с конвергентной конфигурацией доступаИнтегрированный в коммутатор доступа — Cisco Catalyst 3850 серии с конвергентной конфигурацией доступа или локальные контроллеры серии 5500/2500
Точки доступаCisco 1850 серииCisco 2800 серииCisco 3800 серии
Ключевые возможности — проводныеДоступ на 1/10 Gigabit Ethernet services, MACsec, TrustSec NetFlowДоступ на 1/10 Gigabit Ethernet services, MACsec, TrustSec NetFlow, UPOEДоступ на 1/10/40 Gigabit Ethernet services, MACsec, TrustSec, NetFlow, UPOE
Ключевые возможности — беспроводные2 Gbps Combined Data, 802.11ac Wave 2, 4×4 MUMIMO:3SS, 20/40/80MHz, Transmit Beamforming5 Gbps Combined Data, 802.11ac Wave 2, 4×4 MU-MIMO:3SS, 20/40/80/160MHz, HDX, CleanAir, ClientLink 4.0 + Transmit Beamforming, VideoStream5 Gbps Combined Data, 802.11ac Wave 2, 4×4 MU-MIMO:3SS, 20/40/80/160MHz, mGig+GE, HDX, CleanAir, ClientLink 4.0 + Transmit Beamforming, VideoStream

Рассматривая отличия сетей среднего размера от сетей высокой плотности стоит понимать требования предъявляемые к таким сетям. Основное отличие от предыдущего пункта — объём трафика. В таблице 2 Cisco определила лишь различия в проводной части и основано оно как раз на присутствии выделенных коммутаторов ядра, другими словами 3х уровневая архитектура. Причина такого выделения — объёмы трафика. Беспроводной части это касается лишь в части пропускной способности. В то же время размеры таких сетей определяют и качество сервиса требуемого к ним. В любом случае он чуть ниже, чем в сетях HDX. Несмотря на это Cisco systems в качестве рекомендаций к выбору точек оставила серии 1850, 2800,3800. На наш взгляд тут опять же можно отойти от привычных рекомендаций и дизайна в угоду проектным требованиям. Например, могут подойти точки доступа серии 3700 и  2700 со скоростями 1,3 ГГб/с (например AIR-CAP3702E-R-K9, AIR-CAP3702I-R-K9AIR-CAP3702-P-R-K9AIR-CAP3702E-R-K9-10 и AIR-CAP2702I-R-K9, AIR-CAP2702E-R-K9) будут дешевле.

Кроме того мы видим что выбор дизайна изменён на FlexConnect. Это позволяет настраивать и управлять точками в бранч офисе или удаленном офисе через WAN канал без развертываний контроллера в каждом офисе. AP FlexConnect могут коммутировать трафик данных клиента локально и выполнять аутентификацию локально. Когда эти точки связаны с контроллером, они могут также передавать трафик обратно на контроллер. В любом случае всегда стоит использовать HA кластер. Это даёт отказоустойчивость.

WLAN acc article 22х уровневая и 3х уровневая архитектура сети.

Рассмотрим рекомендации для маленьких сетей. Это сети филиалов, организаций маленького размера.

Табл 3.

Enterprise класс—базовые сетевые возможностиAdvanced класс—базовые возможности плюс добавочные сетевые возможностиКласс Mission Critical— Лучшие в своём классе сетевые возможности
Коммутаторы доступаCisco 2960-X и 2960-XR серии со стековыми модулямиСтекируемые коммутаторы Cisco Catalyst 3850/3650 серииСтекируемые коммутаторы Cisco Catalyst 3850 Series
Беспроводной контроллерFlexConnect с Cisco 8500/5500  серия (AireOS) в режиме HA SSOИнтегрированный в коммутатор доступа— Cisco Catalyst 3850/3650 серии с конвергентной конфигурацией доступаИнтегрированный в коммутатор доступа — Cisco Catalyst 3850 серии с конвергентной конфигурацией доступа или локальные контроллеры серии 5500/2500
Точки доступаCisco 1850 серииCisco 2800 серииCisco 3800 серии
Ключевые возможности — проводныеДоступ Gigabit EthernetДоступ 1 Gigabit Ethernet, MACsec, TrustSec NetFlow, PoE+Доступ Gigabit Ethernet, MACsec, TrustSec NetFlow, UPOE
Ключевые возможности — беспроводные2 Gbps Combined Data, 802.11ac Wave 2, 4×4 MUMIMO:3SS, 20/40/80MHz, Transmit Beamforming5 Gbps Combined Data, 802.11ac Wave 2, 4×4 MUMIMO:3SS, 20/40/80/160MHz, HDX, CleanAir, ClientLink 4.0 + Transmit Beamforming, VideoStream5 Gbps Combined Data, 802.11ac Wave 2, 4×4 MU-MIMO:3SS, 20/40/80/160MHz, mGig+GE, HDX, CleanAir, ClientLink 4.0 + Transmit Beamforming, VideoStream

В качестве проводной инфраструктуры здесь рекомендуются коммутаторы 2960-X и 2960-XR серий или 3850 и 3650 серий, если нужный продвинутые сервисы сети. В основном требуются коммутаторы с поддержкой PoE, например 2960X-24PSQ2960X-48FPD и 2960X-48LPD или WS-C3850-48P и WS-C3650-48FS.

В качестве точек доступа кроме объявленных могут быть и Aironet 1810 серии обладающие более низкими скоростями и ценой. Например, точки AIR-AP1815I-E-K9CAIR-AP1815I-E-K9AIR-AP1810w-E-K9AIR-AP1832I-R-K9CAIR-AP1832I-R-K9.

WLAN acc article

Сети среднего и маленького масштаба, филиалы.

Cisco Catalyst 6800 vs. Cisco Nexus N7k/N9k как ядро корпоративной сети

В наши дни сетевые администраторы и сетевые инженеры Cisco разделены на две части.

Недостаточно для сетевого администратора сказать, что он работает с оборудованием Cisco. Администратор также должен указать предпочтение коммутатора Cisco — либо широко используемое семейство коммутаторов Cisco Catalyst 6800, либо передовую линию Cisco Nexus 7000.
Дискуссия по поводу Catalyst против Nexus часто вспыхивает на форумах сетевых администраторов. И каждая сторона дебатов имеет свои аргументы в арсенале. В случае с Nexus это скорость и возможности виртуализации. Сторонники Catalyst ценят более низкую стоимость и знакомый интерфейс IOS.
В 2008 году компания представила свою линейку Nexus в качестве следующего поколения коммутаторов с поддержкой виртуализации. Дело в том, что клиенты были более или менее довольны или, по крайней мере, привыкли к своим коммутаторам Catalyst, которые уже давно доминировали на рынке.

Несколько лет назад многие опасались что Cisco systems убьёт линейку Catalyst и заменит её высокопроизводительными коммутаторами с поддержкой виртуализации и прогрессивной операционной системой NX-OS. Но этого не случилось. Catalyst занял нишу кампусных коммутаторов и вполне успешно развивается и борется с конкурентами.
Итак, следует ли использовать Nexus или Catalyst? Это проблема, с которой сталкиваются многие в полевых условиях каждый день из-за различий в функциях и философии решений.

Собственные слова Cisco: используйте коммутаторы Catalyst для кампуса — офисные среды с рабочими ПК — и используйте Nexus для центров обработки данных. Для развертывания в кампусе требуется контроль и сегментация пользовательского доступа, интеллектуальная обработка приложений, проводная и беспроводная конвергенция, в то время как для центров обработки данных требуется конвергенция SAN и LAN, осведомленность о виртуальных машинах и мобильность рабочей нагрузки и облачная безопасность.

Если у вас есть хороший бюджет для создания нового центра обработки данных, Nexus действительно хорошее решение. Но если у вас установлена ​​база Catalyst, тогда может быть разумно придерживаться этой линии. Разумеется, море сетевых администраторов уже знакомо с IOS Catalyst (Internetwork Operating System), загадочной, но в конечном счете очень мощной операционной системой.

Существует много сетей, в которых Catalyst 9400/6800/4500 идеально подходят. Это сети предприятий сегментированные на vlan, имеющие несколько подсетей, сети использующие инфраструктуру SD-Access/DNA, имеющие беспроводной доступ Wi-Fi, сети доступа использующие PoE, сети где требуется высокая плотность медных портов 1G / multigigabit / RG45, сети построенные по 3х уровневой (three-tier) иерархической модели.

Если в первую очередь вас интересуют данные технологии, то используйте Catalyst. Например, если вас интересует высокая плотность портов в ядре предприятия малых и средних размеров, то вы всегда можете использовать VSS стек из двух C6880-X как ядро набитое линейными платами C6800-16P10G для 10G линков к элементам инфраструктуры и выносным линейным платам FEX C6800IA-48TD. Вот вам одно логическое устройство с которого вы можете управлять всей сетью из одной консоли. Если сеть вашего предприятия больше, то можете использовать опять же пару VSS C6800-32P10G или C9410R как ядро и скоммутировать их с агрегацией в исполнении  C9500 или WS-C4500X-32SFP+ на которых висит доступ на 2960 или 3650. Кроме того ни на одном из Nexus которые можно использовать для доступа, т.е. Nexus 2000 или 3000 серии нет мультигигабитных (multigigabit) портов, в отличии от серии Catalyst.

Одним из отличий серии Catalyst от Nexus может быть наличие сервисных модулей присущих только этой линейке. Если вам нужен беспроводной контроллер, то он присутствует как сервисный модуль С1-WSSVC-WISM2-K9  ко всей линейке C6800 и C9400, начиная от самого младшего устройства  c6880-x-le или C9407R и заканчивая устройствами 6807-XL или C9410R.

С другой стороны не все из нас — трейдеры с низкой задержкой, отправляющие трафик из одного региона в другой. Многие из нас просто отправляют почту в пределах офиса.
Многие, казалось бы, невесомые факторы, такие как операционная среда, могут влиять на решение. Nexus требует большую глубину, чем Catalyst, и может потребовать использовать другой вариант для охлаждения. Он также требует другого источника питания.

Каждый коммутатор имеет значительное количество функций отличающих его от другого. Catalyst имеет более широкий набор функций, в то время как Nexus фокусируется на высокоуровневых функциях приложений и серверных технологий, таких как шифрование уровня 2, возможность настройки виртуальных коммутаторов.

На памяти есть один клиент, который все решил купить Nexus, пока не понадобилось, использовать методы ускорения приложений, например, устройства Riverbed.  Клиент до этого использовал протокол веб-кэширования (WCCP), которую Nexus не поддерживает. Вместо этого вместо этого был развернут Cat.
Мы можем посоветовать вам записать все потребности в развитии сети, технологии и протоколы которые вы собираетесь использовать или используете уже, а потом сверять с возможностями оборудования.

Cisco UCS. Коротко о главном.

Cisco UCS

Платформа Cisco UCS вышла на рынок достаточно давно не только по меркам IT и вопрос зачем этот обзор возникнет наверное сразу после прочтения заголовка. Цель обзора следующая — дать общее представление об архитектуре Cisco UCS тем, кто только начинает с ней знакомиться.

У многих Unified Computing System (UCS) ассоциируется в первую очередь с блэйдами Cisco, но это не совсем так. Unified Computing System — это архитектура (идеология) построения IT инфраструктуры, в которую так же прекрасно интегрируются и рэковые серверы компании Cisco.

Унифицированная система Cisco UCS

Основных «кубиков» инфраструктуры три:

  • вычислительные узлы (серверы)
  • сеть передачи данных (Cisco SingleConnect)
  • управление (UCS Manager)

Cisco UCS обзор

Интегрированное управление

Мозг системы — UCS Manager

  • Единое управление всей системой (до 160 серверов и вся LAN/SAN инфраструктура) из одной точки (резервированной)
  • Физические серверы не являются объектом конфигурирования – они всего лишь часть ресурсного пула
  • Внутренние сетевые порты не являются объектами конфигурирования – они настраиваются автоматически
  • Конфигурируются общие политики, шаблоны, профили – многократно используемые, тиражируемые элементы
  • Все серверные настройки отвязаны от «железа» – «динамические», «мобильные», «масштабируемые»
  • Система управления интегрирована и резервирована
  • Полнофункциональный двунаправленный API-интерфейс: доступны ВСЕ функции управления комплексом

UCS Management

Сервисный профиль

Сервисный профиль – абстрактная, мобильная, тиражируемая конфигурацию сервера (или серверов):

  • идентификаторы (UUID, MAC, WWN)
  • ввод-вывод (число, тип и конфигурация адаптеров)
  • конфигурация (BIOS, прошивки, RAID и т.д.)
  • сетевые подключения (VLAN, VSAN, QoS и т.д.)

Cisco UCS Profile

Сервисный шаблон

  • вся серверная ферма настраивается в одном шаблоне – один объект для управления десятками и сотнями серверов и их сетевыми подключениями
  • полная абстракция от оборудования – шаблон определяет конфигурацию сервера полностью, и может быть применен к оборудованию разного типа
  • массовое изменение аппаратной конфигурации фермы через модификацию одного объекта
  • ферм в системе может быть много

Cisco UCS шаблон

Инфраструктура  Cisco UCS

Теперь более подробно рассмотрим состав «кубиков»

  • Fabric Interconnect — 48 или 96 универсальных портов (GE, 10GE, FC) или 32 порта 40GE или 24 порта 40GE + 16 универсальных; «мозг» и «сердце» всей системы — до 20 серверных шасси, 160 серверов

ucs 6296

  • блейд-шасси — просто коробка для серверов

ucs shassi

  • модуль ввода-вывода — выносная линейная карта Fabric Interconnect до 40G к каждому серверу, до 160G к Fabric Interconnect-у

ucs io module

  • адаптер ввода-вывода — 2x4x10G или 2x40G выносная линейная карта фабрики внутри сервера

UCS IO Adapter

Графически структуру можно представить следующим образом

ucs cross

Серверная подсистема Cisco UCS состоит из стоечных и блейд-серверов (на момент написания обзора поколения M5)

  • B200 M5 — 2x Intel Xeon Scalable (до 28 ядер); 24 слота DIMM DDR4-2666 (до 3TB); 2xSFF диска SAS/SSD/NVMe; поддержка PCIe Flash и 2xM.2/ 2xSD; до 2-х GPU; до 80G ввода-вывода

B200 M5

  • B480 M5 — 4x Intel Xeon Scalable (до 28 ядер); 48 слотов DIMM DDR4-2666 (до 6TB); 4xSFF диска SAS/SSD/NVMe; поддержка PCIe Flash и 2xM.2/ 2xSD; до 4-х GPU; до 160G ввода-вывода

Cisco UCS B480 M5

  • С220 M5 — до 2x Intel Xeon Scalable (до 28 ядер); 24 слота DIMM DDR4-2666 (до 3ТБ); 4 LFF или 10 SFF дисков (all-NVMe); 1RU

Cisco UCS C220 M5

  • С240 M5 — до 2x Intel Xeon Scalable (до 28 ядер); 24 слота DIMM DDR4-2666 (до 3TB); 24 SFF или 12 LFF дисков + 2 SFF сзади; 2RU

Cisco-UCS-C240-M5

 

  • С480 M5 — до 4x Intel Xeon Scalable (до 28 ядер); до 6ТБ RAM, до 6 GPU; 24 + 8 SFF дисков (all-NVMe); 4RU

Cisco UCS C480 M5

Все стоечные серверы могут коммутироваться и управляться UCS Fabric Interconnect, являясь ресурсами в составе UCS системы.

На этом общий обзор завершен. Более подробно с компонентами системы можно ознакомиться на продуктовых страницах нашего сайта.

Анонс коммутаторов Dell EMC Networking N1100

LargePNGВ России стали доступны к продаже коммутаторы Dell EMC Networking N1100. Эти модели расширяют линейку коммутаторов N-серии для корпоративных сетей. Являясь бюджетными Layer 2 коммутаторами, по техническим возможностям и стоимости они занимают нишу между коммутаторами X-серии и N1500.

Семейство N1100 представлено шестью моделями с 8, 24 или 48 медными портами 10/100/1000Base-T. PoE коммутаторы поставляются с вентиляторами. Коммутаторы без PoE вентиляторов соответственно не имеют.

Краткие технические характеристики выглядят так:

N1108T-ON: 8x 10/100/1000Mbps half/full duplex RJ45 ports, 2x GbE RJ45 and 2x GbE SFP interfaces, 1 RU half-width form factor, fanless operation

N1108P-ON: 8x 10/100/1000Mbps half/full duplex ports, 2x GbE RJ45 and 2x GbE SFP interfaces, 4xPoE/PoE+, 75W PoE power budget RJ45, 1 RU half-width form factor

N1124T-ON: 24x 10/100/1000Mbps half/full duplex RJ45 ports, 4x SFP/SFP+ 1/10GbE ports, 1 RU switch form factor, fanless operation

N1124P-ON: 24x 10/100/1000Mbps half/full duplex ports, 4x SFP/SFP+ 1/10GbE ports, 12xPoE/PoE+ ports 190W PoE power budget, 1 RU switch form factor

N1148T-ON: 48x 10/100/1000Mbps half/full duplex RJ45 ports, 4x SFP+ 10GbE ports, 1 RU switch form factor, fanless operation

N1148P-ON: 48x 10/100/1000Mbps half/full duplex ports, 4x SFP/SFP+ 1/10GbE ports, 24xPoE/PoE+ ports, 375W PoE power budget, 1 RU switch form factor

По сравнению с коммутаторами X-серии N1100 имеют полноценную командную строку, как и другие коммутаторы N-серии. Коммутаторы с 24 и 48 портами поддерживают стекирование с помощью портов 10GE SFP+, объединяя до 4-х коммутаторов в стек. В отличие от N1500 коммутаторы N1100 не поддерживают маршрутизацию, имеют меньший бюджет мощности PoE и не поддерживают резервирование блоков питания.

Как и все корпоративные коммутаторы N1100 имеют пожизненную гарантию.

Nimble Storage. Что это такое.

ns1

Не так давно компания НРЕ сделала очередное приобретение в лице Nimble Storage. На российский рынок эти системы еще не поставляются (обещают к концу года), поэтому есть время немного разобраться, что же представляет из себя Nimble.

И так. Продукция компании на сегодняшний день состоит из трех линеек: AF-Series, CS-Series, SF-Series.   AF-Series и CS-Series  работают на базе Nimble OS 3.x, SF-Series — Nimble OS 4.x. На момент приезда в Россию возможны изменения, но пока так.

Теперь о каждой линейке подробнее.

AF-Series

Модельный ряд следующий

IOPS

 

Выводы по поводу производительности каждый может делать сам, мы же ограничимся лишь констатацией представленных данных.

Шасси универсальное 4U. Спереди устанавливаются диски, сзади – контроллеры, вентиляторы, блоки питания. Никакой магии – обычный индустриальный стандарт. Контроллеры работают в режиме Active/Standby.

Вид спереди говорит нам о том, что шасси предназначено для установки 24 -х дисков размера 3,5 дюйма.

bank

 Однако дисков SSD устанавливается 48шт., которые делятся на так называемые BANKи (А и В).

banka-b

 

Bank A – SSD Drives 1 -24; Bank B – SSD Drives 25 – 48

Вид сзади:

zad

 

На каждом контроллере три слота для карт расширения. По умолчанию массив поставляется с двух портовыми картами 10Gbase-T.  Так же доступны 1Gb и 10Gb Ethernet, 16GbFC. При использовании четырехпортовых карт возможно получить до 12-ти портов на контроллер.

Масштабирование достигается двумя способами: кластеризация (до 4-х узлов в кластере); подключение дисковых полок (AF1000, AF3000 и 5000 + 1 AFS2; AF7000 и 9000 + 2AFS2).

AFS2

Полка расширения по аналогии с контроллерной рассчитана на 24 дисковых слота.  Доступна возможность апгрейда на более старшую модель путем замены контроллеров

controller

Массив поддерживает функции Inline Deduplication, а так же In-Line Compression.

Процесс записи данных выглядит следующим образом.

inline2

 

inline1

Не сказать, что данная технология является на рынке уникальной – по схожей манере работают и другие производители систем хранения данных.

Операции чтения происходят так.

inline3

Массив в процессе работы собирает BANKи (А и В) в отдельные RAID группы. RAID используется Triple+ Parity. Не у всех вендоров на данный момент существует RAID с тройной четностью, но некоторые это уже поддерживают. При росте размерности SSD и увеличении времени ребилда – вещь совершенно точно полезная, но возникает вопрос накладных расходов по производительности при тройной четности. Однако есть подозрение, что это тренд индустрии, с которым придется смириться, потому что революционных изменений в технологиях  RAIDов пока на горизонте не видно (хотя различные эксперименты безусловно идут).

raid1

 

raid2

CS-Series

CS-Series – это гибридный массив. Модельный ряд ниже.

CS-Series1

SSD используются в качестве кэша на чтение и процесс записи данных иллюстрируется следующими изображениями.

CS1

CS2

Чтение происходит так

CS3

Аппаратная составляющая схожа с серией AF с той лишь разницей, что SSD в гибридной полке занимают лишь три нижних слота.

allflesh1

 

allflesh2
allflesh3

Опции расширения по портам полностью аналогичны AF-Series и здесь повторяться не будем.

Масштабируется, опять же, стандартно для Nimble.

Nimble

 

Полка расширения называется ES2 и их максимальное количество на массив — шесть.

The ES2 Expansion Shelf

Nimble Storage

Для полки под SSD правила ниже.

SSDs

Так же в рамках линейке поддерживается апгрейд контроллеров без остановки системы.

CS1000

SF-Series

Рассказ о серии SF будет самым коротким. Серия представлена всего двумя моделями: SF 100 и SF300. Возможность кластеризации на момент написания обзора в состоянии – TBD. Краткие технические характеристики далее.

333

Это гибридные системы, принцип работы которых рассмотрен выше.

На самом деле самым ценным активом при покупке Nimble стал программный продукт Nimble InfoSight, являющийся платформой предиктивного анализа состояния IT инфраструктуры. Однако в рамках этого обзора мы не будем его рассматривать  — продукт на столько хорош, что заслуживает своего отдельного комплексного обзора.

За сим будем прощаться. Если в процессе обзора возникли вопросы, то обращайтесь – наши специалисты с радостью на них ответят.

 

Обзор 3PAR StoreServ 9450

3PAR 9450

Не так давно компания НРЕ анонсировала новый флэш массив 3PAR 9450. Давайте поподробнее рассмотрим, что же он из себя представляет.

В начале ключевые моменты, о которых говорит производитель.

  • 9450 — новая флэш-система в семействе 3PAR
  • Это дополнение к существующей линейке продуктов, а не замена одной из текущих моделей
  • Построен на существующем ASIC GEN5, используемом во всем модельном ряде 3PAR
  • 9450 удваивает характеристики существующих 8450 с вдвое большим количеством процессоров и более чем в два раза большим объемом кэш-памяти
  • Форм-фактор базируется на серии 20 000, каждый контроллер имеет 2U, как и в серии 8000
  • В отличие от серии 8000, 9450 не содержит дисков на передней панели

Аппаратное обеспечение

Аппаратное обеспечение

 

  • 2 x Gen 5 ASICs на каждую ноду
  • 2 x CPUs на каждую ноду: 10-core Ivy Bridge 2.4 GHz
  • Зеркалированный загрузочный SSD объемом 256GB
  •  Full Mesh Backplane
  • Backplane Bandwidth: 48GB/s – 4.0 GB/s ASIC to ASIC
  • Полностью пассивный Backplane

 

Суммарная высота контроллерных нод — 8U. Выглядит довольно стильно. И хотя для нашего рынка это не столь важно, но нужно отметить, что с точки зрения дизайна новые продукты НРЕ оставляют весьма приятное впечатление.

 

8U

 

За передней  панелью размещаются вентиляторы и батарейные модули.

 

Fan

Сзади находятся блоки питания, встроенные порты ввода/вывода и слоты для установки карт расширения.

BP

Полки расширения имеют 25-ть отсеков для установки дисков, но используется из них только 24.

Polki

 

Node

 

Полки к контроллерам могут подключаться двумя способами: Direct Connect и Daisy-chain.

Direct Connect configuration – Default

  • Каждая дисковая полка напрямую подключается

к портам SAS контроллерных нод

  • Лучшая производительность и сбалансированная

конфигурация

Daisy-chained configuration

  • Две дисковые полки соединены последовательно

на пару портов SAS

  • Увеличение будущей масштабируемости по

дискам

 

Кабели. Бэкенд полностью 12Gb. Для подключения полок внутри стойки рекомендуются к использованию медные кабели Mini-SAS HD длиной 0,5 и 2 метра. Для подключения полок в удаленной стойке предусмотрены оптические 12Gb Mini-SAS AOC длинами 10, 25 и 100 метров.

Диски на данный момент такие

HDD

* Minimum number of SSDs (of any capacity) required on a drive enclosure if that SSD is present in the drive15.36TB SSD then that drive enclosure needs at least 8 SSDs (of any capacity, not necessarily all 15.36TB)

Так же есть диски SED, что для нашей страны не сильно актуально.

Карты расширения имеются следующие

FC

Правила установки адаптеров представлены ниже

 

prav

 

Сервисный процессор уже по традиции может быть физическим (платная опция) и виртуальным (идет в комплекте бесплатно)

Fiz

Физический сервисный процессор

  • Реализован на базе DL120 Gen 9 Server
  • Процессор 1.6GHz 6-Core Intel Xeon E5-2603v3
  • 4GB RAM
  • 1TB SATA HDD
  • Дублированные блоки электропитания (опция)
  • Два порта Ethernet ports с поддержкой iLO
  • Доступ к консоли через порт iLO

Виртуальный сервисный процессор (vSP)

  • Включен бесплатно в базовое программное обеспечение HPE 3PAR OS
  • Поддерживает системы виртуализацииVMware и Microsoft Hyper-V

  В зависимости от типа серверного шкафа (1075 или 1200мм), количество дисковых полок в базовой стойке будет разным. Для шкафа 1075мм максимум 12шт; для шкафа 1200мм – 16-ть. Связано это с тем, что в стойках 1075мм нет места для установки вертикальных PDU, поэтому приходится использовать горизонтальные и занимать полезное пространство стойки. Наглядно это выглядит следующим образом

Rack

9450

1975

Производительность.

Производительность на данный момент заявляется следующая

Proiz

Здесь следует отметить, что это данные внутренних тестов. Будут ли публичные – пока неизвестно.

Сравнение 3PAR StoreServ 9450 и 8450

Срав

1 Available on 1200mm racks only. On 1075mm racks it’s 288 SFF

8450-9450

Программное обеспечение

  С точки зрения программного обеспечения 9450 поддерживает весь функционал 3PAR OS, который на момент написания обзора существует в версии 3.3.1. Схема лицензирования с февраля 2017 для всех 3PAR — «все включено».

  И напоследок немного о будущем. 3PAR 9450  по заявлению разработчиков полностью готов к приходу NVMe и по мере появления на рынке Storage Class Memory начнет ее активно использовать. Что ж, в ожидании этих новинок будем завершать обзор.

Новый дисковый массив Dell EMC SC5020

sc5020-

Компания Dell EMC после анонса на Dell EMC World 2017 представила новый дисковый массив SC5020.

SC5020 является прямым преемником массива хранилищ SC4020, находясь в том же, самом востребованном ценовом сегменте.

Аппаратная начинка у SC5020 подросла заметно – и по памяти, и по CPU, и по портам, и по итоговой производительности: почти в 2 раза выше, чем у SC4020 (который и так был довольно производительным для своего ценового сегмента).

Плюс, все возможности SCOS 7.1 в нем конечно же доступны: федерация до 16-ти контроллеров, дедупликация и компрессия, QoS, Zero Detection, встроенный Metro Cluster (официально поддерживаемый VMware в категории Metro Cluster Storage), снэпшоты и их передача на вторую площадку в качестве бэкапов, все виды тирингов (до 4-х  – по HDD, SSD, трэкам и рейдам), 7 типов удалённой репликации (2 синхронных, 2 асинхронных, Live Volume c/без Auto Failover. трехсайтная) и конечно же Scale-Out NAS опция в виде FluidFS.

С выходом SC5020 Dell EMC завершил переход на новую универсальную схему лицензирования для SC-серии. Теперь схема лицензирования общая и консистентная по всей линейке – от самой младшей (SC5020) до самой старшей (SC9000).

Новый конструктив

SC5020 использует уже знакомый нам по SC7020 конструктив – 30 дисков в 3U

SC5020_Rear

Для SC7020 этот конструктив был необходим как воздух, потому что давал чуточку больше места контроллерам для установки дополнительных интерфейсных карт (и бэкенд, и фронтенд), которых всегда маловато в компактных корпусах.

Конечно, в SC5020 не используются все возможности этого корпуса, иначе он просто не отличался бы от SC7020, но существенные улучшения по сравнению с SC4020 на лицо:

  • Дополнительная мезанин плата на 4 iSCSI порта (RJ45, как на картинке, или SFP+ без трансиверов).
  • Back-End проапгрейдился до SAS-12Gb. Как и прежде, рекомендуем устанавливать не более 192 дисков на одну SAS-шину (предел адресации в SAS – 256 устройств).
  • FC32Gb – 4 или 8 портов на один SC5020. Кстати, в SC5020 больше нет портов FC-8Gb. Только 16Gb и 32Gb – «All-Flash Ready SAN»!
  • Как и в SC4020, доступен SAS-12Gb в качестве Front-End портов.
  • Полки расширения соответствуют бэкенду: это SC420 и SC400, как в старших моделях. К сожалению, сюда нельзя подключить SC280 (высокоплотная полка на 84 диска 3.5” в 5U). Зато вместо SC280 осенью появится еще один высокоплотный конструктив – SC460 на 60 дисков в 4U, и теперь уже с шиной SAS-12Gb.

В общем, это очень и очень достойная замена SC4020. Пока оба массива продаются параллельно, SC-линейка выглядит следующим образом:

SC Series platforms

Производительность

Отличительная особенность SC5020 – это, конечно, производительность. Он сильно подтянулся к SC7020 по этому показателю.

250

Аппаратное обеспечение

app

 

Программное обеспечение

Prog

Сравнение программных опций по всей текущей линейке массивов

SC_Feature

Лицензирование

В SC5020 используется «универсальная схема лицензирования», как и в старших моделях SC7020 и SC9000:

Lic

На этом краткий обзор завершен. Если он оказался кому-то полезен, то будем очень рады.

Компания HPE начала продажи новых серверов HPE ProLiant Gen10

 Компания Intel анонсировала новые процессоры Xeon Scalable Family и сразу  вслед за этим HPE представила линейку серверов Gen10. Но Xeon Scalable стал не единственной новинкой в серверах, среди которых стоит отметить улучшение управляемости аппаратной инфраструктуры (переход на управление через REST API, интеграцию с различными средствами автоматизации, поддержку шаблонов и сценариев), новые модели потребления IT -ресурсов (например, финансовые услуги и оплата по мере использования), а также кардинальное улучшение системы защиты от угроз в информационной безопасности, связанных с уязвимостью низкоуровневых компонентов серверов (BIOS и прошивок).  HPE ProLiant Gen10

  Теперь обо всем этом по порядку.

Процессоры

  Повышение производительности сервера достигается в числе прочих  с помощью собственных технологий HPE под общим названием Intelligent System Tuning:

— Workload Matching (настройка под задачу) – это набор пред настроек сервера под различные конкретные задачи, которые в каждом случае повышают отдачу за счет тонких изменений конфигурации памяти, процессоров, питания, дисковой подсистемы и т.д. (всего существует около 30 регулируемых настроек, поэтому настроить сервер под конкретную задачу самостоятельно может быть непросто)

15

— Jitter Smoothing (сглаживание дрожания). С включением этой технологии, сервер начинает отслеживать «дрожание» частоты процессора в режиме TurboBoost, и сглаживать перепады частоты для устранения задержек обращения к разным уровням памяти, которые возникают при резком изменении частоты. В результате, в требовательных к частоте и задержкам задачах (например, ОС реального времени и некоторые Java-приложения) мы получаем прирост производительности даже сверх обычного прироста в турбо-режиме.

Jitter

 

— Core Boosting (ускорение ядер). Эта технология станет доступной в серверах Gen10 в ближайших релизах (осень 2017 – весна 2018), для некоторых процессоров Intel Xeon Scalable семейств 6000 и 8000. Она предназначена для повышения частоты активных ядер в процессорах Intel Xeon в режиме TurboBoost сверх «обычной» доступной частоты в этом режиме. В результате таких настроек можно оставаться на том же уровне производительности, например, в БД Oracle, работая при этом на меньшем числе ядер. А это прямая экономия денег на лицензиях.

 

Core

 

Для включения Jitter Smoothing и Core Boosting на сервере должна быть активирована лицензия iLO Advanced или выше. Core Boosting, кроме того, будет работать не на всех процессорах и конфигурациях сервера.

 

Память

  Также были доработаны механизмы обеспечения отказоустойчивости памяти. В современных системах, где объем памяти исчисляется сотнями гигабайт, вероятность появления ошибок в каких-то чипах памяти очень высока. Поэтому применение инструментов для обеспечения надежности памяти (RAS) становится все более обоснованным. С поколением Gen10 HPE представила еще один такой инструмент – технологию SmartMemory Fast Fault Tolerance (FFT). Упреждающие алгоритмы в серверах HPE все время анализируют состояние чипов памяти. И, в случае появления риска для данных в какой-то области памяти в чипе, FFT назначает ей «запасные» области сравнимого объема на том же канале памяти. В результате запись и чтение данных в защищаемой области идет с контролем целостности, и пропускная способность и общий объем падают только для этой маленькой области.

  В чем отличие это технологии, например, от механизма Lockstep с DDDC от Intel, который используется в процессорах Xeon E7 сейчас? В том, что с тонким контролем HPE Advanced Error Detection и Fast Fault Tolerance, мы снижаем производительность только при появлении вероятности потери данных и только для малой области памяти, в отличие от Lockstep, где производительность снижается в целом по системе, от нескольких до 50%. С FFT пропускная способность на сервер падает в среднем не более, чем на 1%. Эта технология также уникальна для HPE и не появится в серверах других производителей еще 2 года по лицензионному соглашению с Intel. В целом, применение современных технологий RAS в серверах HPE, по статистике HPE, снижает число «падений» системы в год (Annual Crash Rate) на 85%. Еще один ответ на вопрос почему память от HPE называется Smart Memory.

  Другой набор инноваций по работе с памятью – это две технологии энергонезависимой оперативной памяти HPE NVDIMM и HPE Scalable Persistent Memory. Первая – это существующие уже более двух лет модули оперативной памяти, совмещенные с энергонезависимой флешкой (на том же модуле) с питанием от батарейки в сервере. Такие модули видны обычным ОС (Windows и Linux) как очень быстрое блочное устройство. А некоторым приложениям (например, Microsoft SQL Server 2016) такой модуль виден как особое устройство с побайтной адресацией (как в RAM), но с устойчивостью к отключению питания. При размещении на таких модулях, хвоста лога транзакций (Tail of transaction log) MS SQL Server’а, мы видим прирост производительности базы данных до 4 раз по сравнению с размещением хвоста лога на SSD. Новые модули HPE NVDIMM теперь имеют емкость 8 и 16 ГБ, в то время как для БД SQL размером в несколько сотен гигабайт в большинстве случаев достаточно одного модуля NVDIMM для размещения хвоста лога транзакций.

 HPE Scalable Persistent Memory – это комплексные устройства, построенные на базе серверов HPE ProLiant DL380 Gen10, обычных модулей памяти DDR4 и особого механизма защиты RAM от потери питания с помощью NVMe-накопителей и резервного блока питания с внутренним ИБП в самом сервере. С этим устройством вы можете разместить в памяти до 1 ТБ данных без риска потерять их при отключении электричества, и таким образом многократно ускорить работу многих приложений. Например, во внутренних тестах с MySQL операции Checkpoint (сохранения данных БД из памяти на энергонезависимый носитель) на HPE Scalable Persistent Memory выполнялись в 27 раз быстрее, чем на HDD и в 3 раза быстрее, чем на SSD. А Restore (обратная операция – возвращение данных в память после сбоя) происходила в 13 и 5 раз быстрее соответственно. И кроме того, с такой системой практически любую БД можно превратить в in-memory, многократно повышая ее производительность.

Memory

 

Использование NVMe-накопителей также получило очень глубокое развитие. Теперь в каждый сервер можно установить в разы больше NVMe-накопителей (до 20 штук в DL380 Gen10, например), и в одну и ту же дисковую корзину в сервере можно устанавливать и NVMe, и SAS/SATA диски (продолжают существовать и обычные корзины без поддержки NVMe, если она вам не нужна). Плюс, появилась поддержка нового формата накопителей – uFF (micro-Form Factor), которых помещается 2 на место одного SFF-накопителя (объемы 120 и 340 ГБ, SATA). uFF-SSD могут использоваться как загрузочные или кэширующей диски для целого ряда задач, и экономят место в сервере для более емких накопителей под продуктивные данные.

  Обновилась и линейка контроллеров. Теперь они быстрее (до 1,6 млн IOPS с контроллера) и могут работать одновременно в HBA и RAID-режиме (какие-то диски на контроллере в одном режиме, какие-то в другом). Полная линейка контроллеров в Gen10 на данный момент выглядит так:

Tak

  iLO 5

Одна из самых мощных новинок поколения Gen10 – усовершенствованная система удаленного управления HPE iLO 5. Кроме более быстрого чипа iLO, который ускоряет операции с удаленной консолью и виртуальными накопителями, появился целый ряд новых возможностей:

ilo

  Технология HPE Silicon Root of Trust – это проверка прошивки iLO на наличие в ней вредоносного кода или повреждений с помощью сверки контрольной суммы с аппаратным чипом внутри системы iLO. Когда прошивка iLO проверена, это средство управления само проверяет прошивки всех остальных компонентов сервера, включая BIOS на предмет вторжения злоумышленников или другие нарушения целостности. В случае обнаружения проблемы, iLO может автоматически или по команде восстановить конкретную прошивку в последнее рабочее состояние из защищенного репозитория прошивок, вернуть сервер к заводским настройкам или не реагировать.

SYS            Зачем эта технология? Во-первых, прошивка компонента может повредиться в процессе обновления вручную или просто из-за сбоя в микросхеме. Во-вторых, аналитики угроз ИБ с каждым годом обнаруживают все больше уязвимостей в прошивках и другом низкоуровневом коде серверов. Этот уровень практически не контролируется привычными антивирусами, поэтому и угроза там скрывается значительная.

Уникальность подхода HPE здесь: а) полный контроль над производством прошивок компонентов; все компоненты под брендом HPE имеют специально разработанную, либо проверенную и поставляемую только через канал HPE прошивку и, начиная с поколения Gen10, поставляются с цифровой подписью HPE. И б) только HPE разрабатывает и производит собственную систему управления iLO, от софта до микросхем, благодаря чему может встроить в нее средство проверки подписей прошивок.

  Еще одно небольшое, но полезное улучшение безопасности – датчик открытия корпуса сервера, при срабатывании которого iLO может заблокировать работу сервера до выяснения причин инцидента.

  Функциональное улучшение в iLO 5 – теперь средство настройки сервера, включая настройки RAID, под названием Intelligent Provisioning можно запускать прямо из консоли iLO, а не только при загрузке сервера по нажатию F10. Благодаря этому можно избежать лишних перезагрузок сервера.

  Быстрее стала проходить и сама процедура загрузки при использовании UEFI-режима BIOS – в среднем загрузка в 3 раз быстрее. Изменился и стал более удобным интерфейс настройки BIOS RBSU, и запустить его тоже можно из Intelligent Provisioning (а его – из iLO).

  Большой плюс для пользователей различных средств автоматизации, в том числе в многовендорных окружениях – iLO теперь поддерживает большинство инструкций Open IPMI. И к тому же HPE продолжает лидировать в наполнении стандарта управления «железом» через интерфейс REST API (читайте здесь). Теперь REST API от HPE полностью соответствует стандарту DMTF Redfish, кроме части управления RAID-контроллерами (там пока собственные REST API). Для управления через REST API есть как собственное средство, так и масса вспомогательных средств (например, для Python и PowerShell).

  Еще одно новшество – на этот раз в части диагностики неисправностей. Если раньше Active Health System Log (запись «бортового самописца» сервера) можно было только выгрузить через iLO и отправить в Центр поддержки HPE для анализа, то сейчас его можно выкачать на флешку через специальный USB-порт на лицевой стороне сервера и проанализировать самостоятельно с помощью бесплатного сервиса Active Health System Viewer. Сервис показывает и предлагает решение для 25% возможных уязвимостей, а для остальных – просто значительно облегчает обращение в поддержку, сокращая время на анализ неисправности.

err

Новые модели HPE ProLiant Gen10

Теперь о моделях, которые уже доступны к заказу сегодня. Вот так будет выглядеть весь основной портфель серверов HPE (здесь мы не говорим о линейках Apollo, Integrity и некоторых других):

mls

Зеленым выделены те модели, которые можно заказать сейчас. Краткий обзор моделей в картинках:

ProLiant DL360 Gen10

COD

serv

 

Plat

 

ProLiant DL380 Gen10

380

 

 

serv380

vserv380

ProLiant DL560 Gen10

560

p560

ProLiant BL460c Gen10

460

p460

MicroServer Gen10

micr

micr1

Кроме того, сейчас доступны к заказу новые серверы для платформы Synergy– SY480 Gen10 и SY660 Gen10, а сама платформа Synergy получила поддержку 25/50 GbE фабрики Mellanox, мощные графические опции и расширение вариантов конфигурации внутренних дисковых полок.

  Плюс, существенно обновилась линейка продуктов для высокопроизводительных вычислений (НРС). Представлен новый флагман суперкомпьютерного мира – система HPE SGI 8600 с жидкостным (водяным) охлаждением. Отвечая стремительному прогрессу в мире НРС и потребностям заказчиков HPE, полностью переработана 6000-ная серия – представлена новая высокоинтегрированная система HPE Apollo 6000 Gen10 (узлы XL230k Gen10 и шасси k6000). Для решения широкого спектра задач в области искусственного интеллекта и некоторых других нагрузок, было представлено новое семейство узлов HPE Apollo 10-series, поддерживающих самые современные технологии ускорения вычислений Intel Xeon Phi 7000 и NVIDIA Tesla P100 на шине NVLink.

  На этом краткий обзор завершен. Более подробно об этих новинках, и не только, можно узнать у наших специалистов.

 

 

НРЕ: Краткий обзор аппаратных платформ, типовых архитектурных решений и услуг для корпоративных информационных систем. Весна 2017

Трансформация ИТ  с помощью Hewlett Packard Enterprise

Идеи всегда являлись залогом успеха в развития бизнеса. Однако одних лишь хороших идей мало. Успех определяется тем, насколько быстро компания может превращать идеи в прибыль. Сегодня путь от идеи до ее реализации радикально сократился. Именно поэтому, говоря об особенностях современного этапа развития экономики, эксперты рынка все чаще используют термин «экономика идей».

Для экономики идей характерны:

  • многообразие технологических инноваций, которые открывают новые возможности для быстрой реализации идей, формирования новых продуктов, услуг, анализа рынка, совершенствования методов работы с заказчиками, повышения эффективности, сокращения затрат и пр.
  • возможность сравнительно легко получить доступ к ИТ-инфраструктуре и ИТ-ресурсам корпоративного класса. Сегодня можно использовать вычислительные ресурсы по требованию, получить ERP-систему на условиях «ПО как услуга», проводить маркетинговые кампании с помощью социальных сетей и пр. Никогда ранее эти возможности не были такими доступными.

Облачные технологии обеспечивают динамически масштаби- руемую обработку данных, в которой вычислительные ресурсы предоставляются пользователю как интернет-сервис на основе бизнес-модели оплаты по факту использования. Они позволяют перейти к модели поставки платформы, инфраструктуры и при- ложений как сервиса.

Технологии Больших данных обеспечивают обработку в режиме реального времени структурированных и неструктурированных данных любого объема. Позволяют радикально сократить время поиска информации и выполнения аналитических запросов, перейти к модели предоставления данных как услуги, обеспечить возврат инвестиций в данные.

Технология Mobility обеспечивает пользователю защищенный доступ к корпоративной ИТ-инфраструктуре и информационным системам с мобильных устройств и из любой точки. Предоставляет как свободу выбора устройств, так и непрерывный режим доступа. Радикально преобразует понятие рабочего места.

Современный центр обработки данных (Data Center — ЦОд) является программно-определяемым, т. е. использует способ организации информационных ресурсов (вычислительных, хра- нения, сетевых), при котором вся ИТ-инфраструктура виртуали- зована, потребляется как услуга, а управление ресурсами ЦОД выполняется при помощи ПО.

 Более подробно (HP — Весна 2017)>>

Новые системы NetApp

Новые системы NetApp под управлением ONTAP 9.1
Во время ежегодной конференции для партнёров и заказчиков NetApp Insight было объявлено о выходе новых систем хранения данных, работающих под управлением операционной системы ONTAP. Обновились системы FAS и AFF.
Вместе с выходом нового оборудования будет доступна новая версия ONTAP — 9.1. Для начала разберёмся, что же нового в железе.
FAS. Всем FlashCache. Первые СХД с 40GbE и 32Gb FC.
Начнём с обновления гибридных массивов FAS. Выходит 4 новые модели: FAS2620, FAS2650 — системы начального уровня, FAS8200 — система среднего уровня для корпоративных заказчиков и FAS9000 — high-end система с абсолютно новым (для NetApp) подходом в построении шасси.
Новые системы стали существенно производительнее:
Используются новые процессоры Intel на архитектуре Broadwell
Доступно больше кэша и NVRAM
NVMe FlashCache
В старших контроллерах доступны интерфейсы 40GbE и 32Gb FC
Для подключения дисков используется SAS-3 12Gb

1

Как видно, моделей стало меньше, что вполне логично при возможности горизонтального масштабирования. Клиенты, которым будет не хватать FAS8200, а FAS9000 покажется слишком производительной, могут брать 4-контроллерные кластеры из FAS8200.

 

 

FAS2600

2

Теперь в младшей линейке две модели. FAS2620 заменяет FAS2554, а FAS2650 — FAS2552. Модели аналогичной урезанной в функциональности FAS2520 теперь нет.
FAS2620 и FAS2650, как и прошлое поколение, используют одинаковые контроллеры. Отличаются только шасси. В первом случае это шасси на 24 SAS или SSD дисков. А FAS2620 имеет шасси на 12 дисков SATA или SSD.
Обе эти системы конвертируются в дисковые полки для подключения к новым контроллерам в случае апгрейда на старшие модели. Только полки теперь DS224C и DS212C. Это полки с 12Gb SAS интерфейсом. Принцип наименования остался прежний — Disk Shelf, количество юнитов, количество дисков и скорость интерфейса. C — 12 в hex. При желании новые полки можно подключить к текущим контроллерам FAS8000. Надо всего лишь приобрести соответствующий SAS HBA. В новых полках ACP не требует отдельных портов и работает внутри SAS.
Новые системы обещают быть в 3 раза быстрее поколения FAS2500:
2 шестиядерных процессора на основе микроархитектуры Intel Broadwell
64GB DDR4 памяти
8GB NVRAM
1TB NVMe M.2 FlashCache
FlashCache на младших моделях, еще и NVMe, и в базовой конфигурации.
Увеличились максимальные лимиты на общее количество кэша на контроллерах на основе FlashPool и FlashCache до 24TiB.
Вид контроллеров сзади:

3

Какие порты для чего используются:

4

Вот как выглядят технические характеристики новых контроллеров в сравнении с текущим поколением:

5

 

FAS8200

6

FAS8200 пришла на замену сразу двум моделям текущего поколения — FAS8020 и FAS8040. Пара контроллеров FAS8200 находится в одном корпусе и занимает всего 3U. Дисков в этом шасси нет.
Обещают прирост производительности по сравнению в FAS8040 около 50%:
В 2 раза больше ядер
В 4 раза больше памяти
2 TiB NVMe FlashCache в базе с возможностью расширения до 4TiB
Характеристики FAS8200 в сравнении с FAS8040:

7

Так контроллеры выглядят сзади:

8

Подробнее про порты:

9

FAS9000

22

В текущем поколении вся линейка FAS80x0 делит одну архитектуру шасси. В FAS9000 применили новый подход, который упрощает обслуживание и расширение.
Но начнём с технических характеристик и сравнения с FAS8080 EX.
Прирост производительности по сравнению с FAS8080 EX 50% за счёт:
72 ядер — 4 процессора по 18 ядер
1024GB DDR4 памяти — в 4 раза больше
В два раза больше NVRAM
2TiB NVMe FlashCache, расширение до 16TiB
Зеркалирование NVRAM с пропускной способностью в 80Gb/sec
Таблица сравнения с FAS8080 EX:

122

Вид сзади:

12

Новый модульный дизайн. Контроллеры не имеют клиентских портов. Контроллеры и модули расширения поддерживают горячую замену. Благодаря тому, что модули расширения теперь “живут” отдельно от контроллера, при их замене нет необходимости производить failover и нет сложностей с кабелями из других модулей. И самое интересное, что это шасси позволяет в будущем заменить контроллеры FAS9000 на новые.

 

AFF A300 и  AFF A700

13

A300 даёт на 50% больше производительности при задержках 1мс, чем AFF8040
Поддерживает до 384 SSD
Доступны SSD 15.3TB, 3.8TB и 960GB

14 15

A700 выдаёт в два раза больше производительности, при задержках в два раза ниже, чем AFF8080
Поддерживает до 480 SSD
Доступны SSD 15.3TB, 3.8TB и 960GB

16

17

Обе модели поддерживают интерфейсы 40GbE, 32Gb FC.
Поговорим немного про производительность.

18

Такого прогресса не достичь простым обновлением железной платформы. С выходом ONTAP 9.1 NetApp первым начал начал поддерживать технологию Multi-Stream Write для SSD. Изначально эту технологию разработали в Sаmsung. В конце 2015 эта технология стала частью стандарта T10 SCSI. Она также будет в стандарте NVMe.

 

Multi-stream write (MSW) SSD
Что это за технология?
Всем известно, что запись на SSD сильно отличается от записи на HDD. SSD по сути не имеет такой операции как перезапись. При изменение каких-то данных необходимо стереть старые данные и заново записать измененные данные. Проблема в том, что чтение и запись в пустое место происходит с гранулярностью страницы, а вот при удалении необходимо стирать блок, который состоит из нескольких страниц. Это всем известные P/E циклы (Program/Erase). Всё это ведёт к уменьшению срока службы SSD и снижению производительности при заполнении диска.
Срок службы снижается, так как NAND-ячейки рассчитаны на определенное количество P/E циклов. Что касается производительности, контроллер SSD старается писать изменении данных в пустые страницы. Периодически для очистки блоков с устаревшими данными запускается Garbage Collector, который освобождает блоки. Пока есть свободные страницы для записи новых и измененных данных, GC работает в фоне и особо не влияет на производительность. Но при достижении определенной степени наполненности диска, GC начинает работать более активно, и производительность SSD на запись существенно снижается. SSD приходится производить больше операций, чем на него приходит со стороны хоста. Это называется write amplification. На графике производительности SSD виден типичный write cliff.

19

В Samsung решили классифицировать данные, которые идут со стороны хоста. Данные ассоциируются с определенным потоком. В один поток попадают данные, которые с высокой вероятностью будут одновременно изменяться или удаляться. Данные из разных потоков пишутся в разные блоки на SSD.

20

Такой подход позволяет увеличить долговечность SSD, повышает производительность и обеспечивает стабильные задержки.
По внутренним тестам Samsung технология multi-stream write вполовину снижает write amplification, endurance вырастает до 3 раз, задержки в большинстве случаев снижаются на 50%.
Всё это теперь доступно в AFF системах NetApp с ONTAP 9.1.

 

ONTAP 9.1
Что еще нового в следующей версии ONTAP?
Поддержка FlexGroups. Это масштабируемые файловые контейнеры, которые могут хранить до 20PB и 400 млрд файлов. Одна FlexGroup может располагаться на нескольких контроллерах в кластере, при этом при записи файлов кластер автоматически балансирует нагрузку. Подробнее про FlexGroups.
Поддержка шифрования данных без специальных self-encrypting дисков и внешних менеджеров ключей. NetApp Volume Encryption (NVE). Шифрование происходит на уровне тома. То есть можно выбирать какие тома шифровать, а какие нет. Для каждого тома используется отдельный ключ шифрования. Шифрование происходить в программном модуле встроенном в ONTAP, используются hardware acceleration на уровне процессоров Intel. При этом сохраняется польза от всех технологий эффективности NetApp. WAFL отрабатывает до того как данные будут зашифрованы.

21

Поддерживается работа в MetroCluster. Есть возможность реплицировать данные из незашифрованных томов на другую систему в шифрованные тома. Поддерживается ONTAP Select. А параноики могут использовать два способа шифрования: NVE и шифрование на уровне NSE дисков.
К сожалению, это всё будет недоступно в России. Будет использоваться два разных образа ONTAP — с поддержкой NVE и без.
ONTAP Select теперь поддерживает конфигурации all-flash.
Для кластеров с использованием SAN-протоколов увеличен лимит по количеству контроллеров в кластере. Теперь такие кластеры могут состоять из 12 нод или 6 пар контроллеров.

Новое поколение двухпроцессорных серверов PRIMERGY

30780scr_ed241b513d17ae6
1 апреля 2016 года компания Fujitsu объявила о выходе на рынок обновленной линейки двухпроцессорных серверов PRIMERGY. Благодаря новым процессорам семейства Intel® Xeon® E5-2600 v4 и технологии памяти DDR4, новые модели двухпроцессорных серверов PRIMERGY обеспечивают передовые показатели скорости работы, увеличив производительность примерно на 20% по сравнению с предыдущим поколением. Это подтверждается 4 мировыми рекордами по результатам эталонных тестов.

Линейка PRIMERGY традиционно включает в себя серверы напольного и стоечного форм-фактора, блейд-серверы, компактные серверные узлы для кластеров и специализированные стоечные модели для компаний, предоставляющих услуги хостинга. Серверы Fujitsu способны удовлетворить любые потребности бизнеса в ИТ, будь то построение системы управления предприятием на производстве или поддержка цифровой платформы для совместной работы, объединяющей удаленных сотрудников.

В России начались продажи игровых мониторов Predator

Москва (08 апреля 2016 г.) Компания Acer начала продажи в России своих новых игровых мониторов Predator – в магазины поступили модели серии XB1 (27, 28 и 32 дюйма) и искривленные мониторыX34 и Z35. Z35_wp_game_02

Мониторы Predator от Acer созданы специально для заядлых геймеров, которые ценят передовые характеристики и дополнительные возможности. ЛинейкаPredatorкак раз отличается наличием особых технологий, которые созданы специально для игроков, будь то идеальная цветопередача или специальные настройки, упрощающие процесс игры.
Например, новые игровые мониторы Predator поддерживают технологию GameView от Acer, которая позволяет быстро переключаться между тремя настраиваемыми профилями дисплея вместе с изменением таких настроек, как усиление черного, разгон и отображение вспомогательных инструментов (таких как прицел) для разных типов игр. Таким образом, можно моментально изменять настройки дисплея непосредственно во время игры без необходимости переходить по многочисленным меню интерфейса, что особенно важно, когда на счету каждая секунда.
Кроме того, новинки выделяются не только в плане технологий, но и за счет своего агрессивного, но стильного дизайна и внешнего вида. Футуристическая конструкция на алюминиевой основе, матовый корпус и дизайнZeroFrame украсят любой рабочий стол, а острые динамичные углы и эргономичная регулировка наклона/высоты отлично дополняют внешний вид мониторов Predator.Вы также можете настроить индивидуальную многоцветную динамическую светодиодную подсветку от монитора, которая падает на зону для мыши и клавиатуры, для полного погружения в игровой процесс.

Игровые мониторы Predator серии XB1 оснащены технологией NVIDIA® G-SYNC™, которая обеспечивает идеальное отображение деталей и плавное воспроизведение видео, позволяя геймерам быть на шаг впереди своих соперников. Все 27-дюймовые модели обладают безрамочным дизайном (конструкция ZeroFrame). Их IPS-панели поддерживают разрешение UHD 4K (3840 x 2160) или WQHD (2560 x 1440), что позволяет воспроизводить все цвета в палитре sRGB. 28-дюймовая модель (XB281HK) оснащена панелью с разрешением UHD 4K, которая поддерживает моментальное время отклика 1 мс (GTG). Благодаря этому быстро движущиеся объекты и резкие движения отображаются плавно и без каких-либо нежелательных эффектов.
Первый в мире изогнутый игровой монитор PredatorX34 полностью погружает пользователя в игровую вселенную. Монитор с разрешением UltraWide QHD и IPS панелью обеспечивает превосходное качество изображения, а соотношение сторон 21:9 создает идеальные условия для RPG и симуляторов. Частоту обновления можно увеличить до 100 ГГц благодаря встроенной функции разгона, за счет чего сокращаются искажения движущихся объектов и повышается скорость обработки кадров в секунду.
Predator Z35 — первая 35-дюймовая модель в линейке изогнутых мониторов Predator серии Z с поддержкой технологии NVIDIA® G-SYNC™. Он оснащен 35-дюймовой сверхширокоугольным (21:9) дисплеем Full HD (2560×1080), радиус кривизны которого составляет 2000R — все это гарантирует полное погружение в игровой процесс. Игровой монитор Predator Z35 поддерживает технологию NVIDIA® ULMB™ (Ultra Low Motion Blur), которая уменьшает смазывание движущихся объектов, сохраняя их резкость в динамичных играх. Кроме того, благодаря поддержке разгона частоты обновления до 200 Гц геймеры смогут обнаружить своих врагов еще до того, как те их заметят, а также насладиться кристально чистой картинкой во время гонок. Он также оснащен DTS® Sound, двумя 9W колонками и с поддержкой AcerTrueHarmony.

Источник компания Acer