Обучение Fasttrack. «Основы Сети». «Основы Дата-Центра». Часть 1. Эдди Мартин. Декабрь 2012 Г.

Около года назад я заметил интереснейшую и увлекательную серию лекций Эдди Мартина, который благодаря своей истории и примерам из реальной жизни, а также огромному опыту преподавания позволяет получить представление о довольно сложных технологиях.



Обучение FastTrack. «Основы сети».
</p><p>
 «Основы дата-центра».
</p><p>
 Часть 1. Эдди Мартин.
</p><p>
 декабрь 2012 г.
</p><p>

Продолжаем серию из 27 статей по его лекциям: 02.01: «Понимание модели OSI» Часть 1 / Часть 2 03: «Понимание архитектуры Cisco» 05.04: «Основы переключения или переключения» Часть 1 / Часть 2 06: «Коммутаторы от Cisco» 07: «Область использования сетевых коммутаторов, значение коммутаторов Cisco» 09.08: «Основы беспроводной локальной сети» Часть 1 / Часть 2 10: «Продукты в области беспроводных локальных сетей» 11: «Ценность беспроводных локальных сетей Cisco» 12: «Основы маршрутизации» 13: «Строение маршрутизаторов, платформы маршрутизации от Cisco» 14: «Ценность маршрутизаторов Cisco» 16/15: «Основы центров обработки данных» Часть 1 / Часть 2 17: «Оборудование для дата-центров» 18: «Ценность Cisco для центров обработки данных» 20.19.21: «Основы телефонии» Часть 1 / Часть 2 / Часть 3 22: «Программное обеспечение Cisco для совместной работы» 23: «Ценность продуктов Cisco для совместной работы» 24: «Основы безопасности» 25: «Программные продукты Cisco для обеспечения безопасности» 26: «Ценность продуктов безопасности Cisco» 27: «Понимание архитектурных игр Cisco (обзор)» И вот пятнадцатый из них.



Обучение FastTrack. «Основы сети».

«Основы дата-центра».

Часть 1. Умер Мартин.

декабрь 2012 г.

Почему центры обработки данных Cisco? Наша компания и дата-центры — это поистине интересная история! И у меня есть воспоминания, которые могут это подтвердить.

Я занимался IP-телефонией, голосовым специалистом, «телефонным парнем», как меня называла моя команда, когда мы начали работать над тем, что я называю центром обработки данных.

Это произошло в 2002 году, у нашей команды было собрание, Cisco только что объявила о приобретении Andiamo, и мы собирались начать продавать оптоволоконные коммутаторы, работающие по совершенно другому протоколу, чем Ethernet. Нас было всего 12 инженеров-программистов, они все это обсуждали и я, честно говоря, не особо их слушал, разговаривая с коллегой, и один из них сказал, что ничего не знает об этом волокне.

Я обернулся и сказал, что самое важное, что нужно знать по этому поводу, это то, что оптоволоконный кабель пишется «FIBRE», а не «FIBER».

Наш старший инженер тут же отреагировал на мои слова и сказал: «Ой, вы, видимо, много в этом знаете, вы настоящий специалист!» Я понял, что для меня лучше всего промолчать и не хитрить, поскольку следующие несколько месяцев я провел, выясняя, что нас ждет и как «выйти из этого».

Мне пришлось стать в некоторой степени экспертом в этом вопросе, прежде чем у нас появилась готовая модель и все остальное, и стать одним из тех, кто передаст эти знания моей группе.



Обучение FastTrack. «Основы сети».
</p><p>
 «Основы дата-центра».
</p><p>
 Часть 1. Эдди Мартин.
</p><p>
 декабрь 2012 г.
</p><p>

Что я наделал.

Первое, что мне нужно было сделать, это узнать о своих конкурентах.

Я поехал в Денвер, штат Колорадо, где собирался принять участие в семинарах McDATA. Эта компания была поставщиком № 1 в использовании так называемых больших коммутаторов директорского класса.

Когда я позвонил им и сказал, что я из Cisco, они сказали, что у них нет семинаров, на которых я мог бы присутствовать.

Наверное, поскольку мы уже объявили о своих планах и эта компания этому не очень обрадовалась.

Я рассказал об этом своему боссу, и он сказал: «Я не хочу ничего знать, используйте весь свой творческий потенциал, чтобы добиться этого»! Я снова позвонил в McDATA и сказал, что я консультант, но не могу советовать клиентам то, в чем сам не разбираюсь.

Мне ответили: «Ну, в таком случае, специально для тебя у нас есть мастер-класс!» Поэтому мне пришлось снять всю маркировку Cisco и пойти туда.

Там я узнал много интересного.

Когда я позвонил одному из своих коллег, который работал в сфере оптоволоконной связи, и он спросил, что я могу сказать обо всем этом сейчас, я сказал ему, что сейчас, в 2002 году, я чувствую себя так, будто вернулся в 1995 год. У этих коммутаторов был лишь небольшой радиус действия.

вариантов, но это была очень надежная и скоростная связь, по меркам того времени, но никаких сервисов внутри всех этих коробочек не было! Я прошел недельный курс обучения, и мы разобрали и собрали коммутатор серии 6140. Тренировка мне очень понравилась, и в субботу я улетел обратно.

Когда я пришел в воскресенье на работу и увидел наш новый коммутатор серии MDS 9500, я понял, что с таким оборудованием мы просто убьем весь рынок наших конкурентов! На тот момент мы были совсем другими людьми, у нас были совершенно разные дискуссии, оптоволокно только выходило на рынок, мы реализовывали много новых проектов в области виртуализации, внедряли VLAN. Именно тогда Cisco приобрела технологию VSAN (технологию виртуального хранения данных), которую до этого никто не создавал.

Но как мы могли все это объяснить? Да, можно сказать, что мы внедрили VSAN. Но нас спросили: «Что такое VSAN? Что это за VLAN? Люди, с которыми мы разговаривали, даже не знали, чем занимается Cisco в области сетевых технологий.

Большинство из них считали, что Cisco — это компания, которая поставляет продукты для построения сетей так же, как компании по доставке продуктов.

Они не знали о наших возможностях, они не знали о том, кто мы.

Итак, что же нам делать? Мы начали нанимать людей из различных компаний EMS по всему миру, которые занимались всем этим, и я работал с ними и другими командами, обучая их нашим трюкам.

И я узнал очень много о центрах обработки данных как о нашей перспективе на будущее; получается, что если взять общий ИТ-бюджет, то 60% этого бюджета тратится на дата-центры! Циско даже представить себе не мог нечто подобное! Наша компания расширялась на 45-50% в год, но в сфере организации дата-центров мы могли «ловить только половину рыбы», поэтому решили инвестировать в это новое перспективное направление рынка, то есть в захватывать «рыболовные места» и приносить в них ценные разработки.

Cisco вышла на рынок центров обработки данных незадолго до создания технологии виртуальных машин VMware, поэтому мы начали внедрять продукты, использующие эту технологию при построении центров обработки данных.

Это было лучшее время и самая подходящая возможность для использования виртуализации.

Но я хочу сказать, что мы не очень разумно инвестировали огромные суммы денег в создание серверов для клиентов за последние 15 лет. Но давайте перейдем непосредственно к нашей теме.

Начнем с приложений – по своей важности приложения располагаются на вершине требований к сетевому оборудованию.

Если вы вице-президент и вам необходимо добиться роста компании на 12% без найма дополнительного персонала, вам необходимо использовать более производительные и функциональные приложения.

Сегодня вы можете купить готовый программный продукт, сделанный на базе платформы salesforce.com для самостоятельной разработки приложений, но что делать, если вам нужно создать что-то уникальное для своих внутренних нужд? Вы должны быть готовы к тому, что вам нужно будет вложить много денег в развитие того, что нужно вашему бизнес-проекту, но при этом вы сможете им владеть.

Пусть это будет приложение для отдела продаж.

И первое, что должно быть – это база данных, которая будет содержать данные всех аккаунтов.

И мне нужно будет определить требования к хранилищу, которое будет хранить и обрабатывать все эти данные, уметь создавать резервные копии и т. д. А для этого мне нужна сеть, 2 свитча, которые подключат меня к SAN-хранилищу.

Затем мне нужны серверы, которые могут быть Windows, Linux или Unix, в зависимости от другого программного обеспечения, необходимого для запуска приложений.



Обучение FastTrack. «Основы сети».
</p><p>
 «Основы дата-центра».
</p><p>
 Часть 1. Эдди Мартин.
</p><p>
 декабрь 2012 г.
</p><p>

А если у меня есть серверы, то мне также понадобятся два устройства балансировки нагрузки для SLB-серверов и 2 межсетевых экрана для защиты.

А потом мне придется сделать все это доступным по IP-сети, где каждый сможет использовать это приложение.

Все это вам нужно, и все это стоит денег.



Обучение FastTrack. «Основы сети».
</p><p>
 «Основы дата-центра».
</p><p>
 Часть 1. Эдди Мартин.
</p><p>
 декабрь 2012 г.
</p><p>

Теперь поговорим о производстве.

Мы собираемся продавать больше виджетов, а это значит, что нам придется производить больше виджетов.

Но мы не собираемся строить для этого дополнительные производственные мощности.

Мы должны сделать нынешнее производство умнее и оптимизировать его.

И снова обратимся к приложениям, возможно, тем, которые помогут обеспечить своевременную доставку или каким-то другим.

Но это будет по сути подобная инфраструктура рядом с нашей, которая будет включена в нашу IP-сеть.



Обучение FastTrack. «Основы сети».
</p><p>
 «Основы дата-центра».
</p><p>
 Часть 1. Эдди Мартин.
</p><p>
 декабрь 2012 г.
</p><p>

Обслуживание клиентов, давайте поговорим об этом сейчас.

Возможно, мы захотим развернуть некоторые приложения, которые помогут нам обслуживать их.

И мы аналогичным образом развернем третью инфраструктуру и подключим ее к нашей IP-сети.



Обучение FastTrack. «Основы сети».
</p><p>
 «Основы дата-центра».
</p><p>
 Часть 1. Эдди Мартин.
</p><p>
 декабрь 2012 г.
</p><p>

Почему мы делаем их отдельными? Контроль, решение конкретной задачи, различные источники финансирования, да? И я могу их сделать, используя оборудование разных производителей.

Потому что опять же тот, кто принимает решение об инфраструктуре для запуска приложения, может решить, на чем оно будет работать.

Могут потребоваться разные типы серверов и все остальное.

Все финансируется по-другому.

И здесь могут быть различные технические проблемы.

Для работы SAN использует протокол адаптера Fibre Channel, который работает здесь, в адаптерах главной шины.

Данное решение продается целиком.

И он продавался многим производителям — EMC, HP, HDS, NetApp. Он прошел сертификацию со временем, использует коммутаторы Brocade или McDATA, которые стоят не дороже «налога».

Ведь стоимость такого решения может составить 3 миллиона долларов.

Никто не беспокоится о стоимости двух коммутаторов.

SAN как бы платила «налог» за использование сторонних коммутаторов.

А использование этих коммутаторов определялось тем, что они обеспечивали достаточно быстрое соединение серверов и СХД.

Но в хранилище не было никакой информации.

И именно поэтому ими заинтересовались EMC, HP, HDS, netApp, поскольку 80% их доходов приходится на разработку приложений для существующих аппаратных решений, которые для них являются лишь способом продажи.

И Cisco тоже решила принять участие.

Но дело в том, что оптоволоконный протокол — это «жесткий» протокол, неумолимый, гарантирующий очень быструю транспортировку огромного количества информации в нужное место, очень крутой протокол, но совсем не похожий на Ethernet. При подключении к оптоволоконному коммутатору происходит трехэтапный процесс подключения, который называется: FLOGI (вход в структуру), PLOGI (вход в порт) и PRLI (вход в процесс).

Вы подключаетесь к «фабрике», оптоволоконной сети.

И если мне нужно «подарить» новый сервер на SAN-хранилище всем остальным, подключить его, все процессы останавливаются, никто не сможет пользоваться сетью, пока идет процесс входа F. Что происходит с приложениями? Они прекращают свою работу.

Поэтому, если я разворачиваю такую инфраструктуру, я должен быть уверен, что к ней не будут добавлены никакие дополнительные серверы.

Я захочу провести их независимо.

Поэтому, если решение было небольшим, покупали небольшие коммутаторы Brocade, а для более крупных — McData. Вот и все.

Они не особо беспокоились.

Здесь было сосредоточено 80% бизнеса McData, они предоставляли специальные цены и фактически владели ими EMC. Вот почему Cisco решила вмешаться: мы думали, что можем это изменить.

Cisco начала раскачивать лодку с разработки технологии интеллектуального управления трафиком.

Поскольку все строили эти инфраструктуры по одному типу, очень много людей.

Люди покупают хранилище для самых разных целей, подумайте об этом: я покупаю хранилище на 20 ТБ здесь, хранилище на 10 ТБ здесь и хранилище на 8 ТБ здесь.

И как я распоряжаюсь этими хранилищами? 40%! Представьте, что вы приходите к финансовому директору и говорите: мы хотим потратить еще полтора миллиона долларов и купить больше хранилища, потому что нам нужно больше места, но мы используем только 40% текущего.

Не говори ему этого, не говори этого! Это все равно, что купить галлон молока (3,78 литра), выпить 2 больших стакана и сказать, что, когда осталось больше половины бутылки, нужно купить еще.

Мы не хотим этого делать, но так делают эти люди, это неэффективно.

Порты коммутаторов SAN заполнены менее чем на 40 %.

Мы их покупаем, но не используем.

И самое худшее, что могло случиться в этом случае, — это появление в серверах многоядерных процессоров.

Каждые 3 года люди покупали новые серверы, модернизируя старые, но у новых серверов был гораздо более мощный процессор, а цена оставалась прежней.

Оказалось, что вашим приложениям для работы не требуется такая мощность; Им достаточно производительности старых процессоров, но вы купили новые сервера с многоядерными процессорами, которые не смогли загрузить на полную мощность.

Что случилось с сервером в этом случае? Его коэффициент использования упал, его эффективность упала.

На некоторых серверах мы достигли значений 10-15%, потому что на сервере мы развернули всего 1 приложение.

SLB использовались на 40% мощности, межсетевые экраны — на 40% мощности и так далее.

Но нам нужно было иметь несколько серверов, чтобы обеспечить надежность за счет резервирования, а также иметь возможность масштабирования.

При этом коммутаторы локальной сети использовались более чем на 80%, поскольку мы виртуализировали их и использовали для нескольких приложений.

У меня есть одно приложение и ему нужен порт, я создаю для него VLAN, затем у меня есть второе приложение, которому тоже нужен порт, и я создаю вторую VLAN, преимущество этой технологии в том, что я могу назначить столько VLAN, сколько мне нужно.

хочу один порт. И поэтому мне не нужно каждый раз покупать новый коммутатор, когда мне нужна новая VLAN. Мы виртуализировали это много лет назад, в середине 90-х.

Виртуализация произошла и здесь.

Мы внедрили эту технологию в сегмент центров обработки данных и назвали ее «консолидацией коммутаторов посредством виртуализации».

Мы выпустили на рынок коммутаторы MDS 9500 и сказали клиентам, что им следует воздержаться от покупки всей этой «мелочи», обслуживающей один порт. Мы предложили им приобрести одно большое устройство, способное создавать виртуальные сети любого масштаба, и назвали это технологией VSAN. На рисунке я объединим три коммутатора SAN в один коммутатор VSAN.

Обучение FastTrack. «Основы сети».
</p><p>
 «Основы дата-центра».
</p><p>
 Часть 1. Эдди Мартин.
</p><p>
 декабрь 2012 г.
</p><p>

Нашей самой большой проблемой была не техническая проблема, а то, как объяснить эти технологии клиентам.

А первые продажи наших коммутаторов начались только в декабре 2002 года.

Я даже проводил двухдневный семинар по СХД, чтобы объяснить преимущества использования виртуализации.

А потом VMware начала набирать популярность, возможно, некоторые из нас это помнят. Тогда они, достаточно умные и бесстрашные, возможно даже были пьяные, когда делали это в первый раз, в голову пришла идея, что можно виртуализировать сервер.

Вместо запуска одного приложения на одном сервере мы можем загрузить на него программу, называемую гипервизором, и запускать множество приложений на одном сервере независимо друг от друга.

На одном физическом сервере можно было одновременно запускать приложения Microsotf, приложения Linux и сторонние программы.

Раньше для этого требовался отдельный сервер для Microsotf, отдельный сервер для Linux и так далее.

Потом люди вспомнили о многоядерных процессорах и сказали: «О, теперь они нам понадобятся»! Технология VMware стала использоваться для виртуализации серверов.



Обучение FastTrack. «Основы сети».
</p><p>
 «Основы дата-центра».
</p><p>
 Часть 1. Эдди Мартин.
</p><p>
 декабрь 2012 г.
</p><p>

Теперь давайте посмотрим на устройства SLB, которые Cisco решила заменить модулем ACE. Этот модуль, кстати, достаточно дорогой, входил в состав коммутатора Catalist 6500 и обеспечивал равномерное распределение нагрузки на сервер.

ACE, Application Content Engine, означает «движок содержимого приложения», обеспечивающий балансировку нагрузки.

Мы разместили 50 независимых виртуальных ACE в одном коммутаторе, 50 независимых балансировщиков нагрузки на одном блейде, и клиентам больше не нужно было покупать несколько физических SLB. Мы заменили межсетевые экраны одним модулем ASA, каждый из которых содержал до 250 виртуальных межсетевых экранов.

На каждый из виртуальных межсетевых экранов действовали правила, которые вы устанавливали для конкретного приложения, то есть 250 программ могли быть защищены при разных условиях.

Что ж, производители хранилищ начали заменять его одним общим виртуальным пространством — VD Space. Эта виртуализация — величайшее изобретение в мире.

Мы устранили ситуацию, когда 60% ИТ-бюджета тратилось на ненужные вещи.

Повторюсь — мы начали с объединения физических устройств на базе виртуальных машин, чтобы затем виртуализировать весь процесс создания дата-центров.

Как известно, EMC приобрела технологию VMware и создала на ее основе отдельную компанию, а Cisco была вынуждена выкупить ее в ходе IPO за $150 млн.

Знаете, я тоже вышел на биржу, но не инвестировал 150 миллионов долларов, как Cisco. Я вложил всего несколько тысяч долларов, купив несколько акций VMware. И само собой разумеется, что придя к ним и сказав: «Я умру, я хочу знать все ваши тайны».

Мне просто говорили: «Повернись и, выходя отсюда, постарайся, чтобы дверь тебя не ударила, выходи».

Вот что они сказали.

Но не Циско.

Cisco пришла и сказала: «Мы инвестировали 150 миллионов долларов, у нас есть доля, и мы хотим знать все, что происходит за кулисами».

И они им покажут. Таким образом, у Cisco есть преимущество: она видит, куда все идут. Cisco выступила «донором» для многих ИТ-компаний.

В руководство компании всегда входили люди, которые думали о будущем и расширяли нашу сферу влияния, инвестируя в нее.

Эти $150 млн не были критической суммой для Cisco, но все же были значительной инвестицией для компании и составляли примерно 4–6% капитализации.

Внедрение виртуальных технологий осуществлялось с 2000 по 2003 год. Это была первая волна создания дата-центров.

Пришло время подробно поговорить о виртуализации серверов.

Я расскажу вам о вещах, которые важны лично мне как специалисту.

Допустим, у нас есть три группы, в каждой из которых есть по два многозадачных сервера для обработки множества приложений.

Таких серверов может быть и больше, но мне не хватает доски, чтобы их нарисовать.

В правой части доски нарисуем трех пользователей разного цвета, каждый из которых использует приложения соответствующего цвета — черного, зеленого или красного.

Это могут быть интернет-провайдеры, компании или другие клиенты, использующие сеть.

Между этими людьми и серверами находятся все необходимые устройства — балансировщики трафика (SLB), межсетевые экраны и т. д. Каждый из серверов оснащен сетевой картой, обеспечивающей скорость 1 Гбит/с, а карт в одной может быть 4, 6 или даже 8. сервер.



Обучение FastTrack. «Основы сети».
</p><p>
 «Основы дата-центра».
</p><p>
 Часть 1. Эдди Мартин.
</p><p>
 декабрь 2012 г.
</p><p>

С левой стороны серверов находится сеть хранения данных (SAN).

Для подключения к нему за нашими коммутаторами расположены специальные сетевые карты, называемые хост-адаптерами, шинами HBA или Host Bus Adaptor. Это не дешевые модули, они стоят от 1500 до 2000 долларов каждый.

Что они делают? Они словно помещают всю полученную от клиента информацию в капсулу, инкапсулируют ее и служат для подключения сети.

Одни и те же хост-адаптеры используются в компьютерах для обмена информацией между жестким диском и процессором.

Внутри вашего компьютера есть жесткий диск, и что делает процессор, когда хочет получить от него информацию? Он «берёт на себя» этот жёсткий диск, подключаясь к нему по шине HBA! То же самое происходит и с сетью.

Сервер хочет завладеть доступной в хранилище информацией, и для этого ему нужны HBA. Они позволяют напрямую соединить сервер и хранилище по протоколу SCSI, который в данном случае играет роль процессора и жесткого диска компьютера.

Между хранилищем и сервером установлены оптоволоконные коммутаторы FCSW. Нарисуем их зеленым, красным и черным маркером.



Обучение FastTrack. «Основы сети».
</p><p>
 «Основы дата-центра».
</p><p>
 Часть 1. Эдди Мартин.
</p><p>
 декабрь 2012 г.
</p><p>

Внутри хранилища я буду рисовать разноцветные массивы данных.

Какая польза от хранения всех ваших данных на одном массиве, напоминающем холодильник, с жесткими дисками? Какими свойствами они должны обладать и что они должны обеспечивать? Безопасность и продуктивность обработки информации! Для этого мы должны продублировать эти массивы где-то далеко, то есть создать резервное хранилище информации.

Для этого требуются соответствующие приложения для одновременного копирования и перемещения информации отсюда туда.



Обучение FastTrack. «Основы сети».
</p><p>
 «Основы дата-центра».
</p><p>
 Часть 1. Эдди Мартин.
</p><p>
 декабрь 2012 г.
</p><p>

Как EMC удалось завоевать весь рынок, который у нее есть сегодня? Они придумали приложение SRDF, или «оборудование для удаленной синхронизации данных».

Это гарантирует, что когда данные с сервера попадают в наш массив хранения, они одновременно попадают в удаленный массив хранения.

То есть у пользователя есть данные для аварийного восстановления, что обеспечивает непрерывность бизнеса.

EMC была первой, кто сделал это.

Итак, наш хост-HBA «инкапсулирует» данные и отправляет их в массив хранения.

Cisco первой объединила все коммутаторы FCS в один коммутатор серии MDS 9500. Мы первыми придумали процесс виртуального обмена данными между сервером и хранилищем данных и создали VSAN. Итак, вы покупаете 2 больших свитча и любой порт может быть любым VSAN, мы их виртуализировали.

Собрали всё воедино, теперь устройств требовалось меньше.



Обучение FastTrack. «Основы сети».
</p><p>
 «Основы дата-центра».
</p><p>
 Часть 1. Эдди Мартин.
</p><p>
 декабрь 2012 г.
</p><p>

Началась виртуализация и люди начали думать о том, как ее применить.

Представьте, что два топовых сервера, объединенные в «черную» группу, загружены всего на 10-15% своей мощности.

Это означает, что у нас есть много вычислительной мощности, которая не используется.

Здесь на помощь приходит «программное обеспечение», называемое гипервизором.

Если вы загрузите это программное обеспечение VMware на сервер, оно оптимизирует использование процессоров.

Предположим, что каждый сервер имеет 2 процессора по 8 ядер каждый, всего 16 ядер, и 384 ГБ оперативной памяти.

При такой нагрузке мы используем только 4 ядра из 16 и 48 ГБ ОЗУ, а остальные 12 ядер и память простаивают. Их можно использовать для обработки других приложений, и именно это и делает гипервизор.

Нужные нам ресурсы я выделяю на отдельный сервер с 4 ядрами и 16 ГБ ОЗУ и запускаю на нем приложение.

Для этого вам не нужно покупать какое-либо дополнительное оборудование; гипервизор встроен в наш сервер и активируется с помощью лицензии.

Это еще одно преимущество технологий виртуализации.

Допустим, на серверах красной группы работают приложения, которым нужно всего 2 ядра и 64 ГБ ОЗУ, но на них установлена другая ОС.

Что я делаю? Я покупаю лицензию на создание еще одного виртуального сервера и другой операционной системы, и теперь на серверах «черной группы» работают 2 операционные системы, с отдельными каналами, а вторая ОС использует нужные ей 2 ядра и 64 ГБ памяти.

Я использовал простаивающие аппаратные мощности первой группы серверов и создал внутри них виртуальный сервер с другой ОС.

И теперь мне больше не нужны серверы «красной группы» — их роль выполняет виртуальный «черный» сервер, обрабатывающий заявки с физических «красных» серверов! Поэтому я их просто вычеркиваю.



Обучение FastTrack. «Основы сети».
</p><p>
 «Основы дата-центра».
</p><p>
 Часть 1. Эдди Мартин.
</p><p>
 декабрь 2012 г.
</p><p>

Перейдем к третьей группе физических серверов, «зеленым».

Там всего 4 ядра и 32 ГБ ОЗУ.

Покупаем лицензию заново, создаем виртуальный сервер внутри первой группы, даем ему из простаивающих мощностей 4 ядра и 32 ГБ памяти, которые нужны для обработки приложений «зеленой» группы, и тоже отказываемся от него! «Зеленые» тоже вычеркиваю.



Обучение FastTrack. «Основы сети».
</p><p>
 «Основы дата-центра».
</p><p>
 Часть 1. Эдди Мартин.
</p><p>
 декабрь 2012 г.
</p><p>

То, что мы сделали, — величайшее дело на свете! У клиентов были тысячи и тысячи серверов, которые больше простаивали, чем работали.

Наше решение позволило им отказаться от ненужного оборудования, они начали использовать нашу виртуальную технологию VMware, что обеспечило работу сервера на полную мощность, и сэкономили свои деньги! Вы все знаете о системе супермаркетов Wallmart, так они использовали в своей инфраструктуре 30 000 серверов, да, это надежно, но не все эти серверы были распределенными, больше половины из них находились в одном месте — дата-центре.

Представьте, что каждые 3 сервера можно заменить одним с помощью технологии виртуализации.

Сколько серверов я могу отключить? Десять тысяч! Теперь вы понимаете, насколько это здорово? Это величайшее изобретение десятилетия! В течение многих лет компании тратили 60% своего бюджета на добавление дополнительного сетевого оборудования для обработки своих приложений.

Сколько приложений у крупных компаний? Тысячи! Поэтому мы воспользовались своим шансом.

В середине 2000-х мы начали продавать серверы, предназначенные специально для виртуализации.

А клиенты, которые были вынуждены обновлять свой парк оборудования каждые три года, смогли обновить только программное обеспечение VMware. Мой отец долгое время был в армии, прыгал с парашютом и делал другие безумные вещи, поэтому он часто говорил мне: «Дди, лучше быть удачливым, чем хорошим»! Циско повезло.

Насколько это было хорошо, я не знаю.

Еще раз повторю — технологии виртуализации сделали так, что клиент как бы платит налоги на ИТ-сектор, а не инвестирует в него.

То есть в финансовом отношении это выглядело весьма умеренной стоимостью по сравнению с тем, что было раньше.

Мы продаем клиенту комплект «все в одном», и это ему выгодно.

Когда-то, очень давно, я работал в компании, у которой был сервер серии Compact 3000 с двумя процессорами по 600 МГц.

Я думал, что у меня есть величайшая вещь на свете: я могу запускать приложения на двух процессорах! А на деле оказалось, что у меня 2 процессора, и приложение не умеет ими пользоваться.

Чтобы это стало возможным, потребовалось три поколения программ.

Но это дало мне возможность на какое-то время почувствовать себя хорошо.

Но позже количество ядер увеличилось и вот здесь виртуализация действительно пригодилась.

Теперь люди получили возможность экономить электроэнергию и место, занимаемое лишним оборудованием в стойках.

Раньше клиент схватился за голову и сказал: «О Боже, у меня будет еще 2 новых приложения для моего бизнеса, мне придется строить дата-центр»! Ему даже пришлось найти новый дата-центр за пределами Калифорнии, потому что там не хватало электричества! Это верно! Летом в этом штате случаются веерные отключения электроэнергии.

Вы не сможете найти здесь дата-центр.

Теперь мы дали всем этим клиентам возможность сэкономить, и это действительно здорово.

Здесь Cisco повезло.

Опять же, вам нужно увидеть удачу, схватить ее и удержать, и это то, что сделала Cisco. Давайте вернемся к нашим пользователям на правой стороне доски.

Предположим, «красный» клиент обменялся данными со своим сервером на скорости 6-8 Гбит/с и теперь напрямую подключается к нашему «черному» серверу.

К нему добавляется «зеленый» клиент со своими приложениями, которые тоже требуют своей скорости.

В результате этого наш сервер, который давал 8 Гбит (использовалось 6-8 каналов, из них 2 для управления) и был загружен на 40%, теперь загружен более чем на 80%! Где возникнет эффект узкого места? В пропускной способности соединения.

О, это отстой.

Отстой для всех, но не для Cisco. Так как же написать Ethernet? ЦИСКО.

Каков следующий шаг после Ethernet 1 Гбит/с? Ethernet 10 Гбит/с.

И поэтому производители серверов начали создавать специальные серверы, потому что они тоже увидели эти узкие места.

И что они сделали? Не стали ставить еще больше гигабитных карт, а установили на материнскую плату еще один модуль, обеспечивающий два соединения по 10 Гбит/с, в результате чего в сумме стало возможно получить до 20 Гбит/с.

Теги: #cisco #cisco #Сетевые технологии #Хостинг #vmware #it инфраструктура #ace #SLB #VSANs #FLOGI #PLOGI #PRLI #hypervisor #VD Space #HBA #FCSW #SRDF #SNA #FCOE

Вместе с данным постом часто просматривают: