«Разум, однажды расширивший свои границы, никогда не вернется в прежние»
Альберт Эйнштейн
Казалось бы, «конец истории» наступил, и в наше время отрасль инфокоммуникаций подошла к исключительно простой концепции своей архитектуры – ЦОД + канал связи к потребителю. У потребителя в этом случае стоит соответствующее его запросам конечное устройство, а в ЦОДе/ЦОДах программным образом формируются всевозможные сетевые конфигурации для генерации требуемых услуг. Собственно, именно так в упрощенном виде выглядит концепция облачных вычислений (Cloud computing), предусматривающая развитие технологии, которая позволяет хранить и обрабатывать данные удаленно в «облаке». Однако, несмотря на то, что «облака» уже трансформируются в гиперконвергентные «тучи», без инфраструктурных недостатков опять же не обходится. При всей универсальности инфраструктура получается отнюдь не дешевая, а на уровне доступа может формироваться значительная задержка в передаче данных от клиента к ЦОД и обратно, что в современном цифровом мире не приветствуется.
Уменьшить задержку, обеспечивая работу в реальном времени, можно, приблизив место обработки информации непосредственно к пользователю. Так появились так называемые туманные вычисления (Fog computing). Это технология, благодаря которой хранение и обработка данных происходят в локальной сети между конечным устройством и ЦОД. Разумеется, весь «туман», в отличие от «облака», находится ближе к пользователям, что особенно важно для некоторых IoT-устройств, например, датчиков в беспилотных автомобилях или на производстве. Туманные вычисления «заточены» под межмашинное взаимодействие и применяться могут в любой отрасли, где оно используется — в производстве, здравоохранении, энергетике, финансовой сфере и др. В целом, это децентрализованная система, которая фильтрует информацию, поступающую в ЦОД. В этом случае локальные сервера обрабатывают данные и отправляют в дата-центр только самые важные, а «облако» частично разгружается. Минусы тоже есть – децентрализованные сети менее надежны, чем сети больших ЦОДов.
Туманные вычисления обеспечивают, как правило, межмашинные взаимодействия и применяются в производстве, здравоохранении, энергетике, финансовой других сферах. В частности, они помогают решить проблемы с данными промышленных роботов. Подавляющая часть этих данных нужна только в месте работы робота, поэтому их обработку эффективнее и целесообразнее производить здесь же. Дроны, которые исследуют земной ландшафт в различных целях (охрана, сельское хозяйство, контроль трубопроводов и ЛЭП, и пр.), также генерируют огромное количество данных, которые нужны в течение очень короткого времени. Передача этих данных в центральное облако очень затратна и часто технически невозможна, а ожидание команд из центра – это потерянное время. От подобных устройств требуется только лишь распознавание воспринимаемых машинным зрением изображений, сбор значимых данных и посылка этих данных тем людям, которым эти данные нужны в данный момент времени. Как правило, «туман» состоит из микрооблаков, микроЦОДов, отдельных серверов, вынесенных из центрального ЦОД на периферию, поближе к источникам данных.
Интересно, что преимущества тех или иных вычислений можно определять с точки зрения эксплуатации оборудования и ПО. В частности, средний срок службы сервера в облачных ЦОДах составляет около двух лет. Для бизнес-приложений, которые генерируют большое количество данных, столь частый апгрейд оборудования не только сложен технически, но и очень дорог. Вместо инвестиций, ИТ-департаментам организаций приходится все время заниматься поддержанием соответствия своей ИТ-системы текущим требованиям бизнеса. Однако, на границе сети в небольших распределённых дата-центрах, как указывают специалисты, компоненты серверной инфраструктуры могут служить до восьми лет. Исследования показывают, что решения, основанные только на централизованном облаке Cloud, требуют гораздо больших инвестиций, чем основанные на гибридной архитектуре Cloud+Fog.
Ещё ближе к пользователю находятся граничные (периферийные) вычисления (Edge Computing). Это технология обработки и хранения данных на непосредственно конечном устройстве. При этом получается практически нулевая задержка в передаче данных, а сами данные могут обрабатываются даже в отсутствие подключения к сети Интернет. Соответственно, нет Интернета – нет и сопутствующих проблем с безопасностью, поскольку вся обрабатываемая информация остается на конечном устройстве. Однако при этом в точке подключения придется купить и настроить оборудование, а также привлечь специалистов. Что же касается специалистов, то это не просто владельцы каких-нибудь оконечных абонентских устройств, а соответствующий класс пользователей специфической иерархической ИТ-инфраструктуры, при котором вычислительные ресурсы частично перемещаются из ядра (ЦОДа) на периферию и располагаются в непосредственной близости от места создания первичных «сырых» данных для их первичной обработки перед передачей вышестоящему вычислительному узлу. Таким образом, сбор и анализ данных проводится не в централизованной вычислительной среде (ЦОД), а там, где происходит генерация потоков данных. Согласно оценкам McKinsey, объем мирового рынка оборудования для периферийных вычислений к 2025 г. Составит $175–215 млрд.
Сферы применения граничных и туманных технологий во многом пересекаются. И в основном там, где проявляются основные недостатки централизованных облачных вычислений — меньшая скорость передачи и задержки в анализе данных. Поэтому эти технологии используются там, где важна обработка информации в реальном времени — например, в IoT/IIoT и VR/AR. На производстве граничные вычисления нужны для своевременного обслуживания оборудования, в нефтяной индустрии они помогут обнаружить неисправности и протечки, а в банковской сфере технология позволит быстро принять решение по кредиту или обнаружить мошенничество. Во всех примерах граничные вычисления помогают действовать без задержек, а, к примеру, «интеллектуальное» оборудование на предприятиях не всегда требует подключения к «облаку» для выполнения расчетов. В таких случаях проектировщики сетей делают ставку на децентрализацию и тем самым повышают эффективность обработки данных.
Как правило, архитектура систем Edge Computing трехуровневая: Cloud Computing – Fog Computing – Edge Computing. Если бы архитектура была двухуровневой, ядру ИТ-системы пришлось бы иметь со слишком большим количеством входных потоков данных и контролировать бесперебойность работы всех устройств, что весьма непросто. Итак, данные собираются на краю сети, если собирающее их устройство обладает собственным интеллектом — проходит там первичную обработку, если нет — пересылаются в оборудование «туманного» слоя. Тот обрабатывает данные и принимает на их основе решения. Какие-то данные (сырые или агрегированные) отправляются «в центр» на хранение. Иногда составляющие архитектуры обозначаются по-другому — промежуточный уровень именуется «Edge», а граничный — «Endpoint», но суть от этого не меняется.
При передаче в облако, скорость вычислений снижается, а задержка обмена данными растёт. На базовом уровне задержка — это временной лаг между действием пользователя и получением ответа, а с ростом объемов собираемых и обрабатываемых данных для высокоинтенсивных алгоритмов искусственного интеллекта/машинного обучения имеет большое значение, чтобы аналитика, основанная на данных, приносила пользователям результат как можно быстрее. Однако, отнюдь не только скорость принятия решений всегда находится в приоритете, потому что сами данные могут иметь различную ценность и назначение. Одни данные представляют наибольшую ценность в момент их сбора. Спустя некоторое время их ценность быстро падает. Другие данные предназначены для накопления их определённого объёма для того, чтобы аналитика на их основе была релевантной. Граничные и туманные вычисления позволяют анализировать данные до того, как они посылаются в центральное облако Cloud, в момент, когда их ценность максимальна. Например, хакерскую атаку или вторжение в систему можно предотвратить более эффективно, когда анализ происходит непосредственно в месте атаки или вторжения. На ожидание пересылки данных в ЦОД уходит драгоценное время. Поэтому, извлечение из общего, большого объема данных той части, которую следует передать в Cloud (Data thinning), и отсечение ненужных данных – очень важный процесс, при котором ценные данные отделяются от малоценных данных. В частности, беспилотный автомобиль генерирует массу промежуточных данных, которые вовсе не нужно хранить в ЦОДе в течение долгого времени.
Казалось бы, в процессе развития концепции Edge и Fog Сomputing в конечном итоге полностью заменят собой уже ставшие привычными облачные решения. Однако этого не случится, потому что Edge и Fog Сomputing, по сути, являются не чем иным, как «дополнением» и «расширением» Cloud, и каждая из них решает свою задачу.
Стоит также отметить, что, как и Cloud, Edge Сomputing использует виртуализацию сетевых ресурсов, поскольку на периферии, в граничных узлах, присутствуют программноаппаратные комплексы от самых разных поставщиков, и именно виртуальные машины и контейнеры могут поддерживать работу в различных средах.
Разумеется, отсутствие постоянного доступа к Интернету по кабелю может препятствовать осуществлению Cloud, однако существование других вариантов сетевого подключения (к примеру, беспроводного) позволяют обеспечить гибкость вычислений от периферии до облака. В частности, сети 5G обеспечивают и высокую пропускную способность, и связь с низким уровнем задержек для быстрой передачи данных и предоставления сервисов с периферии. Поэтому наряду с Edge Сomputing совершенно логично существуют и мобильные периферийные вычисления (MEC – Mobile Edge Computing). Концепция MEC — это область пересечения периферии беспроводной сети и периферии инфраструктуры (фиксированной связи), там, где Интернет из сетей мобильной и фиксированной связи имеет точки обмена трафиком.
Размещая традиционную ИТ-инфраструктуру (в лице каналов фиксированной связи) рядом с инфраструктурой мобильных сетей и прорабатывая все технические детали для передачи данных между ними, операторы могут добиться существенного повышения производительности и снижения задержки для новых сценариев использования, таких как мобильность, игры, потоковое видео и IoT. Все это становится возможным благодаря сочетанию беспроводной и наземной (фиксированной связи) интернет-инфраструктур.
На практике MEC означает взаимосвязь между Edge Computing и мобильной связью в самом широком смысле, включая камеры наблюдения, телемедицину, видеостриминг и IoT/IIoT, игры (в том числе AR/VR), подключенные транспортные средства (включая беспилотники) и многое другое. В результате базовая концепция периферийных вычислений постоянно эволюционирует: не успел еще прижиться термин MEC в расшифровке «мобильные периферийные вычисления», как ему на смену приходит MEC в более широком смысле «периферийные вычисления с множественным доступом» (Multiaccess Edge Computing). MEC — это также система стандартов, разработанная некоммерческой группой ETSI. Кстати, около 6 лет назад ETSI сменила термин «мобильный» на «множественный доступ», чтобы отразить резкое увеличение количества подключенных устройств и приложений, потому что речь здесь идет не просто о смартфоне.
MEC преследует те же цели, что и в целом Edge Computing: перемещение большего количества вычислительных функций как можно ближе к тому месту, где генерируются данные и где принимаются решения, чтобы обеспечить более быстрое и эффективное реагирование. Ожидается, что это откроет новые виды деятельности, требующие низкой задержки и/или высокой пропускной способности. Тут сразу же и приходит на ум 5G. Специалисты даже дают теперь определение MEC, как «периферийный сервер в телекоммуникационной среде, включая 5G».
Серверы Edge Computing могут повысить производительность и уменьшить задержку в любом контексте, максимально приблизив вычислительные и другие ресурсы к месту, где они необходимы. Поскольку 5G — это как раз высокая скорость и низкая задержка, то эти две технологии хорошо сочетаются. Более того, взаимосвязь между ними гораздо глубже: широкая доступность сетей 5G (там, где это имеет место, разумеется), огромное количество оборудования и ПО, которое будет подключаться к этим сетям, не обойдутся без MEC.
Однако поскольку технология мобильной связи не распространяется на магистральные каналы связи от антенных мачт до ЦОДов, информационные потоки из сети 5G может легко перегрузить оптоволоконные сети, ЦОДы и собственно облако. В свою очередь MEC стремится приблизить мощность этих ресурсов к тому месту, где они необходимы. Получается, что MEC — это кульминация перехода всего и вся в Cloud, после чего Cloud, в свою очередь, приближается ко всему остальному, что не может не радовать всех имеющих к этому отношение. А уж дальше все более сложные и важные приложения должны подключаться оборудованию Edge Computing.
Приближая вычислительную мощность к конечным пользователям, MEC открывает новые возможности как для частных лиц, так и для организаций и может помочь c другой ключевой задачей — обеспечением подключаемости сельских районов. Потребности бизнеса в MEC продолжают расти по мере того, как технологии и IoT требуют большего количества вычислений, особенно в сельском хозяйстве, ветроэнергетике и нефтегазовой промышленности, часто расположенных как раз в сельской местности. Расширение использования датчиков для сбора огромных объемов данных в местах без высокоскоростного подключения будет стимулировать спрос на MEC, позволяющий проводить точечный анализ и возврат агрегированных данных. Таким образом, MEC может оказать выравнивающий эффект: перспективы IoT, ИИ, 5G и других новых технологий не обязательно должны быть исключительной прерогативой крупных технологических компаний или жителей городов/пригородов. MEC не только наделяет пользователя гибкостью, но также обеспечивает новые доходы для владельца вышки сотовой связи. Выигрывают все, а региональный бизнес получает больше возможностей использования ИИ и анализа данных.
Что касается Интернета вещей, то специалисты называют еще Edge Computing своего рода «ракетным топливом» для IoT. Исходя из сказанного выше, они характеризуются целым рядом преимуществ и потенциальных возможностей именно для IoT.
Прежде всего, Edge Computing позволяет анализировать и фильтровать данные ближе к датчикам. Более того, в облако отправляются только релевантные данные.
Как уже упоминалось, задержка в производственном процессе может быть критически важной, например, если случается сбой на производственной линии. Малое время отклика, измеряемое в миллисекундах, критично для обеспечения безопасности ответственных и точных операций. В таких случаях ждать результата от облачной платформы IoT (и особенно IIoT) — это слишком долго.
Edge Computing означает, что, если это необходимо, конфиденциальные данные можно обрабатывать на месте, где они защищены от прямых сетевых подключений. Это обеспечивает более высокий уровень контроля над безопасностью и конфиденциальностью информации.
Наконец, благодаря наличию Edge Computing уменьшаются требования к емкости облачных хранилищ данных и пропускной способности сети, сокращаются соответствующие затраты, поскольку вместо отправки в облако большой объем данных с датчиков можно обрабатывать непосредственно на периферии.
Если судить по количеству кейсов, найденных специалистами компании McKinsey, то самыми продвинутыми по части использования граничных вычислений (24%) являются транспортные компании (причем еще до внедрения беспилотных автомобилей). Второе место (13%) принадлежит добывающим отраслям, которым необходимо отслеживать работу техники на удаленных объектах — шахтах, рудниках и скважинах. Третье (по 10%) делят между собой делят четыре сферы деятельности, у каждой из которых свои резоны использовать вычисления на границе. Очевидно, к 2025 г. список лидеров (определяемый уже не количеством кейсов, а объемами продаж) изменится, что будет связано не только с ростом интереса публики к развлечениям, но и «сдвигом парадигмы» в части слома глобализации, отхода от мирового моногегемонизма и, вполне вероятно, очередного надвигающегося кризиса капиталистической модели развития. Как говорили классики, все таки народ сначала интересуется хлебом, и уж потом зрелищами.