2024/11/01 09:32:17

Периферийные вычисления
Граничные вычисления
Edge computing

Периферийные вычисления — принцип построения иерархической ИТ-инфраструктуры, при котором вычислительные ресурсы частично перемещаются из ядра – центрального дата-центра на периферию и располагаются в непосредственной близости от места создания первичных «сырых» данных для их первичной обработки перед передачей вышестоящему вычислительному узлу. Таким образом сбор и анализ данных проводится не в централизованной вычислительной среде (ЦОД), а там, где происходит генерация потоков данных.

Содержание

ПО для граничной аналитики (мировой рынок)

Основная статья:ПО для граничной аналитики (мировой рынок)

Граничные WAN-платформы (мировой рынок)

Основная статья: Граничные WAN-платформы (мировой рынок)

Как работают периферийные вычисления

В какой-то мере эту технологию можно сравнить с измерительным устройством на нефтяном месторождении или удаленном телекоммуникационном объекте: она технология приближает вычислительные ресурсы к тому месту, где собираются данные.

Схема реализации граничных вычислений (Edge Computing), 2019

Рынок промышленной автоматизации лидирует в освоении ряда новых технологий, которые включают в себя дополненную реальность (AR), 3D-печать, робототехнику, искусственный интеллект (AI), облачные системы диспетчерского управления и сбора данных (SCADA) и программируемые контроллеры систем автоматизации (PAC). Если говорить о технологиях автоматизации, то начиная с производственных цехов и заканчивая логистической цепочкой и самим сердцем предприятия, Интернет вещей уже соединяет различные точки с интеллектуальными датчиками. Промышленный Интернет вещей (Industrial IoT) предоставляет информацию для проведения технического обслуживания, инвентаризации и транспортировки продукции.

Однако простого наращивания возможностей сетевого подключения и организации потоков данных недостаточно, чтобы по-настоящему использовать потенциал цифровой трансформации. Чтобы получить конкурентные преимущества, производственным предприятиям необходимо полностью интегрировать промышленную автоматизацию. Только в этом случае они получат возможность преобразовывать данные, собранные в среде IoT, в ценную аналитическую информацию, чтобы обеспечить более быстрое, точное и экономичное принятие решений. И для этого они должны перенести вычислительные мощности на границу сети — на ее периферию[1].



Периферийные вычисления в областях



Преимущества от периферии до ЦОДа

Предназначение Edge computing — перемещение вычислительных ресурсов из гипермасштабируемого облачного ЦОДа, который может находиться на значительном удалении (в «ядре» сети) ближе к пользователю или устройству, к «краю» сети. Этот подход акцентирует внимание на снижении задержек в сети и аккумуляции вычислительных мощностей для обработки данных вблизи их источника. Работая с помощью периферийной сети, мобильные приложения могли бы в большей степени задействовать алгоритмы искусственного интеллекта и машинного обучения, тогда как сейчас они полностью зависят от вычислительных возможностей мобильных процессоров. Помимо этого требующие интенсивных вычислений задачи гораздо быстрее разряжают аккумуляторы телефона[2].


Периферийные вычисления — своего рода «ракетное топливо» для IoT. Они характеризуются целым рядом преимуществ и потенциальных возможностей:

  • периферийные вычисления позволяют анализировать и фильтровать данные ближе к датчикам. Более того, в облако отправляются только релевантные данные;
  • задержка в производственном процессе может быть критически важной, например, если случается сбой на производственной линии. Малое время отклика, измеряемое в миллисекундах, критично для обеспечения безопасности ответственных и точных операций. В таких случаях ждать результата от облачной платформы IoT — это слишком долго;
  • периферийные вычисления означают, что, если это необходимо, конфиденциальные данные можно обрабатывать на месте, где они защищены от прямых сетевых подключений. Это обеспечивает более высокий уровень контроля над безопасностью и конфиденциальностью информации;
  • наконец, уменьшаются требования к емкости облачных хранилищ данных и пропускной способности сети, сокращаются соответствующие затраты, поскольку вместо отправки в ​​облако большой объем данных с датчиков можно обрабатывать непосредственно на периферии.

Архитектура периферийных вычислений стала центром, вокруг которого концентрируется множество вычислительных задач. Среди ее преимуществ можно выделить минимальные сетевые задержки при обработке данных и возможности для работы с большими объемами данных, но в то же время у нее имеются и слабые стороны — недостаточная интероперабельность протокольного стека и отсутствие стандартизации. Как следствие, на сегодняшний день устройства и приложения, которые работают на границе сети, представляют из себя набор автономных Edge-экосистем.Витрина данных НОТА ВИЗОР для налогового мониторинга 2.1 т

Архитектура Edge приближает вычислительные ресурсы к данным и устройствам. Многие рыночные эксперты рассматривают ее как ключевую парадигму за пределами облачных вычислений. Имеются некоторые цифровые сценарии, которым требуются крайне низкие задержки, и это как раз тот случай, где она проявляет себя лучше облачных сервисов. Однако имеющееся разнообразие интерфейсов и отсутствие промышленных стандартов сильно замедляют прогресс, потому что лишают устройства и приложения возможности взаимодействовать друг с другом.

2023: Объем мирового рынка периферийных вычислений достиг $15,96 млрд

В 2023 году затраты на глобальном рынке периферийных вычислений (Edge Computing) достигли $15,96 млрд. Отрасль демонстрирует экспоненциальный рост, о чем говорится в исследовании Fortune Business Insights, результаты которого опубликованы в середине октября 2024 года.

Edge Computing — это концепция формирования вычислительных мощностей и ресурсов хранения в месте производства данных. Системы периферийных вычислений позволяют значительно повысить производительность приложений, сократить требования к пропускной способности каналов связи и оперативно извлекать аналитические данные в режиме реального времени. Благодаря такой модели организации получают возможность улучшить безопасность и повысить производительность, автоматизировать процессы и оптимизировать взаимодействие с пользователями и клиентами.

Аналитики Fortune Business Insights выделяют несколько ключевых факторов, способствующих стремительному развитию отрасли Edge Computing. Один из них — растущее использование всевозможных устройств, генерирующих данные: это оборудование Интернета вещей (IoT), интеллектуальные камеры, промышленные ПК, медицинские датчики, производственные системы и пр. По мнению отраслевых экспертов, к 2025 году 75% информации будет генерироваться за пределами централизованных дата-центров. Новые технологии, такие как «Индустрия 4.0», искусственный интеллект и IoT, будут стимулировать спрос на периферийные вычисления. Кроме того, потребность в платформах Edge Computing увеличивается на фоне расширения инфраструктуры 5G и появления качественно новых приложений, связанных с виртуальной, дополненной и смешанной реальностью, а также метавселенными.

Главным сдерживающим фактором авторы исследования называют высокие первоначальные инвестиции: развертывание и обслуживание периферийной инфраструктуры может значительно увеличить капитальные затраты компаний. Кроме того, существуют определенные трудности, связанные с поддержанием необходимого уровня защиты. Обеспечение безопасности всей вычислительной сети приводит к огромным затратам для поставщиков, тем самым сдерживая расширение рынка.

В список ключевых игроков отрасли входят:

По сфере применения рынок платформ Edge Computing делится на приложения IoT, робототехнику и автоматизацию, предиктивное обслуживание, удаленный мониторинг, умные города и другие. В 2023 году на первый из перечисленных сегментов пришлось 28,1% всех затрат. Еще 21,3% выручки принесли сервисы предиктивного обслуживания. С географической точки зрения максимальный доход в 2023-м сгенерировала Северная Америка — примерно $5,16 млрд. Связано это с высокой концентрацией крупных игроков, среди которых — IBM, Intel, Microsoft и др. Эти корпорации стратегически расширяют свое географическое присутствие и клиентскую базу путем приобретения небольших локальных компаний. Вместе с тем высокие темпы роста демонстрирует Азиатско-Тихоокеанский регион, что сопряжено с растущим внедрением периферийных решений в таких странах, как Индия и Китай.

По итогам 2024 года выручка на мировом рынке периферийных вычислений оценивается в $21,41 млрд. Аналитики Fortune Business Insights считают, что в дальнейшем показатель CAGR (среднегодовой темп роста в сложных процентах) составит 33,6%. В результате, к 2032 году затраты в глобальном масштабе достигнут $216,76 млрд.[3]

2022: В проекты облачных и периферийных вычислений в мире вложено $84 млрд

В 2022 году инвестиции в платформы облачных и периферийных вычислений в мировом масштабе достигли $84 млрд. Вместе с тем темпы миграции компаний и государственных организаций в облако замедлились по сравнению с предыдущим годом. Об этом 20 июля 2023 года сообщила международная консалтинговая фирма McKinsey. Подробнее здесь.

2021: Интеграция Интернета вещей (IoT) и периферийных устройств

Изначально организации просто разрабатывали стратегии развертывания Интернета вещей на периферии и управления им. Но периферия теперь везде. По мере того, как все больше компаний внедряют периферийные вычисления, они также сталкиваются с новыми проблемами в области Интернета вещей[4].

Вот пять областей, которые могут создать некоторую путаницу, а также рекомендации для ИТ-команд относительно того, что они могут сделать сейчас, чтобы быть лучше подготовленными.

1. Интеграция Интернета вещей и периферийных устройств

Существует несколько уровней интеграции, на которых Интернет вещей и периферийные технологии создают проблемы. Первый уровень — интеграция IoT и Edge с развернутыми в производственной, финансовой, инженерной и других областях базовыми ИТ-системами. Многие из этих базовых систем являются устаревшими. Если у них нет API, обеспечивающих интеграцию с технологией Интернета вещей, то для загрузки данных в эти системы может потребоваться пакетное программное обеспечение ETL (извлечение, преобразование, загрузка).

Второй областью вызова является сам IoT. Многие устройства Интернета вещей созданы независимыми поставщиками. Они используют собственные проприетарные ОС. Это затрудняет «смешивание и сопоставление» различных устройств Интернета вещей в единой архитектуре Edge. Правительства сейчас озабочены введением единых стандартов безопасности и соответствия требованиям регуляторов для поставщиков Интернета вещей, желающих вести бизнес с государствами, что должно стимулировать поставщиков IoT к стандартизации. Следующим шагом, скорее всего, станет большая стандартизация операционных систем Интернета вещей и коммуникационных протоколов, что облегчит интеграцию.

Область безопасности и соответствия нормативным требованиям регуляторов Интернета вещей все еще развивается, но в ближайшие несколько лет она улучшится. Между тем ИТ-специалисты организаций уже сейчас могут запрашивать потенциальных поставщиков Интернета вещей о том, что уже доступно для гетерогенной интеграции и планируют ли они обеспечивать совместимость в будущих продуктах.

Что касается интеграции устаревших систем, ETL является одним из способов интеграции, который может помочь, если API для систем недоступны. Другой альтернативой является написание API, но это занимает много времени. Хорошая новость заключается в том, что большинство поставщиков устаревших систем знают о грядущей волне Интернета вещей и уже разрабатывают собственные API, если они еще не сделали этого. ИТ-отделам следует обратиться к основным поставщикам систем, чтобы узнать, каковы их планы по интеграции Интернета вещей.

2. Безопасность

С принятием новых законов в области кибербезопасности соблюдение требований безопасности Интернета вещей должно стать проще. Однако это не решит проблему того, что за мониторинг периферийного Интернета вещей и его безопасность, скорее всего, будут отвечать конечные пользователи — неопытные в администрировании безопасности.

Важно обучить «пара-ИТ» сотрудников из числа конечных пользователей основам защиты периферийного Интернета вещей. Этот тренинг должен включать обучение кибербезопасности IoT, а также защите оборудования IoT в заблокированных, закрытых зонах, где это возможно.

Доступ является еще одной важной проблемой безопасности. Рекомендуется, чтобы в зоны безопасности Интернета вещей были допущены только уполномоченные сотрудники, прошедшие обучение по вопросам внутренней безопасности.

3. Поддержка

Поддерживать оборудование и сети Интернета вещей, решая вопросы отказа устройств, безопасности, обновления ПО или добавления нового оборудования, необходимо ежедневно.

Конечные пользователи могут отслеживать те части периферийного Интернета вещей, которые непосредственно связаны с их операциями, а ИТ-отделу имеет смысл взять на себя общее обслуживание и поддержку, поскольку и то, и другое являются основными областями ИТ-знаний.

В первую очередь надо убедиться, что вы в курсе происходящих событий. С ростом теневой ИТ-инфраструктуры конечные пользователи обращаются напрямую к поставщикам для приобретения и установки Интернета вещей для своих операций. Для обнаружения этих новых дополнений ИТ-специалисты могут использовать корпоративные сети и ПО для обнаружения активов, которое идентифицирует любые новые дополнения или изменения Интернета вещей. Тем не менее, ИТ-специалисты, руководители высшего звена и конечные пользователи могут договориться о типах локальной поддержки, а также о том, когда ИТ-специалисты должны брать на себя эти функции.

4. Живучесть

Когда Интернет вещей развертывается в опасных или труднодоступных зонах, важно использовать решения, которые могут быть самодостаточными и требовать минимального технического обслуживания в течение длительных периодов времени.

Этим требования должен соответствовать IoT, который работает в жестких условиях экстремальной жары или холода или в тяжелых условиях труда. Многие готовые устройства Интернета вещей могут не отвечать этим требованиям.

Также может быть важно найти IoT-решения, которые смогут поддерживать себя в течение длительных периодов времени без необходимости замены или постоянного обслуживания. Нередки случаи, когда устройства Интернета вещей имеют жизненный цикл от 10 до 20 лет. Периодичность обслуживания таких устройств и датчиков может быть увеличена, если они могут работать от солнечной энергии (и, следовательно, в меньшей степени зависеть от батарей), или если они активируются из режима «сна» только при обнаружении движений или других событий (для их мониторинга).

Чтобы свести к минимуму обслуживание и проверки в полевых условиях, необходимо включить живучесть в качестве одного из требований к решениям периферийного Интернета вещей.

5. Пропускная способность

Большинство устройств IoT экономичны в плане использования полосы пропускания, но по мере развертывания все большего количества устройств и датчиков, а также сбора и передачи все бóльших объемов данных, доступность полосы пропускания может стать серьезной (и дорогостоящей) проблемой, которая может поставить под угрозу производительность сети и способность работать с данными в реальном времени.

Многие организации предпочитают развертывать распределенные системы Интернета вещей на периферии, где они могут использовать локальные каналы связи. Полезные данные могут в конце дня или, возможно, периодически в течение дня направляться в более централизованные точки сбора данных по всему предприятию, независимо от того, находятся ли эти точки в онпремисной или облачной среде. Такой подход к распределенным вычислениям сводит к минимуму использование полосы пропускания дальней связи, а также позволяет планировать передачу данных в менее загруженное (и менее дорогостоящее) время суток.

Еще один элемент, который следует учитывать, — какие данные Интернета вещей вам действительно нужно собирать? В получении ответа на этот вопрос должны участвовать архитекторы данных и конечный бизнес. Согласовав данные, которые не нужны бизнесу, и исключив их, можно уменьшить рабочую нагрузку на данные и сэкономить на пропускной способности, а также на обработке и хранении данных.

2020: Инвестиции в периферийные вычисления МЕС вырастут втрое к 2025 году

Эксперты Juniper Research прогнозируют, что по итогам 2020 года операторы связи потратят на технологии для периферийных вычислений с множественным доступом 2,7 млрд долларов, а к 2025 году сумма вырастет до 8,3 млрд долларов.

Количество используемых в мире узлов MEC (т.е. точек доступа, базовых станций, маршрутизаторов) должно достигнуть 2 миллионов к 2025 году. В текущем году их количество – около 230 тысяч. Оборудование позволит эффективно управлять массивами данных, которые генерируют системы умного города, транспорт и другие сервисы.

Эксперты предполагают, что увеличение количества узлов МЕС повлечёт за собой рост качества услуг, таких как потоковая трансляция музыки, цифровое ТВ, облачные игры. Преимущества от внедрения МЕС в 2025 году ощутят больше 920 млн пользователей.

2019

Forrester Research: 2020-й станет годом прорыва периферийных вычислений

В начале ноября 2019 года аналитическая компания Forrester Research опубликовала исследование, в котором говорится о том, что 2020-й станет годом прорыва периферийных вычислений.

Хотя этот феномен прежде всего связывают с развитием интернета вещей, эксперты утверждают, что необходимость в быстрых вычислениях по требованию и работа приложений в режиме реального времени также будет активно стимулировать рост периферийных вычислений.

Forrester Research опубликовала исследование, в котором говорится о том, что 2020-й станет годом прорыва периферийных вычислений.

В конце концов такое интенсивное развитие периферии приведет к тому, в 2020 году традиционные серверы перестанут играть такую большую роль. Например, автомобиль-беспилотник уже не сможет их использовать, а значит, ему понадобится альтернатива. В результате телекоммуникационные компании станут играть более важную роль на рынках облачных и распределённых вычислений.

Аналитики Forrester считают, что крупные телекоммуникационные компании, особенно те, что в свое время по тем или иным причинам запоздали с выходом на облачный рынок, вскоре начнут активно приобретать операторов сети доставки данных, чтобы наверстать упущенное за счет периферийных вычислений. Кроме того, операторы связи будут инвестировать средства в проекты с открытым исходным кодом, такие как Akraino, программный стек с использованием периферийных вычислений.

Однако больше всего телекоммуникационные компании повлияют на развитие периферийных вычислений в 2020 году благодаря распространению 5G-сетей, утверждают аналитики Forrester. Несмотря на то, что в первое время такие сети будут доступны только в крупных городах, этого хватит, чтобы компании пересмотрели своё отношение к периферийным вычислениям.

азвитие периферийных вычислений в 2020 году благодаря распространению 5G-сетей.

Если компании заинтересуются данной областью, то их, несомненно, привлекут такие возможности, как интеллектуальная обработка видео в реальном времени, 3D-картографирование для повышения производительности труда и использование специальных сценариев для автономного управления роботами или дронами. Запуск решений на базе периферийных вычислений провели или готовятся сделать это в ближайшем будущем такие CDN-вендоры, как Ericsson, Fastly, Limelight и Akamai, говорится в докладе от ноября 2019 года.

Несмотря на то, что большинство предприятий по-прежнему рассматривают CDN как решение для кэширования контента в своих веб - и мобильных приложениях, возможности сети могут применяться для гораздо более широких целей.

Помимо телекоммуникационных компаний, в периферийных вычислениях заинтересовано множество игроков в сфере компьютерных технологий. В последнее время у коммерческих структур появилась настоятельная необходимость во взаимодействии с клиентами в режиме реального времени независимо от того, где они находятся. Это связано с желанием вендоров поддерживать лояльность потребителей.

Поэтому производителям ПО во всех областях, от медицины до коммунальных служб и тяжелой промышленности, потребуются настраиваемые периферийные устройства для обеспечения связи и контроля, удаленного лечения пациентов или дистанционного техобслуживания. Кроме того, крупные поставщики облачных услуг будут стремиться консолидировать свои позиции на рынке, а ИИ-стартапы постараются добавить новые функциональные возможности в свои приложения.

По прогнозам специалистов, наибольшей популярностью на рынке будут пользоваться решения, созданные несколькими производителями, поскольку немногие вендоры имеют собственные продукты, которые рассчитаны на все области IoT и периферийных вычислений. Поэтому в 2020 году особым спросом будут пользоваться интеграторы, способные объединять доставлять продукты и услуги многих разных поставщиков в общую систему.[5]

Linux Foundation: периферийные вычисления станут важнее облачных

Выступая на конференции Open Networking Summit в Бельгии в сентябре 2019 года руководитель сетевых проектов Linux Foundation Арпит Джошипура (Arpit Joshipura) заявил, что периферийные вычисления станут важнее облачных к 2025 году.

Говоря о периферийных вычислениях, он имел в виду компьютерные ресурсы и технологии хранения данных, которые находятся друг от друга на расстоянии, при котором передача информации возможна за 5-20 миллисекунд.

Linux Foundation заявил, что периферийные вычисления станут важнее облачных к 2025 году

По словам Арпита Джошипуры, периферийные вычисления способны стать открытой средой, способной беспроблемно взаимодействовать с другими. Она должна быть независимой от оборудования, кремния, облака или операционной системы.

Открытые периферийные вычисления также должны работать с любыми смежными проектами, в которых они используются: интернет вещей, телекоммуникации, облачные или корпоративные решения.

«
Наша цель — объединить всё это, — заявил один из руководителей и отметил, что данная работа уже ведётся в рамках проекта LF Edge.
»

Развивающие LF Edge партнёры создают набор программных инструментов, которые объединяют фрагментированный рынок периферийных вычислений вокруг общей открытой концепции, которая ляжет в основу рынка будущего.

Соучредитель и генеральный директор компании Dianomic Systems (участвует в развитии LF Edge) Том Артур (Tom Arthur) считает, что открытая готовая к взаимодействию платформа нужна периферийным вычислениям, особенно промышленным предприятиям, заводам и добывающей промышленности, где «почти каждая полевая система, часть оборудования или датчик использует свои собственные проприетарные протоколы и определения данных».

Главными катализаторами роста спроса на периферийные вычисления в Linux Foundation видят системы передачи видеоконтента, игры, 5G-сети, беспилотные автомобили и технологии виртуальной и дополненной реальности.[6]

Transworld Data: Периферийные вычисления требуют переработки планов восстановления после катастроф

Поскольку информационные системы и приложения рассеяны по предприятиям и облакам, руководителям ИТ-подразделений приходится пересматривать планы восстановления после катастроф, пишет на портале InformationWeek Мэри Шеклет, президент консалтинговой фирмы Transworld Data[7].

На протяжении многих лет в обязанности ИТ-подразделений входило составление планов восстановления после катастроф (disaster recovery, DR). Но теперь эти планы должны быть переработаны с учетом возможности выхода из строя периферийных (edge) и облачных сред. Что появилось нового, и как организации пересматривают свои планы?

1. ИТ-подразделения не контролируют периферию

Учитывая распространение периферийных и других распределенных вычислений, ИТ-подразделения уже не могут использовать стандартные планы DR, разработанные для ЦОДов. Например, если в производстве используются роботы и автоматизация, ими управляют рабочие и линейные руководители. Они же должны позаботиться о том, чтобы эти активы находились в безопасном месте, когда не используются. Часто они самостоятельно осуществляют их установку, мониторинг и обслуживание или контактируют с производителями.

Такие сотрудники не имеют опыта обеспечения безопасности или защиты активов и их обслуживания/мониторинга. В то же время появление новых периферийных сетей и решений без участия ИТ-подразделений множит количество активов, которые могут дать сбой. Чтобы охватить эти активы, планы DR и аварийного переключения должны быть документированы, а персонал надлежит обучить действовать в соответствии с этими планами. Логичнее всего сделать это в рамках имеющегося у ИТ-подразделения плана DR и обеспечения непрерывности бизнеса.

При пересмотре плана ИТ-специалисты должны сотрудничать с теми, кто использует различные виды периферийных вычислений. Важно вовлечь каждого из них в документирование соответствующего плана DR и аварийного переключения и регулярно тестировать этот план.

2. Облачные приложения — это дополнительная нагрузка

В 2018 г. компания Rightscale опросила почти 1 тыс. ИТ-специалистов и обнаружила, что в среднем каждая компания использует 4,8 облака.

Было бы интересно узнать, сколько людей в этих компаниях задокументировали процедуры DR на случай выхода из строя облаков. Обследование облачных провайдеров показало, что почти все они предусмотрели в контрактах оговорку, освобождающую их от ответственности в случае катастрофы.

Отсюда вывод: следует включать в план DR каждого облачного провайдера, услугами которого вы пользуетесь. Каковы условия соглашений об уровне обслуживания, касающиеся резервного копирования и восстановления данных? Имеется ли у вас (или вашего провайдера) план на случай выхода облака из строя? Заключили ли вы с провайдером соглашение о ежегодном тестировании приложений, которые вы используете в облаке для аварийного переключения в случае DR?

3. Важность физической безопасности

Чем больше ИТ тяготеют к периферии, прокладывая себе путь на производство или в офисы филиалов, тем теснее переплетается с DR физическая безопасность. Что произойдет, если в удаленном офисе из-за перегрева выйдет из строя сервер? Или если не имеющий на то полномочий сотрудник войдет в цеху в отгороженную зону и испортит робота? План DR должен предусматривать регулярное инспектирование и тестирование оборудования и объектов в удаленных точках, а не только в главном ЦОДе.

4. В случае катастрофы необходимо сохранить устойчивый обмен информацией

Несколько лет назад в результате землетрясения ЦОД одного банка мало пострадал, но оказались разрушены сети во всей зоне бедствия. Кассирам в филиалах пришлось вручную заносить транзакции клиентов в реестры, чтобы после устранения последствий землетрясения ввести их в систему.

Один из клиентов поинтересовался у кассирши, что случилось. А та возьми и ответь: «Все наши компьютеры вышли из строя». Эта информация со скоростью лесного пожара распространилась среди клиентов и была растиражирована в СМИ. В результате многие клиенты поспешили закрыть свои счета.

Подобные ситуации значительно обостряются, когда ИТ-активами управляет множество людей, как в случае с периферийными вычислениями. Поэтому так важно создать «дерево» обмена информацией, показывающее, кто, что и кому сообщает в случае катастрофы. Такой порядок должен строго соблюдаться всеми сотрудниками.

В нормальном случае «голосом» компании является ее PR-подразделение, которое координирует свои действия с руководством компании и делает заявления о катастрофе для сообщества и СМИ. Если такой информационный канал ненадежен и если сотрудники не знают о его существовании, можно потратить больше времени на устранение последствий неверной информации, чем самой катастрофы.

5. План DR должен охватывать различные географические точки

Учитывая растущее распространение периферийных вычислений и удаленных офисов, само собой разумеется, что план DR больше не может касаться только одного местоположения или ЦОДа. Особенно если вы используете облака для восстановления после катастроф, следует выбирать облачных провайдеров, имеющих несколько ЦОДов в разных регионах. Это позволит выполнить аварийное переключение на работоспособную географическую точку в случае выхода из строя основного ЦОДа или облачного хранилища данных. Такой сценарий должен быть включен в план DR и протестирован.

6. Методику тестирования плана DR следует пересмотреть

Если планируется переносить больше функций в облака и шире развертывать периферийные вычисления, необходимо предусмотреть дополнительные сценарии тестирования плана DR и убедиться, что для облаков и периферии имеются документация и проведено тестирование. Необходима уверенность, что план DR будет работать при любом сценарии, если придется ввести его в действие.

7. Руководство должно поддерживать план DR не только на словах

Облака и периферийные вычисления усложняют восстановление после катастроф. Поэтому большинству организаций надлежит проанализировать и пересмотреть планы DR. Это потребует времени для решения задачи, которая для большинства организаций уже не является первоочередной и стоит далеко не на первом месте в длинном списке приоритетных проектов.

Из-за изменений в ИТ, вызванных появлением облаков и периферийных вычислений, CIO должны объяснить руководству и правлению, как эти изменения затрагивают план DR, и убедить их потратить силы и время на его пересмотр.

8. Следует обеспечить вовлеченность поставщиков периферийных ИТ и облачных провайдеров в осуществление плана DR

Как уже упоминалось, большинство облачных провайдеров не предусматривают в контрактах гарантии DR и аварийного переключения. Поэтому до подписания контракта обязательства провайдера, касающиеся DR, должны быть включены в запросы о предложениях (RFP) и стать важным пунктом для обсуждения.

9. Избыточность сетей имеет огромное значение

Многие организации в случае катастрофы сосредотачиваются на восстановлении систем и данных, уделяя меньше внимания сетям. Однако, учитывая сегодняшнюю роль Интернета и глобальных сетей, аварийное переключение в случае катастрофы и избыточность сетей также должны предусматриваться планом DR.

Juniper Research: Edge-вычисления становятся реальностью

Начиная с автомобилей и заканчивая промышленным оборудованием, данные сегодня возникают с удивительной скоростью, затрагивая все больше областей. Фактически, за последние два года было создано 90% объема мировых данных. По оценкам Techjury, к концу этого года накопленный объем данных составит около 40 триллионов гигабайт, при этом скорость генерации составит 1,7 Мб данных на человека в секунду. Как подсчитала Juniper Research, к 2022 г. число подключенных устройств вырастет на 140%, достигнув 50 млрд.. Они будут генерировать беспрецедентно большой объем информации, которого раньше человечество не знало. В 2017 г. журнал Economist заявил, что данные стали самым ценным ресурсом, заменив нефть, однако пока что их ценность по-настоящему не раскрыта — она выражается единицами процентов от общего объема данных[8].

Однако к 2025 г. ситуация изменится. Согласно прогнозам Strategy Analytics, 59% данных, продуцируемых устройствами Интернета вещей (IoT), будут обрабатываться при помощи технологии периферийных вычислений. Обоснование для ее применения следующее: она улучшает пропускную способность сетей (снижает латентность) и уменьшает стоимость транспортировки данных. И тот, и другой показатель указывают на необходимость обработки данных в режиме реального времени и из любого места. По мере того, как современный мир становится цифровым и подключенным, а приложения — гораздо требовательнее к вычислительным ресурсам, потребность в Edge computing становится жизненно важной.


Все это подводит к вопросу: как периферийные вычисления воплотить в реальность? Ответ на него заключается в необходимости широкомасштабного развертывания инфраструктуры нового типа. Среди ее основных элементов — размещение на краю сети физических вычислительных компонентов. Их географическое расположение и плотность размещения будут зависеть от варианта применения, но маловероятно, что большинство предприятий отважатся взять на себя эти затраты. Скорее всего, они будут строить расчет на том, что за обустройство периферийной инфраструктуры возьмутся крупные поставщики услуг, действуя в рамках своих облачных и edge-стратегий.

Одним из таких примеров является инициатива AT&T CORD (Central Office Redesigned as Datacenter), которая легла в основу эволюции архитектуры компании. Помимо AT&T за переустройство инфраструктуры взялись и другие крупные облачные игроки, которые дополнили свои огромные централизованные дата-центры периферийными ЦОДами. Не исключено, что концепция микро-ЦОДов, которые разворачиваются на базовых станциях сотовой связи, вскоре станет реальностью.

Микро-ЦОДы открывают возможности для разворачивания многоуровневых архитектур, при этом наиболее чувствительные к пропускной способности варианты применения будут располагать небольшими вычислительными блоками. Последние могут находиться в непосредственной близости к девайсу, передавая с него данные в кэш или хранилища данных, которые находятся в периферийных дата-центрах.

Развертывание edge-инфраструктуры предусматривает два сценария. В первом случае обработка данных, которые генерируют устройства, будет осуществляться локально, без отправки в корпоративное облако или удаленный ЦОД. Этот метод может оказаться особенно полезным для регионов, где законодательство о защите персональных данных запрещает трансграничное перемещение конфиденциальной информации о пользователях. В другом случае обработка чувствительных к пропускной способности данных будет осуществляться на границе сети с асинхронной передачей результатов в удаленные системы.

Данные в масштабе

Низкая латентность и обработка больших объемов данных — это два ключевых компонента для реализации Edge computing как технологии. Несмотря на текущие проблемы, отраслевые лидеры должны сплотить усилия для стандартизации путей применения и обработки данных многочисленными поставщиками услуг, что позволит устранить задержки при передаче трафика на дальние расстояния, стать основой для зарождения нового поколения стратегических приложений, а также адаптироваться к развивающейся ИТ-инфраструктуре. Прежде, чем поставить периферийные вычисления на службу бизнесу, нужно разработать технику для масштабирования потоковых данные, которые поступают из множества типов устройств, и их обработки в многоуровневых кэшах или хранилищах данных.

Нужно заметить, что существующие технологии — как аппаратные, так и программные — это позволяют. Вдобавок ко всему, компании начинают проявлять творческий подход для прототипирования edge-приложений, пытаясь извлечь выгоду из надвигающейся волны периферийных вычислений. Компании-первопроходцы, которые продемонстрируют жизнеспособность технологии, запустят цепную реакцию массовых внедрений, продемонстрировав, что у облака появился конкурент.

Несмотря на то, что облако по-прежнему доминирует, ИТ-рынок подходит к переломному моменту — появлению нового поколения инфраструктуры, которая приведет к глубоким изменениям во всех отраслях.

Nvidia представила первую ИИ-платформу для периферийных вычислений

27 мая 2019 года Nvidia представила свою первую ИИ-платформу для периферийных вычислений — Nvidia EGX. Она способна различать, понимать и обрабатывать данные в режиме реального времени без предварительной их отправки в облако или дата-центр. Подробнее здесь.

Примечания