– Антон, периферийные вычисления как тренд в мировой практике – когда он стал очевиден, как и в каком направлении развивается?
– С одной стороны, мы видим развитие беспроводных технологий (WiFi 5 и 6, 5G), с другой – резкий рост потребности в сборе данных с большого количества различных устройств – сенсоров, мобильных датчиков, мобильных устройств, узлов сбора и предобработки данных, видеокамер, ориентированных на использование компьютерного зрения (CV). Потенциальный рост пропускной способности сетей передачи данных должен обеспечить корректную работу источников данных различной конструкции и назначения. В этом случае можно решать задачи совершенно нового класса – определять, что именно происходит в месте размещения источников данных с достаточной точностью, реагировать на события в реальном времени, в том числе с помощью прогнозирования поведения людей и планирования производственных процессов.
Фактически такая возможность появилась около пяти лет назад одновременно с концепцией граничных вычислений. Граничные вычисления дали возможность создавать реальные прикладные решения, привлекательные для разработчиков с коммерческой точки зрения.
Директор по разработкам КОМПЛИТ Центр Антон Сосенко
Основа периферийных вычислений – сокращение времени отклика облачного сервиса в ответ на определенные события в месте размещения сенсоров или пользовательских устройств. В первых таких решениях к задаче подходили прямолинейно: часть вычислений переносилась в локальные шлюзы, прежде всего для сокращения задержек и снижения сетевого трафика.
Сейчас появились новые требования – решение должно масштабироваться, поэтому один из трендов – создание распределенных программных платформ. Платформа должна обладать гибкой архитектурой и способностью адаптироваться под конечную задачу без существенной доработки программного кода, а также обеспечивать работоспособность конечных устройств в случае кратковременной потери связи с облаком.
Еще один современный тренд – поддержка машинного обучения на аппаратном уровне, в узлах передачи данных и сенсорах. Это новое направление в микроэлектронике, позволяющее серьезно расширить применимость моделей.
– Где, по вашей оценке, сейчас видны области применения периферийных вычислений в России?
– Мы занимаемся разработкой отраслевых решений на основе распределенной программной платформы DataMist. Продукт предназначен для автоматического анализа больших данных и ориентирован в основном на industrial. Кроме того, это решения для умного города, управления транспортом, складской логистики, ритейла и здравоохранения.
Сфера industrial – производство, энергетика, нефтегаз. В этой области появилось много новых требований, прежде всего к уровню контроля производственных процессов и сокращению операционных затрат. Обслуживание, ремонты, реконструкция, строительство, производство всех типов – для предприятий это десятки и сотни тысяч человек собственного и стороннего персонала, подрядчики, множество территориально распределенных объектов. Потенциал традиционных решений, основанных на ERP или MES, практически исчерпан. «Цифровые двойники» – в большой степени маркетинговый термин.
Периферийные вычисления и распределенные программные платформы позволяют получить доступ к 80 % необходимой информации, и эта информация находится на нижнем уровне – в цехах, полях, на дорогах, улицах, в кампусах, складах и торговых центрах.
Кроме того, в industrial сейчас наблюдается явный тренд в сторону обеспечения безопасности людей, охраны труда и здоровья. Это происходит не только из-за нежелания руководителей нести ответственность за травматизм и несчастные случаи – мы живем в 21-м веке, и человеческая жизнь имеет значение.
– Почему периферийные вычисления вообще нужны, когда есть явный тренд консолидации ИТ-инфраструктуры в облаке?
– Во-первых, наиболее понятный фактор – скорость реакции на события. Если мы хотим предотвращать ошибки персонала при обслуживании опасного оборудования, мы должны четко осознавать – человек остается человеком и будет ошибаться всегда. Для распознавания поведения людей, операций, детекции аномалий и предотвращения ошибок нужны модели машинного обучения и компьютерного зрения, а также точная навигация. Требуется скорость реакции до миллисекунд и позиционирование с точностью до нескольких сантиметров, а это не слишком простые модели и алгоритмы, к тому же чувствительные к потере связи с облаком. Такие же требования предъявляются к управлению производственными процессами и транспортом, особенно в части автономного транспорта и интеграции с дорожной инфраструктурой.
Второй фактор – объем передаваемых данных. Если сенсоры срабатывают чаще, чем раз в секунду, то это десятки миллионов измерений с сотни датчиков за неполный рабочий день, не говоря про видеопоток для CV. Сокращение этого потока несет очевидную пользу.
В-третьих, объем вложений. Нет смысла бесконечно увеличивать мощности и количество центров обработки данных под задачи каждого технологического объекта, логистического центра или школы. В России только Москва может себе такое позволить. Кроме того, необходимо учитывать надежность и устойчивость – централизованная архитектура требует серьезной защиты на программном и аппаратном уровне и сложнее в реализации. Распределенные решения, построенные на граничных вычислениях, дешевле, работают на порядки надежнее, проще в обслуживании и масштабировании, легче адаптируются при изменении процессов.
– Есть ли проекты, в которых ваша компания уже использует периферийные вычисления?
– Да, сейчас мы выполняем первые проекты достаточно серьезного масштаба, и все они используют граничные вычисления. Полностью в традиционном понимании – это процессинг данных в локальных шлюзах и узлах передачи данных. В нетрадиционном – использование сенсоров с поддержкой моделей машинного обучения на аппаратном уровне. Пока что это довольно простые модели, которые могут дать отдельные признаки для инференса моделей в облаке, но их польза ощущается явно. Это не только скорость реакции и сокращение потока данных, но и способ обойти проблему перестройки сети передачи данных при изменении конечной задачи.
– Ваши прогнозы по развитию этого направления на отечественном рынке и в практике вашей компании.
– В России есть некоторые особенности, например, слабое желание инвесторов вкладываться в общественную инфраструктуру из-за сложности взаимодействия с государством или крупными госкорпорациями. А когда речь идет о модернизации связи, сетей передачи данных, централизованном размещении сенсоров или унификации протоколов, это становится вопросом политики. Именно поэтому разработчики беспилотных автомобилей рассчитывают только на себя и создают действительно автономные, обособленные решения. В industrial происходит примерно то же самое, но частных компаний больше, их менеджмент прагматичен, а значит, есть перспективы.
Что касается нашей компании, мы прикладываем усилия для совершенствования программно-аппаратной архитектуры нашего продукта – в сторону большей универсальности, децентрализации программных микросервисов, простоты добавления новых типов сенсоров и пакетов данных. Мы также работаем над технологией комбинирования данных, полученных из нескольких источников, особенно для моделей машинного обучения. У нас хорошие возможности – современная лаборатория микроэлектроники, испытательные полигоны, контактные заказчики, сильная команда как в части микроэлектроники, так и в части машинного обучения и анализа данных. Мы прогнозируем дальнейшую миграцию инференса моделей машинного обучения из облака в сторону мобильных устройств и сенсоров. Думаю, в ближайшие несколько лет граничные вычисления покажут свои преимущества и с точки зрения устойчивости решений и их безопасности.
– Большое спасибо за беседу!