エッジコンピューティング
エッジコンピューティング(英語: edge computing)とは、利用者や端末と物理的に近い場所に処理装置(エッジプラットフォーム)を分散配置して、ネットワークの端点でデータ処理を行う技術の総称[1]。多くのデバイスが接続されるIoT時代となり提唱されるようになった。
エッジコンピューティングは分散コンピューティングの活用であり、サーバ処理とデータストレージをリクエスト元にネットワーク上距離を近づける事で、処理応答時間を改善し、バックボーン帯域幅を節約する事に寄与する。
エッジコンピューティングの起源は、要求元ユーザーの近くに配置されたエッジサーバーからWebおよびストリームコンテンツを提供するために1990年代後半に開始されたコンテンツデリバリネットワーク(CDN)にある。近年これらのネットワークはエッジサーバーでアプリケーションとアプリケーションコンポーネントをホストするよう進化し、リアルタイムデータ処理などのアプリケーションをホストするIoTを見越した最新のエッジコンピューティングは、仮想化テクノロジーを通じてこのアプローチを大幅に拡張し、エッジサーバーでの幅広いアプリケーションの展開と実行を容易にしている。
定義
編集エッジコンピューティングとは、低遅延・低負荷のデータ処理を実現するために、デバイス本体やデバイスに近接したエッジサーバーでデータ処理を行う技術の総称。遠方のデータセンターへの依存を避けることでレイテンシーを低減し、リアルタイムな処理を可能にするため、特にリアルタイムのデータ処理が必要なアプリケーションに有効とされる。
エッジでデータ処理を行うことで、ネットワーク帯域、データ通信、ストレージ容量に関連するクラウドコストを削減することに寄与する。エッジコンピューティングでは、処理と分析をエッジで行い、必要最低限の分析結果のみを外部のクラウドやデータセンターに送信することができるため、大幅なコスト削減が可能となる。 また、機密データや機械学習のアルゴリズムをクラウドに転送せず、プライベートネットワーク内で管理することができるため、セキュリティ面でもメリットがある。
概念
編集エッジコンピューティングは、クラウドコンピューティングの代替ではなく、以下のような機能を提供する別種のソリューションと考える必要がありる。
データ収集と集計
編集従来のクラウドアーキテクチャでは、すべてのデータをクラウドに送信し、クラウド上で処理を行うが、エッジコンピューティングはデータ生成元の近くでデータを収集、処理する。エッジで処理しきれない場合、詳細な分析が必要な場合、またデータを長期的に保存する必要がある場合などにデータをクラウドにアップロードを行う。
ローカルなデータ処理
編集エッジコンピューティングは、サイズの大きいデータを処理する場合に特に適している。大容量データの場合、エッジからクラウドへリアルタイムに転送することは不可能である。
AIがサポートするモニタリング
編集センサーやカメラからのデータや検知結果をクラウド側で収集し、評価、分析することで、対象データの継続的、効率的なモニタリングが可能となる。分析やアラートに機械学習アルゴリズム等を応用することで、AIを利用したリアルタイムの状態監視や予測も実現することが出来る。
M2M(マシン・ツー・マシン)通信
編集M2Mはデバイスやシステム間の自律的な通信と相互処理のこと。複数のエッジデバイスからのデータを中央のコントロールセンターで集約する。その情報をもとに遠隔地から現場の監視を行うことができる。また複数デバイスからのデータを基に、複数の機械や装置を一元的に制御することも可能。これにより人間の介入を減らしながら、監視や制御を効率的に行うことができるようになるとされている[2]。
主な実装
編集- Lambda@Edge - Amazon CloudFront上でAWS Lambdaを実行するサービス