電力網からハッカーを遠ざける方法

How to keep hackers away from power grids.

<img alt="米国エネルギー省のオークリッジ国立研究所(ORNL)によると、2022年だけでサブステーションへの攻撃は70%増加しており、そこで働くエンジニアたちは、新しい攻撃方法に備え、それらを使用するハッカーから保護するための対策を講じています。ORNLのグリッド通信およびセキュリティグループを率いるPeter Fuhrは、「研究者として、サイバー脅威に先手を打ち、単にそれが発生した後に対処するだけでなく、対策を講じるよう努めています」と述べています。Fuhr氏のグループは、回転するカラーホイールを使用して、グリッドセンサーデータをビデオフィードに潜在的に符号化し、ユニークなフィボナッチ数列を使用してそれぞれのセンサーの読み取りに対して異なるカラーコードを使用する新しい方法を最近実証しました。

「ORNLは既知の暗号化技術に基づく重要なグリッドインフラストラクチャを保護するための説得力のある方法を発明しました」と、電力モニタリング器具を製造するBrixon Inc.(ボルチモア)の最高経営責任者(CEO)であるSterling Rooke氏は述べています。「適切なアプリケーションがあれば、既存のライブビデオフィードから重要な情報を隠す種類のステガノグラフィーとして、この新しい実装が必要になるでしょう。」

Fuhr氏によると、EPBおよび米国のほとんどの産業プロセス制御アーキテクチャは、NIST SP800-82ガイドラインに従っており、工場、製造、自動化テスト、およびグリッドを含むすべての産業プロセス制御(IPC)システムに適用されます。彼の色の符号化/復号化技術は、グリッド中央制御コンピュータからサブステーションへのグリッド通信だけでなく、すべての操作技術(OT)に対して機能します。実際、いくつかの民間企業は、Fuhr氏によると、彼のカラーコーディングアーキテクチャをライセンス供与することに関心を示しています。

サイバーセキュリティがますます重要な問題となっている中、多くのハッカーに対応した改良がSCADAアーキテクチャに追加されています。しかし、これらのセキュリティ対策は一般的に適用されていません。その結果、2000年以降、多数の攻撃が行われており、オーストラリア・クイーンズランド州のMaroochy Shire下水処理OTシステムを1台のコンピューターとラジオ送信機で制御した元従業員による攻撃などもありました。インターネットの商用化以来、多くのハッカーがユーティリティなどのプロセス制御システムを攻撃し、新しい(および改良された)SCADA産業プロトコルがネットワークをゲートウェイ、ルーター、ワンウェイデータダイオード、およびホワイトリスト化してセグメント化したため、VLANチャネルごとに1つのタイプのトラフィックしか通過させないようにしました。さらに、VLANチャネルは、必要に応じて双方向であり、通信するデバイスとのみ通信できるようにセグメント化され、最低限ファイアウォールで中央企業ネットワークに接続できるようになっています(最大限のセキュリティのために、DMZ(非武装地帯)サーバーの両側に2つのファイアウォールを備えたものが望ましい)。

それにもかかわらず、NISTの推奨に従わないユーティリティネットワークは、グリッド中央制御コンピューターへの多角的攻撃、電話システムへの同時のサービス拒否攻撃、および2016年にSCADAネットワークにダウンロードされたマルウェアによって攻撃され、ウクライナで80,000人の顧客にグリッド停電を引き起こし、7つのサブステーションを停止させた。同様に、トリトンマルウェアは、Mandiantのホワイトハット(セキュリティハッカー)によってロシアの中央科学研究所の化学と力学に追跡され、サウジアラビアのOTインストールを構成するために使用されたWindows PCにロードされ、2019年にSCADAプロセス制御システムに感染した。 2011年には、スタックスネット悪意のあるワームがイランのOT制御された遠心分離機を攻撃し、ウランを濃縮した。

今日、NISTのガイドラインに厳密に従う米国の商業OTネットワークはより安全です。しかし、Fuhrによると、最近導入された数多くの「スマート」電力メーターによって新しい攻撃ベクトルが開かれています。これらのメーターは、グリッドオペレーターが電力をより効率的に管理できるようにする一方で、OT制御インフラストラクチャーに新しい脆弱性を形成します。

“「スマートメーターやグリッド制御型のホームオートメーションデバイスの普及は、現在の研究プロジェクトの範囲外であり、現実的にはさまざまなネットワーク構成が使用されるため、単一の答えはありませんが、攻撃面積は確実に増加しています」とFuhrは述べています。

Fuhrは、彼の色の符号化/復号技術が、グリッドインフラストラクチャーおよびその他のOTを保護するための新しいセキュリティプロトコルの新しいレイヤーを提供することにより、攻撃面積を減らすことを強調しています。ORNLが色コーディング技術を追加することで、SCADAで実行されるグリッドサブステーションに到着し、中央グリッド制御コンピューターに転送されるセンサー読み取りをインターセプトして置き換える(スプーフィング)ハッカーの困難さが増します。

“私たちのアーキテクチャは、例えば、ファンをオフにする可能性がある非常に低い温度を報告することによって、サーマルセンサーの読み取りをスプーフィングするハッカーを防止するように設計されています。 これにより、過熱した機器が故障し、ブラックアウトを引き起こすことがあります”、とFuhrは述べています。

EPBグリッドでORNLの技術をテストすると、温度、圧力、電圧、電流、および電磁界などの既存のセンサー読み取りは、通常のように、一連の文字列にエンコードされます。その後、Fuhrが追加したハードウェアは、キャラクターをカラーホイールの色にエンコードし、すでに各サブステーションを遠隔監視しているビデオフィードのビデオフレームに隠します。ビデオ信号は、カラー復号化キーの別個のネットワークチャネルを介して送信されるため、ハッカーが侵入するための別のセキュリティレイヤーが追加されます。

“私たちの展開は、すでにサブステーションのネットワークデバイス間で異なるタイプの情報トラフィックに対して別々のVLANチャネルを使用しているユーティリティでテストされており、ハッキング試行をさらに複雑にしています”、とFuhrは述べています。

色ホイールの位置は、各センサー読み取りごとに変わります。これは、前の2つの回転量の合計で色ホイール番号を回転させるフィボナッチアルゴリズムを使用して計算され、約10回/秒で変更されます。その結果、センサー読み取りをスプーフィングするには、ハッカーが2つの別々のVLANチャネルに侵入し、色の符号化スキームがどのように機能するかを決定し、回転量を計算し、潜在的なフレーム内の色を特定する必要があります。次のセンサー読み取りの1/10秒前に。

Fuhrは、NIST準拠のOTにさらに追加されたこれらの追加レベルのセキュリティにより、米国の電気グリッドまたはその他のIPC OTアーキテクチャを攻撃することは非常に困難になると主張しています。

R. Colin Johnsonは京都賞フェローであり、2つの10年間技術ジャーナリストとして働いています。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI研究

「スピーチの回復を革新する:スタンフォード主導の研究が制約のないコミュニケーションのための高性能な神経プロステーシスを公開」

脳コンピュータインタフェース(BCI)を用いた音声は、障害によりコミュニケーション能力を失った人々のリハビリに有望な応用...

AIニュース

「ESRBは、顔認識技術を使って人々の年齢を確認することを始めることを望んでいます」

FTCは現在、ESRBの提案について一般からのフィードバックを求めています

AI研究

Meta AIとSamsungの研究者が、学習率適応のための2つの新しいAI手法、ProdigyとResettingを導入し、最先端のD-Adaptation手法の適応率を改善しました

現代の機械学習は、コンピュータビジョン、自然言語処理、強化学習など、さまざまな分野で難しい問題に効果的な解答を提供す...

機械学習

「AIイメージジェネレータとは何ですか?2023年のトップAIイメージジェネレータ」

AI画像生成器は、ユーザーが指定した特定のパラメータやプロンプトに基づいて、ユニークで高品質な画像を生成することができ...

AI研究

腫瘍の起源の解読:MITとDana-Farber研究者が機械学習を活用して遺伝子配列を分析する方法

MITとDana-Farber Cancer Instituteの画期的な共同研究により、機械学習の力ががん治療における困難な課題に取り組むために活...

AI研究

『CMUからの新しいAI研究は、適切な言語モデルに対して物議を醸す行動を生成させるための、簡単で効果的な攻撃手法を提案しています』

ChatGPT、Bard AI、およびLlama-2などの大規模言語モデル(LLM)は、望ましくないまたは攻撃的なコンテンツを生成することが...