核施設における通常の操作からの盗取の識別

公開日:
カテゴリ: 第17回
核施設における通常の操作からの盗取の識別 Identification of theft from normal operations in nuclear facilities 東京大学 横地悠紀 Yuki YOKOCHI Student-member 東京大学 陳実 Shi CHEN Member 東京大学 出町和之 Kazuyuki DEMACHI Member Abstract - According to the IAEA's Incident and Trafficking Database (ITDB) [1], nuclear security-related incidents occur approximately every three days in the world, with the majority being nuclear and radioactive material theft. Generally, material accountancy is applied as a countermeasure against theft. In this study, a deep learning-based approach was proposed to identify theft of nuclear and radioactive material. As various acts can be performed at the site where nuclear material is handled, the recognition of objects and actions in surveillance images were integrated to perform behavioral analysis. Furthermore, to arrange the detection unit acts in time series data for malicious identification was proposed. The proposed identification framework contains the following elemental techniques: I. Real-time unit acts detection, and II. Real-time malicious acts identification Keywords: Pose Estimation, Long-Short Term Memory (LSTM), Object Detection, Convolutional Neural Network (CNN) 1.はじめに IAEA のIncident and Trafficking Database (ITDB)[1](Fig.1) によると、世界中で毎年約 140 件の核セキュリティ関連の事件が発生している。 その中の多くは、内部脅威者による核物質と放射性物質の盗取である。 これは、現在の内部脅威者による盗取行為に対する検出システムが不十分であることを示している。 現在、核物質盗取対策として計数管理が適用されている。 しかし、内部脅威者は計数管理に記載された記録を偽造することが可能であるため、盗取が発覚するまでに一定時間を要する。この問題を解決するために計数管理の頻度と担当人員を増やしているが、使用施設側の負担も大きくなる。 しかし、これらの問題は、リアルタイムでの盗取検知手法など機械的な手法を取り入れることで解決される可能性がある。 関連研究として、万引きを検出する人工知能が挙げられ、[2] 製品を手に取ってバッグやポケットに入れるなどの簡単な盗取行為を検出することが可能である。一方で放射性物質を取り扱う施設では、通常の操作に偽装して 連絡先: 横地悠紀、〒113-8654 東京都文京区本郷7丁目3?1 東京大学工学系研究科原子力国際専攻出町研究室, E-mail: akebonotukai@gmail.com 盗取が実施される場合があり、そのときの通常の行為と盗取の行為とを区別することは容易ではない。 したがって、それらを区別する手法を検討する必要がある。 このための主なアプローチは2 つある。1 つ目は、通常の操作を機械学習し、通常からの逸脱を盗取行為として検出することである。 ただし、通常の操作を定義することは容易ではないため、そこからの逸脱を検出することは容易ではない。 2 つ目は、盗取行為そのものを検出することである。核物質と放射性物質に関しては盗取に関連する行為は数えられる程度であるため、このアプローチは通常の操作と盗取行為を区別することに適している。 したがって本研究では、以下の 3 つのステップを以て使用施設における通常の操作に偽装された盗取行為を特定する方法の開発を目的とする。 ディープラーニングを用いて、物体と動作の関係をリアルタイムで検出する手法を実装する。 通常操作と偽装された盗取行為の時系列データを実装した手法により分析し、盗取行為を検出するための注意点を明確にする。 2)をベースとした盗取行為検知手法の設計と実装を行う。 Year number Fig.1 Changes in the number of nuclear security-related incidents reported to ITDB [1] 2.方法 盗取が発生した瞬間を検出するために、以下の方法を 提案する。 まず、核物質と放射性物質を取り扱う現場ではさまざまな通常操作が存在するため、物体検知と行動検知の組み合わせを時系列データに整理し、これを識別することで盗取などの悪意行為を特定する。 例えば、セーフティボックスを開けて核物質や放射性物質を取り出しカバンに入れるという行為は悪意があると判定されるが、その次のステップでセーフティボックスに戻した場合では悪意のある行為とは判定されない。これを区別するために、各ステップにおける動作は単位行為として扱われる。これを実現するためには、以下の手法I, II を開発する必要がある。 方法I. 単位行為のリアルタイム検出 方法II. 悪意のある行為のリアルタイム識別次に、これらI, II について説明する。 方法I. 単位行為のリアルタイム検出 まず、悪意のある行為の識別に関連する動作ラベルa? f (Fig.2)がトレーニングされ識別される。次に、悪意のある行為の識別に関連する物体 1?4(Fig.2)をトレーニングして検出する。そして、距離情報から人物骨格と物体の関係を分析し、リアルタイムで単位行為をコードとして識別する。(Fig.3) Fig.2 Example of operation label / object label Fig.3 Example of code indicating unit action 動作検出の方法として、既存の姿勢推定モデルから骨格座標を取得する。これを整理し時系列データに変換し、動作認識モデルに入力することで、動作ラベルa?f を出力する。 物体認識方法は、既存の物体認識モデルから最適なものを選択して実装する。また、動作ラベルa?f は常に手を使用するため、両手の座標と検出対象物1?4 の座標から距離を出力し、しきい値に基づいて手と物体の関係を解析する。最後に単位行為は、関連する動作ラベル a?f および物体1?4 によってコードに変換される。 方法II. 悪意のある行為のリアルタイム識別 方法 I で取得したコード化された単位動作の時系列データを分析し、悪意のある行為を特定する。その際、通常の操作とそれに紛れた盗取のわずかな違いを区別する。 具体的には、盗取が成立するために少しでも必要だと判断されたすべての動作・行為の検知ができるように深層学習モデルに学習させる。動作が検出されない場合でも、これを時系列データとして記録し続け、悪意があると識別されたコードの所定の順序と常に比較する。そこで一致が発生すると、悪意があると判断される。 これらの手法 I, II を実現するためには、姿勢推定モデル、動作認識モデル、物体認識モデルが必要であることを先に述べた。それぞれに採用するモデルを以下に挙げる。 ① 姿勢推定モデル: Openpose[3] ② 動作認識モデル: Long-Short Term Memory[4] ③ 物体認識モデル: YOLOv3[5] 複数の人体骨格をリアルタイムで検出できるという観 点から姿勢推定モデルとしてOpenPose[3]を選択した。 動作認識モデルにはLSTM[4] を選択した。今回は入力 としてボトル-手-セーフティボックス間の距離の時間変化を表すデータを採用する。LSTM はこのような長期の時系列データに対して適切な出力を得ることが可能である。同時に画面上に検出された物体の種類が判明したとき、出力しうる動作ラベルが決定する。この動作ラベルに対して LSTM を用いた many to one のタスクを解くことで検出された物体に対する動作を記号として出力する。 物体認識モデルには YOLOv3[5]を選択した。YOLOv3 は古くから使用されており、信頼性が高いためである。また、小さなオブジェクトの分析と迅速な処理を得意としている。 最後に、今回提案したアルゴリズムの全体像をFig.4 に示す。悪意の判断に関連する単位行為は、学習および識別される。 次に、悪意のある判断に関連する物体を学習し認識する。これらの距離情報から、骨格と物体の関係が分析され、単位行為がリアルタイムでコードとして識別される。その後悪意判定を行う。 Fig.4 Overview of the proposed method 実験と結果 物体認識 YOLOv3 の学習データセットの個数はTable 1 の通りである。この表に示すように、教師の画像ごとに1400 のはさみの画像、1800 のドライバーの画像、2700 のボトルの画像を用意した。また、バウンディングボックスの形状、中心位置、幅、および高さの情報をFig.5 に示す。 Table 1 Number of training datasets for YOLOv3 Fig.5 Number of images (upper left), bounding box shape (upper right), bounding box position (lower left), bounding box width and height (lower right) YOLOv3 モデルの学習には、以下の環境とパラメータを使用した。 Table 2 Environments and parameters used to train the YOLO v3 model Model YOLOv3 Framework PyTorch 1.7.1 Batch Size 8 Optimizer SGD Learning Rate 0.01 Epoch 300 Platform Intel Core i7 7820X NVIDIA GeFrorce GTX 1080Ti/ 11GB Ubuntu 18.04 また、物体認識の学習結果をFig.6 に示す。この図の上側は学習結果を示し、下側は検証結果を示している。mAP @ 0.5 で約0.9 の良好な結果が得られた。さらに、95%が学習に使用され、5%がテストに使用され、そのエポックを300 回繰り返した。 Fig.6 Result of object recognition training 物体認識の結果例をFig.7 に示す。このような小さな物体でも、正しいラベルで検出できることがわかる。ただし、角度によっては確実性が低く、ほとんどのシーンで0.4?0.5 程度で不十分である。 Fig.7 Example of object recognition results Fig.8 にOpenpose により得られた姿勢推定結果を示す。撮影した各動作の骨格を大まかに推定できているが、背景や服装、姿勢によっては手足がうまく識別できない場合が確認できた。 Fig.8 Example of posture estimation results 姿勢と物体の関係性 物体と人物骨格の座標をリアルタイムで検出すること ができた。このFig.9,10 に示すように、物体、セーフティボックス、両手間の相対距離をリアルタイムで取得することに成功した。ただし、物体と人物骨格のオクルーションによる距離情報の損失がグラフに反映されている。 Fig.9 Time series of distance between bottle-hand-safety box when the bottle is taken out and put back (vertical axis: pixels, horizontal axis: frame) Fig.10 Time series of the distance between the bottle-hand- safety box when stealing the bottle (vertical axis: pixels, horizontal axis: frame) これらの結果に基づく考察は次の通りである。まず、物体認識において確実性が高くないことについては、ウェブ上の画像の利用率が高かったためである。 Web 上の画像には、手に持ったり、さまざまな角度から撮影した画像はほとんどない。したがって、物体を正面に向けたときの確実性は高く、物体を持った場合、または傾けた場合の確実性は低くなる。そのため、学習用に独自で用意した画像を高い割合で用いる必要があると考える。手足がうまく識別できなかったことについては、衣服と背景が同系色であり、OpenPose をそのまま適用しただけでは検出が困難だったと考えられる。対策として、様々な服装、背景、角度で動画を撮影し、再学習することが挙げられる。 距離情報が不足していることについては、動画内の物 体や人物骨格に障害物が存在するためである。対策として距離を補間することが挙げられる。 結論 本研究では、単位行為を検出し、時系列データに整理して悪意のある行為を特定するアルゴリズムを提案した。このためには、単位行為のリアルタイム検出および悪意のある行為のリアルタイム識別が必要である。 前者は、最初に単位行為と物体をトレーニングして検出する。人物骨格と物体の関係は距離情報から分析され、単位行為はコードとしてリアルタイムで識別される。 後者は、最初の単位行為をリアルタイムでコードとして記録し、悪意があると識別されるコードの所定の順序と比較することにより、悪意判定を行う。 そして、通常の操作とそれに紛れた盗取のわずかな違いを区別する。 この研究発表では、これらの手法を実現するために、姿勢推定と物体認識の要素技術を実装した。 今後の課題として、今回は結果として報告できなかった 未実験部分の実装・検証を行う。 Fig.11 Incomplete parts at the time of writing this paper 参考文献 IAEA Incident and Trafficking Database: https://www.iaea.org/resources/databases/itdb Artificial intelligence to detect shoplifting VAAKEYE : https://ledge.ai/vaak-surveillance-camera/ Zhe Cao, Tomas Simon, Shih-En Wei, Yaser Sheikh, Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields, The Robotics Institute, Carnegie Mellon University, 14 Apr, (2017) Sepp Hochreiter, Fakultat fur Informatik Technische Universitat Munchen 80290 Munchen, Germany, Jurgen Schmidhuber, IDSIA Corso Elvezia 36 6900 Lugano Switzerland : LONG SHORT-TERM MEMORY,(1997) Joseph Redmon, Ali Farhadi, YOLOv3: An Incremental Improvement, University of Washington, 8 Apr, (2018)
著者検索
ボリューム検索
論文 (1)
解説記事 (0)
論文 (1)
解説記事 (0)
論文 (0)
解説記事 (0)
論文 (1)
解説記事 (0)
論文 (2)
解説記事 (0)
論文 (2)
解説記事 (0)
論文 (1)
解説記事 (0)
論文 (2)
解説記事 (0)
論文 (0)
解説記事 (0)
論文 (5)
解説記事 (0)
論文 (5)
解説記事 (0)
論文 (0)
解説記事 (0)
論文 (0)
解説記事 (0)