2026年3月28日土曜日

地上開度 その2

久しぶりに地上開度を求めることになりました。

以前の記録を見ると、15年ぶりです。その間、利用することはありましたが、自分の手で作ることはありませんでした。

ArcGIS pro v3.6 を確認しましたが、未だ作成機能は実装されていません。国外製品に実装されないということは、国内限定の指標なのでしょう。

今回は python でArc 用のツールボックスを作って計算してみました。
で、上記 QGIS v3.40  (アドイン:Processing Saga NextGen Provider) との結果の比較段階で、相違に気づきました。

SAGA の Morphometric Protection Index は仰角(水平からの上向きの角度 [radian])です。地上開度(鉛直からの角度)に変換すると、水平:MPI 0度→開度90度となります。水平から下向きの見下ろし角は無視されているため、痩せ尾根や山頂などでも最大90度、平野や滑走路のような広い水平場所でも90度となります。
一方で、地上開度の論文では水平から下向きまで考慮されており、90度以上の値をとります。

NoData 周辺の取り扱いも注意が必要です。特に池や湖。今回は1探索方向の全セルが NoData の場合は90度に設定し、その後に8方向平均をとりました。その方向の探索をやめるとか、8方向平均をとらずに NoData 扱いにするとか、いくつかの考え方があると思います。どのような処理をされたデータなのか、確認が必要です。

15年前はこれらの点に気づいていませんでした。もらった開度データに関しても、どの範囲をとっていたかまで見ていませんでした。今回のように論文を見て実装するなど、手を動かさないとダメでした。
基本、開度を自動で計算できるツールは存在していませんので、頂くデータに関しては、作成手法とデータの範囲に留意しましょう。

*********************************************
20260329 追記
地上開度を計算するArcGIS  pro 用の Python toolbox (.pyt) を GitHub の Public リポジトリに置きました。

2026年3月23日月曜日

文献:Real-time lithology identification while drilling based on drilling parameters analysis with machine learning

Real-time lithology identification while drilling based on drilling parameters analysis with machine learning | Geomechanics and Geophysics for Geo-Energy and Geo-Resources | Springer Nature Link

AI要約

1. 背景
石炭鉱山における災害(斜面崩落、ガス突出など)の防止やガス抽出の効率化には、正確な地層(岩相)情報が不可欠です。従来の技術では、技術者が掘り屑(カッティングス)の色や形状を目視で確認していましたが、精度が低く、個人の経験に依存するという課題がありました。近年、振動、音響、画像解析を用いたAI手法も研究されていますが、地下の過酷な環境やノイズの干渉により、実用化には至っていませんでした。特に、「ドリルストリングの摩擦抵抗」が掘削データに与える影響や、膨大なデータのリアルタイム処理が、機械学習を導入する上での大きな障壁となっていました。

2. 手法
研究チームは、以下のハードウェア、前処理技術、機械学習アルゴリズムを組み合わせたシステムを構築しました。

掘削機(スマート掘削リグ): MWD(Measurement While Drilling)システムを搭載した自走式スマート掘削リグを開発しました。姿勢制御、ロッド操作、遠隔制御の各サブシステムを備え、掘削データを自動的に記録します。また、地下のリグと地上のワークステーションを専用ネットワークで結ぶ遠隔データ処理プラットフォームにより、大規模なデータのリアルタイム解析を可能にしました。

前処理:
高速データ検索: 掘削ステータスを14のコード(掘削、ロッド接続など)に分類し、膨大なデータから有効な掘削情報を即座に抽出します。
摩擦検知と補正: ドリルストリングの座屈(バックリング)安定性解析を行い、座屈が起きない条件下でビットが岩石を破壊していない時の負荷を計測して、摩擦抵抗を自動検知します。
データクリーニング: 部品の起動・停止時に発生する「衝撃」などの無効な信号をフィルタリングして除外します。

機械学習手法: 複数のアルゴリズムを組み合わせる「ソフト投票型アンサンブル学習」を採用しました。個別の識別器として、SVM(Quadraticカーネル)、決定木(Medium Tree)、KNN(Fine KNN)、ニューラルネットワーク(Bilayered NN)の4つを統合し、それぞれの予測確率の重み付き平均から最終的な結果を出力します。

説明変数(入力パラメータ): 補正後の推力(Thrust)、トルク(Torque)、および貫入速度(ROP)、回転数(RPM)の4種類を使用します。

目的変数: 石炭 or 岩石(2値分類)

識別結果の継続性を分析(10セットごとのデータ群で判定)することで、さらに精度を高める手法を導入しています。

3. 結果
識別精度: アンサンブル学習モデルは、テストデータに対して98.79%という極めて高い岩相識別精度を達成しました。
掘削効率の向上: 識別された岩相に合わせて掘削パラメータ(回転数や推力)を最適化した結果、従来のシステムと比較して純掘削効率が18.12%向上しました。
省人化: 従来3人で行っていた作業を1人に削減できる可能性を示し、コスト削減と安全性の向上に寄与しました。

4. 考察
本研究の鍵は、ドリルストリングの摩擦をリアルタイムで検知し、掘削データを補正したことにあります。これにより、地層情報とパラメータの相関性が大幅に強化されました。また、地上と地下をシームレスに結ぶデータプラットフォームが実用性を支えています。
 一方で、課題も残されています。現在のモデルは単一のデータソースに基づいているため、地質条件が大きく異なる地域への適用には限界があります。今後は、掘り屑の画像や掘削振動など、複数の情報を統合した「マルチソース情報」による学習を行うことで、汎用性と精度のさらなる向上が期待されています。

TBM, ドリルジャンボなどと同様に、ノンコアボーリングでもトルクや速度をロギング可能であれば、このような使い方ができるのでしょう。地質を知りたい場合はボアホールカメラを後で挿入すれば良いだけです(実際、数m~10mピッチでノンコアボーリングを実施し、ボアホールカメラから柱状図を作成した経験があります)。ボーリングの数を必要とする場合には、有効な手段でしょう。

機械学習よりも掘削機の方が主要な成果です。既にデータさえあれば分析ができる環境が整っていますので、あとは良いデータを集めるだけですから。


文献:Automated geotechnical logging of core box images using machine learning

Automated geotechnical logging of core box images using machine learning: CIM Journal: Vol 16 , No 1 - Get Access

AI要約

背景
地質工学的な不確実性を低減するためには、信頼性の高いデータの量を増やすことが不可欠です。しかし、初期段階のプロジェクトでは、高品質な地質工学用ボアホールの数は限られており、大部分を占める探査用ドリルのデータは品質が不安定なRock Quality Designation (RQD)などに限定されています。また、探査用の実物コアは、分析のために分割されたり、経年劣化や廃棄によって利用できなくなることが多く、コア写真のみが唯一の信頼できる情報源となることが多々あります。従来のコア写真の再ロギングは、時間がかかるだけでなく、ロガー(記録者)の主観やバイアスに影響されやすいという課題がありました。これらの課題を解決し、大量の既存コア写真を客観的かつ効率的にデータ化するため、機械学習を用いたワークフローが開発されました。

手法
機械学習手法: ディープラーニングの一種であるMask_RCNN(畳み込みニューラルネットワーク)が使用されています。これは、画素を自動的に分類・グループ化して特徴マップを作成し、分類を行うモデルです。

前処理:50〜100枚程度のコア画像に対し、各カテゴリーを表すセグメントをポリゴンで囲んでラベル付けを行います。データセットはトレーニングセットと検証セットに分割され、モデルの評価と調整が行われます。
コアの列を特定し、画像を直線化(リニアライズ)して深度を参照するための別のモデルも利用します。

説明変数(入力データ): コア箱のカラー写真です。一貫した照明と色バランスで撮影された写真が、トレーニングに適しています。

目的変数(分類指標): 以下の3つのシステムが開発されました。
Core Damage Index (CDI): コア径に対する砕屑物の平均サイズに基づき、岩盤の状態を5つのカテゴリーに分類します。

  • クラス1: 砕屑物のサイズがコア径の2倍より大きい(> 2x)。従来のRQD(岩質指標)に相当する良好な状態です。
  • クラス2: 砕屑物のサイズがコア径の1〜2倍(1 - 2x)。SCR(固体コア採取率)に相当します。
  • クラス3: 砕屑物のサイズがコア径の0.5〜1倍(0.5 - 1x)。
  • クラス4: 砕屑物のサイズがコア径の0.25〜0.5倍(0.25 - 0.5x)。
  • クラス5: 砕屑物のサイズがコア径の0.25倍未満(< 0.25x)。これには角礫(breccia)、砂、ガウジ(gouge)などが含まれます

Pseudo-RQD(擬似RQD): コア画像上の割れ目と破砕帯(ラブルゾーン)をマッピングして計算されます。自然な不連続面(割れ目)と掘削時などの機械的な破壊を区別しないため、従来のRQDと区別するために「Pseudo」と呼ばれています。
Break Frequency(割れ目頻度): Pseudo-RQDと同様に、割れ目の数から推定されます。

ポストプロセッシング: 5cm未満の間隔のフィルタリング、同じクラスの連続する間隔の結合などのクレンジング処理を経て、以下を表形式でエクスポートします。

  • ホール名(ボアホールID)
  • 開始深度・終了深度(インターバル)
  • 割り当てられたクラス(CDIクラスなど)
  • 該当するコア写真への参照

Leapfrog Geoなどのソフトウェアにこれらのデータをインポートすることで、以下のような高度なモデリングが可能になります。

  • 地質工学ドメインモデルの構築: 抽出されたCDI(コア損傷指数)やPseudo-RQDデータを、地質、構造、岩盤、水理地質の各コンポーネントモデルを構築するためのインプットとして使用します。
  • 断層帯の詳細なモデリング: CDIは5cm単位という非常に高い解像度でデータを生成できるため、断層の核(コア)と損傷帯(ダメージゾーン)を明確に区別し、断層の幅を正確に3D空間で評価できます。
  • 岩盤の変動性の可視化: 従来の1.5m間隔のRQDでは捉えきれなかった岩盤内の細かな品質変化を、3D空間上で連続的に表現できるようになります。

結果
高解像度なデータの取得: CDIを用いることで、従来の1.5m間隔のRQDロギングと比較して4倍以上の高解像度で地質工学的特徴を捉えることが可能になりました。

客観性の確保: ロガーの主観を排除し、砕屑物サイズという客観的な基準で分類することで、一貫したデータセットを構築できました。

損傷の識別: 掘削時の機械的な損傷と、断層核や断層損傷帯のような地質学的な損傷を区別しやすくなり、構造モデリングや水理地質モデリングに貢献するデータが得られました。

考察
客観性の重要性: 機械学習は、主観的な入力が増えるほど、信頼性を維持するために必要な学習データ量が指数関数的に増加します。そのため、RQDのような主観的な判断(自然な割れ目か機械的な破壊かの区別など)を伴う指標は、自動化には不向きであると指摘されています。

デジタル化の限界: コア写真からは岩石の強度や、画像に現れない微細な割れ目の表面状態などを特定することはできません。したがって、この自動ロギングは経験豊富な技術者による詳細なロギングを完全に置き換えるものではなく、既存の膨大なデータを補完するためのツールとして位置づけられます。

モデルの汎用性: 特定の堆積物や条件に過剰適合(オーバーフィッティング)することを避けるため、分類システムを一般化し、客観的な基準(コア径に対する砕屑物サイズなど)を採用することが、信頼性の高いMLモデル構築の鍵となります。

まず思ったのは、オペレータさんによってコアの品質が異なるため、実務に適用するには壁があるだろうな、という点でした。毎回腕の良い、費用の高いオペさんに掘ってもらうことはできないのでしょう。時々、ボロボロのコアに出会うことがありました。
品質を保ちつつ利益を出すというのは企業にとって当たり前のことですが、担当者レベルになるとExecutivesからの圧力もあり、利益が優先される場合があります。これに盾突いて品質を優先する技術者は(程度にもよりますが)、まず民間企業では偉くなれません。結果、利益や株主優先の企業が出てくるのでしょう。

3次元モデラーに入力できるようにしている点は、さすがです。疑似RQDなど、やや品質が落ちたとしても、多数の孔のデータを自動マッピングできるのは基図としてはありがたいと思います。AIに解釈させた結果を提示させるのではなく、画像上の客観的事実のみをAIにより高解像度で提示させたら、後は技術者の仕事です。おかしな点は技術者がログをまとめるなり、モデリングするなりの過程で気づくと思います。

多くのボーリングを整理する必要に迫られた場合、なかなか有向かもしれません。

2026年3月22日日曜日

文献:Machine learning for drill core image analysis

Machine learning for drill core image analysis: A review - ScienceDirect

AI要約

1. はじめに:鉱物探査におけるドリルコアの重要性と機械学習の台頭
世界的な原材料需要の増加、特に再生可能エネルギーへの移行に伴う戦略的原材料の確保が急務となる中、鉱物探査プロセスの効率化が求められています。ドリルコアは、地下の地質状態を物理的に保存した最も直接的な記録であり、その解析(ロギング)は探査の根幹をなします。
近年、このドリルコア写真をデジタルデータとして機械学習(ML)で解析する試みが急速に進化しています。ドリルコア写真は、低コストかつ迅速に撮影可能で、岩相、変質、鉱物、層序、地盤工学的特徴といった多様な視覚的指標を保存しているため、MLの入力データとして非常に魅力的です。

2. 機械学習が取り組む3つの主要な地質学的タスク

① 岩相予測(Lithology Prediction)
岩石の種類(砂岩、大理石、玄武岩など)を分類するタスクで、最も研究が進んでいます。
手法と精度: 畳み込みニューラルネットワーク(CNN)が主流であり、ResNetやGoogLeNetなどのアーキテクチャを用いた研究では、90%から96.7%という極めて高い正解率が報告されています。
技術的アプローチ: 多くの場合、ImageNetで学習済みのモデルをドリルコアデータで微調整する「転移学習」が用いられます。
課題: 砂岩と石灰岩のように視覚的に酷似した岩石の判別には限界があり、人間による化学テスト(塩酸反応など)を代替するには至っていません。

② 地盤工学的解析(RQD/FS推定)
岩盤の品質指標(RQD)や亀裂間隔(FS)を推定するタスクです。
成果: モデルによる推定誤差は手動測定に対して±2.5〜3%以内に収まり、処理速度は人間の約1800倍に達する可能性があるとされています。
汎用性: 亀裂や破砕帯といった構造的特徴は、岩石の種類よりも普遍的なパターンを持つため、最も自動化や汎用化に適した領域と考えられています。

③ 鉱物予測(Mineralogical Prediction)
画像テクスチャ(質感)から特定の鉱物の含有量や品位を推定します。
手法: 従来のテクスチャ記述子(LBPやGLCMなど)を用いる手法と、CNNを用いる手法があります。
複雑性: 鉱物学的性質は微視的なスケールで決定されることが多いため、画像というマクロな視覚情報から推測するこのタスクは、3つの中で最も抽象度が高く困難です。

3. 技術的・実務的な主要課題と議論
研究レベルでの高精度とは裏腹に、実務への完全導入にはいくつかの大きな壁が存在します。

汎用化の壁(Generalization): ある現場で学習したモデルを別の現場や地域に適用すると、精度が著しく低下します。これは、同じ岩相でも地域によって見え方が異なるためです。
データの一貫性と主観性: 地質学者が作成する「正解ラベル」自体に主観が含まれており、専門家間でのラベル不一致(label non-agreement)がモデルの学習を阻害しています。
データの不均衡: 自然界では特定の岩相や希少鉱物は少なく、データが偏っているため、稀なケースをAIが学習しにくいという本質的な問題があります。
スケールの不一致: AIが数ミリ単位で予測を行うのに対し、地質学的な解釈はメートル単位の連続性を重視します。このギャップを埋めるための「予測結果の平滑化(smoothing)」などの後処理が重要視されています。

4. 将来展望:自動化から「コンテキスト認識型アシスタント」へ
ヒューマン・イン・ザ・ループ(HITL): AIが予測を行い、不確実な箇所のみを人間が修正し、その結果をAIが再学習する「地質学者・イン・ザ・ループ」のサイクルが提案されています。これにより、現場固有の文脈(コンテキスト)を効率的にモデルに教え込むことができます。
コンテキスト認識: 空間的な地質モデルや層序学的な知識をMLの制約条件として統合することで、「古い岩石の上に若い岩石があるのは不自然」といった地質学的妥当性を持った予測が可能になります。
ベンチマークの必要性: 異なるモデルを公平に比較するため、多様な地質環境を網羅した「標準的なデータセット群(ベンチマーク・スイート)」の構築が提案されています。

結論として、機械学習は地質学者の仕事を奪うものではなく、解釈の矛盾を指摘したり、膨大なルーチンワークを高速化したりする「高度な助手」へと進化していくことが期待されています。

ルレオ工科大学(スウェーデン)の研究者を中心とし、スウェーデンの大手鉱業企業であるBoliden Mines の実務家が加わった、学術界と産業界の多角的な専門家チームによって執筆されています。レビューなので新たな知見や目新しい手法がないのは仕方ありませんが、それでもHITLの方針はやや残念。いえ、私も(手を抜いて)失敗しましたし、現状では納得なのですが、この壁を破る必要があります。ま、要素ごとに解決して組み合わせる、いずれ丸っとログを吐かせるなどの手法は時間の問題でしょう。
https://phreeqc.blogspot.com/2025/04/blog-post.html

さらに、TBMのようにボーリングマシンでもデータをとれるような仕組みを考え、そのデータを柱状図作成用の機械学習モデルに取り込み、3次元地質モデルを推定させる段階までは、近い将来可能でしょう。要素技術としては既に存在するため、難しくはないと思います。

国内ではこのようなコアに対する機械学習モデルやデータセットを公開しようといった動きを聞きませんし、機械学習自体を使えない技術者たちが Executives になりつつあるため、当面は遅れたままでしょう。ビジネスチャンスではあるので、フットワークの軽い企業は文献に紹介されているような要素技術を商品として宣伝を始めるでしょう。そういった企業がやがて地質の機械学習に関する老舗となり、時代が追い付いた段階でに優位に立てるのかもしれません。


2026年3月21日土曜日

文献:Automated classification of drill core photographs

Automated classification of drill core photographs: A complete workflow for weakly supervised training - ScienceDirect

AI要約

1. 背景
鉱物探査において、地質学者がコアを視覚的に検査することは伝統的な手法ですが、分類が部分的で主観的になりやすく、専門家によって結果が異なるという課題があります。近年、深層学習(CNNなど)を用いた自動予測が注目されていますが、学習に必要な大量のラベル付きデータを作成するには多大な時間と労力が必要です。本研究は、最小限のラベル付けで効率的に岩石を分類できる完全なワークフローを構築することを目的としています。

2. 手法
本手法は、以下の5つの手順で構成されています。

前処理 (Preprocessing)
レンズ歪み補正: 広角レンズによる「樽型歪み」を補正し、その後の直線検出の精度を高めます。
コア箱の分離: 木製のコア箱から岩石コア部分を分離するため、Cannyエッジ検出やモルフォロジー演算(膨張、収縮、オープニングなど)を用います。
細分化 (Slicing): 分離されたコア画像を、解析に適した標準的なサイズ(300×60ピクセル、実寸約18cm長)に分割します。

機械学習手法

自己組織化マップ(SOM)によるクラスタリングとラベル付け
SOMは、高次元のデータを視覚的に理解しやすい低次元(通常は2次元)の格子状マップに変換する「トポロジー保持型」の無向ニューラルネットワークです。
仕組みと構造: 抽出された96個の特徴量(色記述子48個、テクスチャ記述子48個)を入力として使用します。これを10×10(合計100個)のニューロン格子に投影します。
トポロジーの保存: 色や質感が似ている画像は、マップ上でも物理的に近いユニットに配置されます。この性質により、数万枚の画像を1枚ずつ確認するのではなく、似た画像が集まった「クラスター」ごとに効率よく処理できます。
効率的なラベル付け: 地質学者は各ノードから代表的な画像(例:各ノードからランダムに選ばれた5枚)を確認し、そのクラスター全体に対して「漂白」や「片麻岩」といった地質学的なラベルを割り当てます。これにより、数時間という短時間で、数千から数万枚規模の学習用データセットを作成することが可能になります。

深層学習モデル:ベースラインとVGG16
ベースラインモデル (Baseline Model):
本データセットに合わせて開発されたシンプルな3層の畳み込みニューラルネットワーク(CNN)です。
構造: 3つの畳み込みブロック(サイズ32, 32, 64の3×3カーネル、ReLU活性化関数)で構成され、各層の後にバッチ正規化とマックスプーリングが適用されます。最後にソフトマックス活性化関数を持つ全結合層が配置されています。
VGG16: ImageNetデータセットで事前学習された、13層の畳み込み層と5層のマックスプーリング層を持つ非常に深く複雑なアーキテクチャです。
手法: 転移学習(Transfer Learning)のアプローチを採用し、最後の全結合層のみを今回の岩石データで訓練しました。
比較の結果: いずれの地質ドメインにおいても、複雑なVGG16よりもシンプルなベースラインモデルの方が高い精度を示しました。

半教師あり学習(Mean Teacher)
ラベル付きデータが不足している場合に、ラベルのない大量の画像を有効活用して学習の安定性と精度を高める手法です。
「生徒」と「教師」の2モデル構造: 同じ構造を持つ「生徒(Student)」モデルと「教師(Teacher)」モデルを使用します。
一貫性コスト (Consistency Cost): 同じ画像に対して、それぞれ異なるランダムなノイズ(輝度変化や反転など)を加えて両方のモデルに入力します。「滑らかさの仮定(Smoothness Assumption)」に基づき、小さな摂動(ノイズ)を加えても予測結果は変わらないはずであるため、2つのモデルの予測結果の距離(平均二乗誤差:MSE)を一貫性損失として計算し、これを最小化するように学習します。
重みの更新: 生徒モデルは通常の学習(損失関数の最小化)を行いますが、教師モデルの重みは、生徒モデルの過去の重みを指数移動平均(EMA)で反映させることで、より安定した「smoothed(平滑化された)」モデルとして機能します。
利点: 特にサンプル数が極端に少ないクラス(例:ダイアテクサイト)や、複雑な結晶質岩(基盤岩)の分類において、精度の向上に寄与しました。

説明変数 (Explanatory Variables / Features)
色情報: 3Dカラーヒストグラム(RGB空間)から抽出した512個の記述子を、主成分分析(PCA)で48個に圧縮して使用します。
テクスチャ情報: ガボールフィルタ(Gabor filters)を用いて、24通りの畳み込み演算から平均と標準偏差を算出し、計48個の特徴量を取得します。

目的変数 (Objective Variables / Target)
地質学的ドメインごとに以下のクラスを設定しています。
盆地(堆積岩): 漂白(Bleached)、部分除去(Partial removal)、ヘマタイト化(Hematized)、非コア(Non-core)。
基盤岩(結晶質岩): 片麻岩(Gneiss)、メタテキサイト(Metatexite)、ダイアテクサイト(Diatexite)、ペグマタイト(Pegmatite)、非コア。

評価関数 (Evaluation Function)
教師あり学習: カテゴリカル・クロスエントロピーを損失関数として使用します。
半教師あり学習: 教師あり損失(クロスエントロピー)と、教師モデルと生徒モデルの予測の一致度を示す「一貫性損失(MSE:平均二乗誤差)」の合計を最小化します。

3. 結果
盆地サブセット: ベースラインモデルを用いた教師あり学習で、0.932という最も高い分類精度を達成しました。
基盤岩サブセット: 半教師あり学習(Mean Teacher)を採用したベースラインモデルが0.751の精度で最高の結果となりました。
いずれのケースにおいても、複雑なVGG16よりシンプルなベースラインモデルの方が高い精度を示しました。

4. 考察
精度の差: 基盤岩の精度が盆地より低いのは、岩相の複雑さ、特定のクラス(ダイアテクサイト)のサンプル不足(40サンプル)、および変成度の変化が連続的でクラス間の境界が曖昧であるためです。
バイアスの軽減: SOMを用いたクラスタリングにより、地質学者の主観による「オペレーター・バイアス」を一貫したアルゴリズムで補完し、再現性の高い分類が可能になります。

今後の展望: 照明条件の統一や、Segment Anything Model (SAM)のような高度な画像分割手法を導入することで、さらなる精度の向上が期待されます。

まだコアを分けるという段階で、柱状図を作ることはできません。ラベリングの手間をなくすためにクラスタリングを利用するという主張はよく見ますが、経験的には正確ではない場合が多くあります。いずれも発展途中なのでしょうが、いずれ解決すると思います。


文献:Direct inversion of surface wave dispersion

Direct inversion of surface wave dispersion for three-dimensional shallow crustal structure based on ray tracing: methodology and application | Geophysical Journal International | Oxford Academic

AI要約

背景
表面波トモグラフィーは、地球の地殻や上部マントルの構造を研究する上で重要な役割を果たしてきました。従来の一般的な手法は、まず観測された走時データから2次元の位相速度(または群速度)マップを作成し、次に各地点の分散データのインバージョンにより1次元の横波(S波)速度プロファイルを求めるという、2段階のプロセスを踏みます。しかし、この手法や従来の直接反転法では、多くの場合、大圏コース(Great Circle)伝播を仮定しており、複雑な構造を持つ地殻浅部などでは、波の伝播経路の歪みが無視できず、推定結果にバイアスが生じる可能性がありました。一方で、波形全体を用いるフルウェーブフォームインバージョン(FWI)やアジョイントトモグラフィーは高精度ですが、特に高周波数帯域において計算コストが非常に高いという課題があります。

手法
本論文で提案された手法は、中間的な速度マップを作成せず、分散データから直接3次元のS波速度構造を求める単一ステップのインバージョン法です。主な特徴は以下の通りです。

Fast Marching Method( FMM) によるレイトレーシング: 各周期において、FMMを用いて震源・受信点間の走時と波の伝播経路を計算します。これにより、不均質メディアにおける大圏コースからの経路の逸脱を考慮することが可能になります。

反復的な更新: 反転プロセスにおいて、新しく得られた3次元速度モデルに基づいて、波の経路とデータ感度行列(カーネル)を逐次更新します。

ウェーブレット基底を用いた疎性制約付き反転: モデルパラメータをウェーブレット領域で表現します。ウェーブレット変換の多重解像度特性を利用し、データ制約が強い地域では高解像度を、制約が弱い地域では長波長の特徴を保持するようにします。

L1ノルム正則化: ウェーブレット係数がまばら(スパース)であると仮定し、L1 ノルム正則化を適用します。これにより、従来の滑らかさを強制する正則化よりも、データの分布に適合した適応的な解像度が得られます。

計算アルゴリズム: L1ノルムベースの最小化問題を解くために、反復再重合最小二乗法(Iteratively Reweighted Least Squares: IRLS)とLSQRアルゴリズムを組み合わせて使用しています。

物性間の関係: P波速度(α)と密度(ρ)は、地殻に関する経験的な関係式(Brocher, 2005)を用いてS波速度(β)に関連付けられており、これらによる分散への影響も感度行列に含まれています。

結果
台湾の台北盆地における、環境ノイズ相関法から抽出された短周期(0.5〜3.0秒)のレイリー波位相速度データにこの手法を適用しました。

計算の収束: 反復的な反転により、走時残差の標準偏差は1.44秒から0.91秒に減少し、残差の平均はほぼゼロになりました。

速度構造の解明: 盆地内の低速度域と山地(大屯火山群など)の高速度域が明瞭に描き出されました。これらの結果は地表の地質構造と良好に一致しています。

従来手法との比較: 従来の2段階反転法の結果と概ね一致しましたが、データ網羅性が低い地域では、本手法の方がアーティファクトが少なく、より安定した結果が得られました。

解像度テスト: チェッカーボードテストにより、データ制約が良い地域では水平・垂直方向に高い解像度を持つことが確認されました。

考察
提案手法は、計算効率と精度のバランスに優れており、特に構造が複雑な地殻浅部の調査に有効です。

利点: 2次元速度マップの構築が不要であり、3次元参照モデルの組み込みが容易です。また、ウェーブレット基底の採用により、データの密度に応じてモデルの細かさが自動的に調整されます。

限界と仮定: 現状では高周波近似(レイ理論)に基づいており、滑らかな不均質構造を想定しています。

今後の展望: 有限頻度効果(Finite-frequency effects)を取り入れた感度カーネルの導入や、実体波(P波・S波)の走時データとの共同反転(Joint Inversion)への拡張が期待されます。これにより、地殻浅部におけるP波・S波両方の速度構造をより正確に制約できる可能性があります。

こちらも、数式を追うのに時間がかかりました。パスを計算する点や、1次元のインバージョンを介さないという点が新鮮です。



2026年3月18日水曜日

文献:3D Wave‐Equation Dispersion Inversion of Distributed Acoustic Sensing Data


AI要約
3D波動方程式分散インバージョン(3D-DAS-WD)法の解析手順
3D-DAS-WD法は、DASひずみデータに直接基づく3D波動方程式分散インバージョン手法であり、ひずみ成分を速度に変換する際の数値誤差を回避し、低SNR(信号対雑音比)のDASデータにおけるFull Waveform Inversion(FWI)の収束問題に対処することを目的としています。この手法は、浅い地表付近の地質構造を高分解能で3Dイメージングする能力を示しており、地下の空洞などの特徴を効果的に特定できます。

1. DASの基本原理とデータ取得
• DASの測定原理: 従来の地震計が粒子速度を測定するのに対し、DASは光ファイバーのゲージ長に沿ったひずみ速度を測定します。

2. 初期S波速度モデルの作成
• 解析の出発点として、初期S波速度モデルを準備します。このモデルは、反復的なインバージョンプロセスを通じて改善されていきます。

3. 予測ひずみ速度DASデータの順モデリング
• 作成した初期S波速度モデルを用いて、forward modeling を実行し、予測されるひずみ速度DASデータを生成します。この研究では、スペクトル要素法に基づく弾性モデリングコードSPECFEM3Dが使用されています。
• 計算される速度成分は、式(14)および(15)を使ってDASひずみ速度成分に変換されます。

4. 観測データと予測データの分散曲線の導出
• MASW として分散曲線を作成します。
• 分散曲線は、linear Radon transform を用いて計算された分散スペクトルの最大値に基づいて抽出されます。
• この研究では、各ショットから10度間隔で分散曲線が抽出されます。

5. 目的関数の定義と勾配の計算
• 目的関数(Objective Function): 3D-DAS-WD法は、観測された波数κobs (θ,ω)と予測されたDASデータ表面波分散曲線κ(θ,ω)の二乗差の合計を最小化します。目的関数Jは以下のように定義されます: 
J = (1/2) ∑θ ∑ω (κ(θ,ω) − κobs (θ,ω))^2
ここで、θは方位角、ωは周波数です。

• S波速度に対する勾配: S波速度s(x)に対する目的関数の勾配δ(x)は、以下の式で計算されます: 
δ(x) = ∂J / ∂s(x) = ∑θ ∑ω Δκ(θ,ω) (∂κ(θ,ω) / ∂s(x))

• Fréchet 微分の導出: Fréchet 微分 (∂κ(θ,ω) / ∂s(x)) は、予測データと観測データのk-ω領域における相関を示す接続関数(connection function)Φを用いて導出されます。これは、随伴状態法(adjoint state method)を使用して計算されます。最終的にS波速度 s を λ (ラメの第一定数) と μ (剛性率) に関連付けることで、Fréchet 微分が導出されます
∂κ(θ,ω) / ∂s(x)
 = − (1/A) R{∫ ∂D(g,ω)/∂s(x) D̂*obs(g,θ,ω) dg} 
 = − (1/A) R{∫⟨GR ∂u(g,ω)/∂s(x), D̂obs(g,θ,ω)⟩ dg}
= − 4ρs (∂κ(m) / ∂λ) + 2ρs (∂κ(m) / ∂μ) 

・∂κ(m) / ∂λ、∂κ(m) / ∂μは、 波場u(m)(合成地震計データ)とバックプロパゲーションされた残差u'(D̂∗obs(g,θ,ω)をソースとする)の内積の積分として表される。

6. 速度モデルの更新
• ステップ長の決定: safeguarded backtracking line search method を用いて、モデル更新のためのステップ長αが決定されます。
• モデルの反復更新: S波速度モデルは、計算された勾配とステップ長αを用いて、steepest-descent formula により反復的に更新されます。 ここで、

7. 収束判定と最終S波速度モデルの出力
• ステップ3から6のプロセスは、目的関数が指定された誤差閾値以下になるか、または最大反復回数に達するまで繰り返されます。
• 収束条件が満たされた後、最終的なS波速度インバージョンモデルが出力されます。

さすがにAI要約のみでは理解できず、数式を追うのに時間がかかりました。
DAS(1軸センサー)を利用して、どのようにレイリー波を取り出すか、取り出した後、どのようにインバージョンをかけると精度が落ちにくいか、という内容でした。地震分野の知識の蓄積を感じる文献です。
3次元解析を目的としてファイバーをクロスで張るなら、通常のピックを使った方が楽なように感じましたが。ま、一つの方法として覚えておきましょう。

2026年3月10日火曜日

文献:Classification of Stream Hyperconcentrated and Debris Flow

Classification of Stream, Hyperconcentrated, and Debris Flow Using Dimensional Analysis and Machine Learning - Du - 2023 - Water Resources Research - Wiley Online Library

AI要約

1. 背景
山岳地帯における極端な降雨は、土石流、高濃度流、常流といった激しい土砂流動を引き起こし、人命やインフラに深刻な脅威を与えます。しかし、これらの流動メカニズムの理解は、包括的な現場データの不足により不完全な状態にありました。従来の分類基準は主に体積堆積物濃度(Cs )に基づいていましたが、研究者によってその閾値が異なり、物理的な流動特性を必ずしも正確に反映していないという課題がありました。そのため、測定可能な水理・地形学的パラメータを用いた、より普遍的で客観的な分類手法の確立が求められていました。

2. 手法
本研究では、現場観測データと機械学習を組み合わせた物理的根拠に基づく分類フレームワークが採用されています。

前処理(無次元解析): 異なる地質や地形条件を持つサイト間のデータを比較可能にするため、観測データを無次元化しました。粒子衝突、流体粘性、乱流応力などの相対的重要性を評価するため、アインシュタイン数(無次元土砂流量)、サベージ数、バグノルド数など、計11個の無次元パラメータが算出されました。

機械学習手法: 分類アルゴリズムとしてサポートベクターマシン(SVM)が使用されました。特に、対数空間での境界を定義するために、べき乗則(パワーロー)カーネル関数に相当する対数変換を用いた非線形検索アルゴリズムが採用されています。

説明変数: 流動動態を最も効果的に反映する変数として、無次元流量(q∗  )とアインシュタイン数(無次元土砂流量、qs,∗  )の2つが選択されました。

1) データの収集源
現場観測データ: 中国の蒋家溝(Jiangjia Ravine)で1960年から2014年にかけて記録された5,085件の土石流データ、および小江(Xiaojiang River)で2009年から2010年に観測された34件の常流データが使用されました。

文献データ: アジア、アメリカ、ヨーロッパ、オセアニアの41の流域から、高濃度流および常流に関する1,035件のデータが収集されました。

2) 正解ラベル(流動タイプの分類)の付与
機械学習(SVM)の学習に不可欠な「どの流動タイプか」というラベル付けは、元の観測記録や文献における専門家の知見および現場観察の結果に基づいています。本研究では、それらの既存の分類が正確であると仮定して教師データとして採用しています。

3) 特徴量の作成(無次元化処理)
収集された生の観測データ(流速、水深、川幅、勾配、粒径など)をそのまま使うのではなく、異なる地形や地質条件でも普遍的に扱えるよう、11種類の無次元パラメータへと変換されました。

4) データの活用と検証
作成されたデータセットを用いてSVMによる境界の画定が行われました。なお、ラハール(火山泥流)のデータに関しては、SVMの境界作成(学習)には使用せず、得られたモデルの妥当性を確認するための検証用データとして独立して扱われています。

目的変数: 土石流(Debris flow)、高濃度流(Hyperconcentrated flow)、常流(Stream flow)の3つです。

3. 結果
境界の定義: q∗ とqs,∗ のフェーズダイアグラムにおいて、SVMにより各流動タイプを分ける2つのべき乗則境界(上部境界UBと下部境界LB)が導き出されました。

上部境界(Upper Boundary, UB)
分類: 土石流(Debris flow)と高濃度流(Hyperconcentrated flow)を区分します。この境界より上の領域では、粒子同士の衝突応力が流動動態を支配する土石流となります。
qs,∗ =0.12q∗^1.05
精度: 真陽性率(TPrate)0.999、F1スコア0.999と、極めて高い精度で土石流を識別可能です。

下部境界(Lower Boundary, LB)分類: 高濃度流(Hyperconcentrated flow)と常流(Stream flow)を区分します。この境界より下の領域は、土砂が主に水相の剪断力や乱流によって支持・輸送される「流体支配型」の流動(常流)となります。
qs,∗ =0.07q∗^0.96
精度: 真陽性率(TPrate)0.915、F1スコア0.891であり、上部境界に比べるとわずかに分類の曖昧さが残ります。

ラハールへの適用: 火山性の土砂流動であるラハールにこのフレームワークを適用したところ、ラハールは常流から土石流まで極めて広い範囲の流動動態を示すことが確認されました。

4. 考察
輸送メカニズムの違い: 土石流は主に粒子同士の衝突応力によって制御されるのに対し、高濃度流と常流は流体の粘性剪断や乱流応力によって土砂が支えられていることが物理的に裏付けられました。
堆積物濃度基準の限界: 、従来の堆積物濃度(Cs)のみに基づく基準では動的な流動特性を無視しており、誤解を招く可能性があります。判別が困難だった領域(0.1<Cs<0.4 など)においても、流動特性を反映した明確な分類が可能となりました。
提案された無次元流量-土砂流量スキームは、水理情報をより多く取り込み、輸送メカニズムをより効果的に反映できると結論付けられています。
実用性: このフレームワークは、現場での流量や流速の測定値から即座に流動タイプを判定できるため、砂防ダムの形式選定(土石流用のスリットダムか、洪水用の不透過ダムか)など、適切な防災戦略を立てるための定量的な参考指標となります。

観測値に基づき、無次元の特徴量を作成し、機械学習にかける。Traditional な SVM ですが、解釈性を優先することで上部境界、下部境界を見出すことが可能です。検知だと最適化に陥りがちですが、ドメイン知識を有する研究者らしい機械学習の使い方で、データサイエンスと呼べるのではないでしょうか。





2026年3月9日月曜日

文献:Radar‐Based Deep Learning for Debris Flow Identification

Radar‐Based Deep Learning for Debris Flow Identification Amid the Environmental Disturbances - Liu - 2025 - Geophysical Research Letters - Wiley Online Library

AI要約

1. 背景
土石流は、山岳地帯において甚大な経済的損失や人的被害をもたらす地質災害です。
従来の監視技術には、降雨量しきい値による警戒や、地中音センサー、ビデオ監視などがありますが、これらには課題があります。例えば、小流域における降雨情報の不確実性や、機器の埋没リスク、視界の悪い夜間の監視の難しさが挙げられます。マイクロ波レーダーは、昼夜を問わず全天候型で遠隔監視が可能という利点がありますが、土石流の信号を環境ノイズの中からインテリジェントに識別する手法は十分に研究されていませんでした。本研究は、深層学習モデルとレーダー技術を組み合わせることで、複雑な環境下での土石流識別精度を向上させることを目的としています。

2. 手法
人工実験によるデータ収集: 自然な土石流の観測データが不足しているため、研究チームは中国の甘洛県にある黒西洛溝(Heixiluo Gully)などで計30セットの人工土石流実験を実施しました。
再現方法: 斜面に長さ約9メートル、勾配約15度のチャネルを掘削し、大量の緩い土砂を含む急流を作ることで、土石流の動きを徹底的にシミュレートしました。
制限事項: 実験的な土石流は「スケール効果」などの要因により、現実世界のシナリオと完全に一致させることは難しい。しかし、モニタリングと早期警戒の観点からは、人工的な土石流であってもレーダーのエコー信号を生成できるため、有効なサンプルとして使用しました。

前処理: ビデオ記録とレーダーソフトウェア(Radarexplore)のキャプチャデータに基づき、土石流や落石の移動時間範囲を特定し、異常値を手動でフィルタリングしました。その後、PythonとOpenCVライブラリを用いてビデオフレームを抽出し、各ターゲットにつき3,000個のサンプルを作成しました。深層学習モデルへの入力として、画像は短辺256ピクセルにリサイズされた後、中心部が224×224ピクセルにクロップされ、テンソルの正規化が行われました。

機械学習手法: 12種類の広く利用されている深層学習モデル(VGG16、ResNet18、GoogLeNet、Wide_ResNet50_2など)が採用されました。転移学習の考えに基づき、各モデルの事前学習済みモデルに対して30エポックの訓練が実施されました。さらに、個々のモデルの不確実性を最小限に抑えるため、多数決に基づく投票戦略(Voting Strategy)が導入されました。

説明変数: レーダー信号から変換された2次元のエネルギースペクトラム(画像データ)が説明変数として使用されました。これはドップラー周波数とエコー強度を waterfall graph 形式で可視化したものです。

本研究の waterfall graph:
横軸: 1,024の速度クラス(移動ターゲットのドップラー周波数に対応)。
縦軸: 距離ゲート(range gates)。距離情報を表すために各ゲートが積み重ねられています。
色(スケール): エコー信号の強度(信号の強さ)。
約3 Hzの頻度で出力されます。
グラフの各水平ラインは特定の時間ステップにおけるドップラー演算結果(ドップラースペクトル)に対応しています。距離ゲート(距離ごとの区切り)を垂直方向に積み重ねることで、「どの距離で、どの程度の速度の物体が、どれくらいの強さで存在するか」を一枚の画像に可視化しているため、これを waterfall graph やエネルギースペクトラムと呼んでいます。

目的変数: 以下の8つのターゲットカテゴリです:(A)水流、(B)土石流、(C)タルチョ(祈祷旗)、(D)自然の谷、(E)車両、(F)落石、(G)植生、(H)動物(ヤク)。

3. 結果
実験の結果、すべてのモデルにおいてマルチオブジェクト分類に対する高い能力が示されました。
分類精度: 個別のモデルでは Wide_ResNet50_2が最高の精度95.46%を達成しました。GoogLeNetやResNet18も95%を超える高い精度を示しました。
土石流の識別: 土石流の識別においては、VGG16が非常に優れた性能を発揮し、高い適合率と低い誤報率(false alarm rate)を記録しました。
投票戦略の効果: 投票戦略を用いることで、個々のモデルよりも信頼性が向上し、特に土石流や落石の誤検知率をさらに低減させることができました。

4. 考察
本研究は、レーダー技術と深層学習、特に豊富な実地データを組み合わせることが、土石流などの自然災害の監視と早期警戒において重要な進歩であることを示唆しています。従来の統計的な手法から、データ駆動型のモデルへの移行が有効であることが証明されました。 一方で、本研究にはいくつかの制限事項も指摘されています。まず、土石流と落石のデータは主に現地での人工的な実験によって収集されたものであり、実世界の規模(スケール効果)とは異なる可能性がある点です。また、レーダー信号を用いた土石流の移動メカニズムの解明には、さらなる詳細な実験と分析が必要であるとしています。総じて、本手法は複雑な山岳地帯における災害監視能力を大幅に強化する可能性を秘めています。

地上レーダーは高価なので、なかなか検知には利用できません。安価なレーダーは距離が不足。これも時間が解決すると思いますが。
LiDARよりも雨に左右され難いので、いずれテストを通過して検知に使われるようになるでしょう。


文献:Deep-Learning-Based Object Detection and Tracking of Debris Flows in 3-D Through LiDAR-Camera Fusion

Deep-Learning-Based Object Detection and Tracking of Debris Flows in 3-D Through LiDAR-Camera Fusion | IEEE Journals & Magazine | IEEE Xplore

 AI要約

背景
土石流は水と堆積物の混合物であり、山岳地帯で年間平均1,275人の死者を出す深刻な自然災害です。土石流の内部構造やエネルギー消散などの挙動を理解するには、流体中の個々の物体(巨石、流木、段波など)の動態を詳細に分析することが不可欠です。しかし、最新のセンサー(LiDARやビデオカメラ)は1イベントあたり約1TBもの膨大なデータを生成するため、手動での識別や追跡は極めて困難であり、リアルタイム監視や大規模データ解析のための自動化手法が強く求められていました。

手法
スイスのイルグラーベン(Illgraben)観測所にてデータを収集。画像データに対し、Label Studio(オープンソースのラベリングプラットフォーム)を使用し、専門家の監修のもとでバウンディングボックスを付与しました。

機械学習手法:
物体検出アルゴリズムとしてYOLOv5およびYOLOv8(特に複雑度の高いxバージョン)を採用しました。フレーム間の個体追跡(トラッキング)にはSORTアルゴリズムを使用しました。

説明変数:ビデオカメラ(AXIS P1448-LE)からの2次元光学画像、およびLiDAR(Ouster OS0/OS1)からの3次元点群データです。
目的変数(区分とラベル付けの判断根拠): ドメイン知識を持つ専門家が動画を確認し、物理的特性や進化状態に基づいて以下のクラスに分類・ラベル付けを行いました。

小型特徴物 (Small Features: SF): 速度プロファイルの推定を目的として区分。
巨石 (Boulders): 土石流フロント付近に集まる大きな岩。
転石 (Rolling Boulders): 流体中を転がりながら移動する岩。
流木 (Wood): 水面に浮遊し、表面速度を代表する物体。
段波 (Surge Waves: SW): 波の進化過程を分析するため、動画上の視覚的特徴から以下のように区分。
拡散型 (Diffuse): 前面が滑らかで、砕波(波の崩れ)が見られない波。
砕波型 (Breaking): 波の前面が崩れ、泡立っているような状態の波 。
ハイブリッド型 (Hybrid): 波の中央部は拡散しているが、流路の端(岸付近)で砕波している混合状態の波 。
※誤検出を防ぐため、波が含まれない画像(ネガティブ画像)も学習に含め、土石流の「フロント」を「段波」と誤認しないよう調整されています。

LiDARとビデオカメラを融合させた、土石流の3次元解析パイプライン
1. キャリブレーション(事前準備)
カメラ画像(2D)とLiDAR点群(3D)を数学的に統合するため、ターゲットベースの手法を用います。
剛体変換の算出: チェッカーボードを両方のセンサーで同時に計測し、カメラとLiDARの相対的な位置関係(回転行列と並進行列)を特定します。
歪み補正: 正確な投影を行うため、あらかじめカメラレンズの歪みを補正しておきます。

2. 2次元画像での物体検出とSORTによる追跡
まず、識別能力の高いビデオ画像(2D)側で処理を開始します。
YOLOによる検出: 深層学習モデル(YOLOv5またはv8)を用いて、画像内の巨石、流木、段波をバウンディングボックスで囲みます。
SORTアルゴリズムの役割: 検出された個々の物体に固有IDを付与し、フレーム間での同一性を維持します。これにより、単なる「点」の検出を「連続した軌跡(トラック)」として捉えることが可能になります。また、背景の誤検出は連続して追跡されにくいため、SORTが偽陽性を排除するフィルタとしても機能します。

3. 3次元投影(視錐台の形成)と位置特定
画像上の2D枠を3次元空間へ投影し、LiDAR点群と紐付けます。
視錐台(Frustum): カメラの焦点を頂点とし、2D枠の四隅を通って伸びるピラミッド状の3次元空間を定義し、その内部にある点群のみを抽出します。
高さへの対応: 位置特定にはLiDARが直接計測した3次元座標(x, y, z)を使用します。カメラ単独では「高さがある物体ほど手前に見える」という視差(パララックス)による平面位置の誤認が生じますが、本手法では点群のz座標を直接参照するため、物体の高さや形状が変化しても正確な平面位置を取得できます。

4. 物理量の自動算出
抽出された3次元データから、以下の物理量を10Hzの頻度で算出します。
位置・速度: 物体の代表点(小型特徴物はボックス中心、段波は下辺中点)の移動を時系列で計算し、3次元の速度ベクトルを導き出します。
波の幾何形状: 点群の流路横断方向における2次導関数(曲率)を計算し、値が最大となる場所を波の頂点(Crest)として特定します。この頂点と、事前に計測した河床データとの差分から、正確な波高(Hb)を算出します。

このパイプラインにより、手動計測の300倍以上のデータ量(1イベントあたり約1,000件の軌跡)を自動で取得することが可能となりました。

結果
検出精度: 段波(SW)検出器はmAP 0.9以上、小型特徴物(SF)についてもmAP 0.7以上という優れた性能を達成しました。
データ量の飛躍的向上: 自動追跡により約1,000件の物体軌跡を取得し、これは従来の手動解析の300倍以上に相当します。
労力削減: 異なる地点のデータを活用する「マルチドメイン学習」により、新しい観測地点への適応に必要なラベル付けの労力を75%以上削減できることが示されました。
科学的発見: 段波が物体を加速させる現象を定量化し、また海岸工学を応用して土石流の段波が砕ける閾値(砕波指数)が0.4であることを特定しました。

考察
モデル選定: YOLOv5は精度で僅かに勝りましたが、YOLOv8は検出速度が5倍以上速いため、リアルタイムの早期警戒システムにはYOLOv8が適している可能性があります。
追跡の役割: SORTアルゴリズムによる追跡は、背景の誤検出を排除する強力なフィルタとして機能し、解析の信頼性を高めています。
物理的挙動の解明: 流木が転石よりも速く移動する傾向の観測は、土石流内部に「剪断(深さ方向の速度低下)」が存在することを示唆する重要な知見です。
実用性: このパイプラインにより、1イベントあたり約250時間の作業時間が節約されると推定され、今後の土石流ハザード評価のスケールアップに大きく貢献します。

画像で物体を判別し、LiDARで位置を把握するという、それぞれの長所を組み合わせた手法です。1回の土石流イベントの挙動を1000の物体追跡で明らかにできるようになれば、観測に基づいた新たな理論が生まれるかもしれません。検知とは異なりますが、メカニズムの解明といった方向の研究も大事でしょう。今後が楽しみです。

文献:Deep learning-based debris flow hazard detection and recognition system

Deep learning-based debris flow hazard detection and recognition system: a case study | Scientific Reports

AI要約

背景
土石流は、突発的かつ急速に発生し、甚大な破壊力を持つため、山間部の住民やインフラにとって大きな脅威です。現在、多くの監視技術は雨量、地鳴り、土壌水分量などの自然指標に基づいていますが、センサーの設置や維持管理に多大なコストがかかるという課題があります。一方で、監視カメラは広く普及しているものの、これまでは主に事後確認用の受動的なツールとして利用されており、リアルタイムの早期警戒には活用されてきませんでした。
本研究は、ディープラーニングを用いてビデオ映像から土石流を自動的に検知・認識する能動的なシステムを構築することを目的としています。

手法
本システムは、特徴抽出、検知、認識の3段階で構成されています。

機械学習モデル:
特徴抽出ネットワーク(H-C3D): ビデオ映像から時空間的な特徴を抽出する3D CNNモデルです。土石流災害検知ネットワーク: 5層の全結合層(MLP)で構成され、ビデオの「異常性」を判定します。
土石流災害認識ネットワーク(2D CNN): 検知結果を検証するための画像レベルのCNNです。

説明変数: 監視カメラから得られる16フレーム単位の連続ビデオクリップ、およびH-C3Dによって抽出された4,096次元の特徴ベクトルです。
目的変数: 0から1の範囲の異常スコア、および最終的な判定ラベル(土石流、正常、または誤報)です。

異常スコアの算出(シグモイド関数): 検知ネットワークの最終層にシグモイド活性化関数が用いられており、入力された特徴ベクトルを0から1の範囲の「異常スコア(δ)」に変換します。スコアが1に近いほど、土石流の発生傾向が高いことを示します。
算出された異常スコアに対し、経験的に設定された閾値(θ = 0.6)が適用されます。スコアが0.6を超えた場合(δ > 0.6)、システムは「異常(Abnormal)」と判断し、初期検知を行います。
2D CNNによる検証プロセス: 「異常」と検知されたセグメントは、次に土石流災害認識ネットワーク(2D CNN)0.5を超えれば最終的に「土石流(Debris flow)」、そうでなければ「誤報(False alarm)」と識別します。この流れにより、ノイズによる高い異常スコアを誤報として排除することが可能になります。

結果
独自データセット「Debrisflow23」を用いた評価の結果、以下の高い性能が示されました。
検知・認識精度: 検知精度は86.3% AUC、認識精度は83.7% AUCを達成し、システム全体の最終的な識別精度は88.1% AUCに達しました。
リアルタイム性能: 処理速度は68 FPSを記録しており、実用的な早期警戒システムとして十分な速度を備えていることが証明されました。

考察
ビデオレベルの動的な検知と、画像レベルの認識を組み合わせることで、単一のモデルよりも精度と堅牢性が向上することが確認されました。特に、第1段階の検知ネットワークで見落とし(偽陰性)を抑えつつ、第2段階の認識ネットワークで誤報(偽陽性)を削減する構造が有効に機能しています。

今後の課題
データ多様性の不足: 本システムの学習に使用されたデータセット(Debrisflow23)は、現時点では規模が比較的小さく、「あらゆる天候条件や環境、流れの挙動を網羅できているわけではない」。
精度の低下: 複雑で変動の激しい現場環境においては、システムの汎用性(汎化能力)が低下する可能性がある。実際に、特定の条件下では検知ネットワークが誤報を出したり、逆に発生を見逃したりする「失敗事例」も確認されています。

動画による検知は簡単で、このようなDNNなどの機械学習までは必要なく、画像処理でも対応可能です。実際、動画にラベリングをする際にリアルタイム処理の動態検知を使うこともあります。
画像処理技術だと昔から普及しているので、社会実装しようと思えば誰でも容易にできたのですが、欠点があります。夜間、霧など。閾値を昼間と変得ないといけなかったり、そもそも視認できなかったり。この欠点があるので実装されてこなかったのだろうと思われます。

近年、国内でもCCTVでなく簡易カメラを設置して対応する研究が見受けられますが、欠点は同じです。ま、簡易カメラなら流されても痛くはないので 多数つけられるという長所はありますが。

解決策は熱赤外カメラ。ただし現状は高価。安いものは距離、解像度が不足しています。もう少し待てば安価なカメラが出てくるでしょう。

文献:Characterizing and clustering debris flow and environmental noise seismic signals using unsupervised deep learning

Characterizing and clustering debris flow and environmental noise seismic signals using unsupervised deep learning | Geophysical Journal International | Oxford Academic

AI要約

1. 背景
土石流は山岳地帯において極めて破壊的な自然災害であり、その対策として微震モニタリングが有効なリアルタイム検知手法となっています。しかし、従来の技術では土石流、落石、地震、環境ノイズといった異なる発生源からの混合信号を識別することが困難であり、土石流イベントの完全な動的進化を理解する上での制約となっていました。また、既存の教師あり学習は大量のラベル付きデータを必要としますが、地震データの多くはラベルがなく、人的なラベル付けには誤りも伴うため、ラベルなしデータから信号の固有構造を自動的に識別できる教師なし学習手法の確立が求められていました。

2. 手法

スペクトログラムの作成:
信号選択: 信号対雑音比(SNR)が高い垂直成分を選択。
窓関数適用: 信号の連続性と完全性を確保するため、60秒の固定窓長を採用。
基本的処理: instrument response(計器特性)の除去、デトレンド、デミーンを実施。
フィルタリング: 5Hz以上の高周波エネルギーを強調するため、4次バターワースハイパスフィルタを適用。
時間・周波数変換: 短時間フーリエ変換(STFT)を実施し、ハニング窓と50%のオーバーラップを設定。
正規化: 最大エネルギーで全特徴量を正規化。

データの分割方法とデータ数:
総データ数: 42,057個のスペクトログラムを使用。
分割方法: ACEの学習において、70%を訓練データ、30%を検証データとして非復元ランダムサンプリングにより分割しました(ホールドアウト検証)。過学習対策として、検証損失が30エポック連続で減少しない場合に停止する「早期停止(Early Stopping)」を採用しています。
ラベル付きデータの割合: 本研究は基本的に教師なし学習ですが、最適なクラスター数(K)の決定などの評価のために、合計データのうち2,000個(約4.7%)のランダムに選択され手動でラベル付けされたサンプルが使用されました。

機械学習手法:
モデルの流れ: 生の地震動信号 → 前処理 → 2Dスペクトログラム生成 → ACEエンコーダによる16次元潜在特徴量への圧縮 → GMM/DECによるクラスタリング(K=24)→ クラスター内頻出ラベルによるクラス分類。

特徴量抽出(深層オートエンコーダ: ACE): 2次元スペクトログラムを入力とし、4層の畳み込み層を持つエンコーダを用いて、高次元データ(38,400次元)を16次元の「潜在空間(Latent Space)」に圧縮し、コンパクトな特徴表現を獲得します。

クラスタリングとクラス分類の詳細: 抽出された潜在特徴量に対し、Deep Embedded Clustering (DEC) 、 ガウス混合モデル (GMM) を適用して自動分類を行います。最適なクラスター数は、外部評価指標(ARI、NMI、Purity)に基づき、複雑な信号構造を捉えるのに最適な K=24 と決定されました。最終的なクラス分類(ラベル付け)は、名前のない各クラスター内を確認し、「そのクラスター内で最も頻繁に出現する既知のラベル」をそのクラスターの代表ラベルとして定義することで行われます。

目的変数(分類対象): 土石流、落石、地震、環境ノイズの4カテゴリです。

3. 結果
分類精度とF1スコア:GMMの全体精度は92.32%に対し、DECは複雑な土石流信号の識別に優れ、全体精度93.21%を達成しました。各手法のカテゴリ別F1スコアは以下の通りです。

土石流: GMM 0.891 / DEC 0.9392
環境ノイズ: GMM 0.9134 / DEC 0.9233
地震: GMM 0.9758 / DEC 0.9759
落石: GMM 0.9184 / DEC 0.8661

精度向上:
同じガウス混合モデル(GMM)を用いて以下の2パターンで実験を行いました。

全データ一括処理: 42,057個のデータを一度にクラスタリングした場合、精度は92.32%でした。
サブセット分割処理: データを5つのサブセットに分割してそれぞれクラスタリングを行った結果、平均精度は96.81%にまで向上しました。

複雑なパターンの認識: データセットが巨大すぎると、AIはその中に隠れている非常に複雑なパターンを見落としてしまうことがあります。データを小さく分割することで、AIは各サブセット特有の細かい特徴に集中できるようになります。
データ間の密接な関係性の把握: 分割された後のデータ群では、個々のデータポイント同士の結びつきがより強まり、AIがデータの「潜在的な構造( underlying structure)」をより効果的に特定できるようになります。
計算の効率化と負荷軽減: 大規模なデータを一度に計算するよりも、分割して処理するほうが計算上の複雑さが抑えられ、結果としてより洗練されたクラスタリング結果を得ることが可能になります。

潜在特徴量の物理的な意味: 抽出された16個の潜在特徴量は、従来の地震学的属性との相関分析により、以下の物理的意味を持つことが確認されました。
時間領域の反復性: 自己相関関数のピーク数(信号の周期性や規則性)と最も強い相関があります。
周波数領域の特性: 中心周波数の第1四分位数、正規化DFTの分散および中央値(エネルギーの分布特性)と強い正の相関を示します。
これらは、土石流の各段階で変化する物理特性を効果的に捉えています。

4. 考察
土石流の「発生・輸送・堆積」の違い: クラスタリングにより、単一の土石流イベントを物理的な段階に対応する3〜4つのクラスターに自動分割することに成功しました。
発生(初期・メインサージ): 振幅が劇的に増大し、パワースペクトル密度(PSD)が最大になりますが、大量の物質の摺動により中心周波数は比較的低くなります。また、強い攪乱により楕円率と入射角が大きくなります。
輸送(通過): サージ(段波)の影響により、10〜50Hzの範囲で周波数とエネルギーが進化します。
堆積(終息): 流速と粒子サイズの減少により、エネルギーは低く、中心周波数は高くなる傾向があります。波の運動はより規則的で垂直志向になります。

教師なし学習の有効性: 大規模なラベルなしリアルタイムデータの処理に適しており、高密度観測ネットワークでのパターン発見において教師あり学習よりも汎用性が高いことが示されました。

早期警戒への応用: 潜在特徴量を教師あり学習(ランダムフォレスト)の入力に用いることで、93.15%の精度でリアルタイム早期警戒が可能になる展望が示されました。


1分データでも、ラベリングの手間はかなり大きくなります。それを回避すべく教師なし手法を利用する、という方針です。ただし、評価が必要なのでいくらかはラベリングされています。ある程度のドメインシフトにも対応できそうな手法に思えます。

24クラスタ → 4クラスなので、土石流の「発生・輸送・堆積」などへ自動的に対応できるところも当手法の特徴です。これは教師あり学習でラベルの境界を決定するのが難しいところですので、人為的ミスを回避する点でも魅力的です。

サブクラスタに分けておき、それぞれの結果を Voting するようにしてもリアルタイム運用は可能でしょう。


2026年3月8日日曜日

文献:Adaptive Machine Learning Framework for Debris Flow Monitoring

Adaptive Machine Learning Framework for Debris Flow Monitoring in Nonstationary Environments in Illgraben, Switzerland by Jui-Ming Chang, Qi Zhou, Hui Tang, Jens M. Turowski, Ko Ko :: SSRN

AI要約

1. 背景
土石流は山岳地帯における主要な災害であり、地震動データを用いた機械学習モデルによる検知が有効です。しかし、地球物理データの性質が時間とともに変化する「コンセプトドリフト」という現象が、モデルの長期的かつ汎用的な運用において大きな課題となります。
本研究は、このデータ分布の変化(非定常性)に直接対応し、高い検知精度を維持できる適応型機械学習フレームワークを開発することを目的としています。

2. 手法
機械学習手法
複数のモデルを組み合わせた Stacked Heterogeneous Ensemble を採用しています。

ベース学習器
LSTM+MLP: 10分間のシーケンスを処理するLSTMと、最新の値を処理するMLPを統合したハイブリッド構造で、時間依存性と瞬時の特徴を捉えます。
XGBoost (XGB): 静的な勾配ブースティングモデル。
ランダムフォレスト (RF): 静的な決定木アンサンブルモデル。

メタ学習器
ロジスティック回帰: 各ベースモデルの出力を統合し、単一の堅牢な確率スコアを算出します。

ハイパーパラメータ最適化
Optunaフレームワークを使用し、40回の試行を経て各ベースモデルを最適化しました。

変数
目的変数: 1分間の観測ウィンドウにおける「土石流(debris flow)」または「土石流なし(no debris flow)」のバイナリラベル。
説明変数: 当初は5つのドメイン(ベンフォードの法則、波形、スペクトル、スペクトログラム、ネットワーク特性)からなる80個の特徴量を使用していました。これに時間力学やエネルギー分布を捉える22個の新しい変数を加え、合計92個の特徴量を候補としています。

インバランスデータ
土石流イベントは極めて稀であり、データセットには深刻なクラス不均衡(クラスインバランス)が存在します。
不均衡比: 2017-2018年で0.0023、2019年で0.0078、2020年で0.0094と非常に低くなっています。

データ分割(図1bフローチャートに基づく)
各年6月から8月までの厳密な時系列データを使用しています。
学習(Training): 2017年から2018年のデータを使用。モデルの初期構築に用いられます。
検証(Validation): 2019年のデータを使用。これをさらに80/20に分割し、80%をメタ学習器の訓練に、残り20%を微調整(Tuning)用に保持します。
テスト(Testing): 2020年のデータ(Hold-out test year)を使用。最終的な汎用性を評価します。
データ数: 2020年のテストデータでは、ステーションごとに約13万サンプル(1分単位)が含まれています(例: ILL18でTN=131,371)。

適応機構とドリフト検知
ドリフト検知: 2019年の検証期間と2020年のテスト期間の間の分布変化を、2標本コルモゴロフ–スミルノフ検定(KS検定)を用いて判定します。
有意水準: p < 0.05 で有意なドリフトを検知します。
対応動作: 有意なドリフトが検知された場合、事前に保持していた2019年のデータ(20%分)を用いて、事前に訓練されたLSTM+MLPモデルを**微調整(fine-tuning)**し、新しいデータ分布に適応させます。

3. 結果
全体性能: 3つのモニタリングステーションにおいて、F1スコア0.873から0.927という高い精度を達成しました。

ステーション別の特性: 最上流のILL18で最高のF1スコア(0.927)を記録した一方、下流のステーションでは環境ノイズの影響により、7月に精度が低下する傾向が見られました。

特徴量の寄与: 全92個の特徴量から、ドリフトに強い上位25個を選択して学習に用いる「ドリフト対応特徴量選択」が、モデルの汎用性向上に最も寄与することが明らかになりました。

4. 考察
適応戦略の重要性: 単一のグローバルモデルでは時間的・場所的な変化に対応できず、ステーション固有かつ適応型のシステムが必要不可欠です。
時間的モデルの役割: LSTM+MLPのような時間的依存性を学習するモデルは、見逃し(False Negative)を減らす上で不可欠な要素であることが確認されました。

今後の課題: モデルの長期的な安定性を確保するためには、最新データを用いた定期的またはスライディングウィンドウ方式による再学習プロトコルの確立が重要です。

特徴量のリンクは張られていませんが、以下がベースになっています。
agupubs.onlinelibrary.wiley.com/action/downloadSupplement?doi=10.1029%2F2024JF008094&file=2024JF008094-sup-0001-Supporting+Information+SI-S01.pdf

ドリフト(ドメインシフト)への対処療法が書かれた文献です。

  • シグナルの「時間的進化」を捉えることが精度維持の鍵。
  • 統計的な変化(ドリフト)を検知した場合のみ、直近のデータを用いて時系列モデルを再訓練する。
  • ドリフトを考慮した特徴量選択が必要。

同じ渓流でも上流と下流、経過時間によって振動は変化し、最適な特徴量は異なる。変化を考慮したモデルが必要、という考えに沿ってモデルが作成されています。ドリフトの有無の判断にKS検定を用いており、その結果を特徴量重要度にも反映しています。
既存の手法を組み合わせて対応するといった、実務向きな内容だと思います。