2026年3月23日月曜日

文献:Real-time lithology identification while drilling based on drilling parameters analysis with machine learning

Real-time lithology identification while drilling based on drilling parameters analysis with machine learning | Geomechanics and Geophysics for Geo-Energy and Geo-Resources | Springer Nature Link

AI要約

1. 背景
石炭鉱山における災害(斜面崩落、ガス突出など)の防止やガス抽出の効率化には、正確な地層(岩相)情報が不可欠です。従来の技術では、技術者が掘り屑(カッティングス)の色や形状を目視で確認していましたが、精度が低く、個人の経験に依存するという課題がありました。近年、振動、音響、画像解析を用いたAI手法も研究されていますが、地下の過酷な環境やノイズの干渉により、実用化には至っていませんでした。特に、「ドリルストリングの摩擦抵抗」が掘削データに与える影響や、膨大なデータのリアルタイム処理が、機械学習を導入する上での大きな障壁となっていました。

2. 手法
研究チームは、以下のハードウェア、前処理技術、機械学習アルゴリズムを組み合わせたシステムを構築しました。

掘削機(スマート掘削リグ): MWD(Measurement While Drilling)システムを搭載した自走式スマート掘削リグを開発しました。姿勢制御、ロッド操作、遠隔制御の各サブシステムを備え、掘削データを自動的に記録します。また、地下のリグと地上のワークステーションを専用ネットワークで結ぶ遠隔データ処理プラットフォームにより、大規模なデータのリアルタイム解析を可能にしました。

前処理:
高速データ検索: 掘削ステータスを14のコード(掘削、ロッド接続など)に分類し、膨大なデータから有効な掘削情報を即座に抽出します。
摩擦検知と補正: ドリルストリングの座屈(バックリング)安定性解析を行い、座屈が起きない条件下でビットが岩石を破壊していない時の負荷を計測して、摩擦抵抗を自動検知します。
データクリーニング: 部品の起動・停止時に発生する「衝撃」などの無効な信号をフィルタリングして除外します。

機械学習手法: 複数のアルゴリズムを組み合わせる「ソフト投票型アンサンブル学習」を採用しました。個別の識別器として、SVM(Quadraticカーネル)、決定木(Medium Tree)、KNN(Fine KNN)、ニューラルネットワーク(Bilayered NN)の4つを統合し、それぞれの予測確率の重み付き平均から最終的な結果を出力します。

説明変数(入力パラメータ): 補正後の推力(Thrust)、トルク(Torque)、および貫入速度(ROP)、回転数(RPM)の4種類を使用します。

目的変数: 石炭 or 岩石(2値分類)

識別結果の継続性を分析(10セットごとのデータ群で判定)することで、さらに精度を高める手法を導入しています。

3. 結果
識別精度: アンサンブル学習モデルは、テストデータに対して98.79%という極めて高い岩相識別精度を達成しました。
掘削効率の向上: 識別された岩相に合わせて掘削パラメータ(回転数や推力)を最適化した結果、従来のシステムと比較して純掘削効率が18.12%向上しました。
省人化: 従来3人で行っていた作業を1人に削減できる可能性を示し、コスト削減と安全性の向上に寄与しました。

4. 考察
本研究の鍵は、ドリルストリングの摩擦をリアルタイムで検知し、掘削データを補正したことにあります。これにより、地層情報とパラメータの相関性が大幅に強化されました。また、地上と地下をシームレスに結ぶデータプラットフォームが実用性を支えています。
 一方で、課題も残されています。現在のモデルは単一のデータソースに基づいているため、地質条件が大きく異なる地域への適用には限界があります。今後は、掘り屑の画像や掘削振動など、複数の情報を統合した「マルチソース情報」による学習を行うことで、汎用性と精度のさらなる向上が期待されています。

TBM, ドリルジャンボなどと同様に、ノンコアボーリングでもトルクや速度をロギング可能であれば、このような使い方ができるのでしょう。地質を知りたい場合はボアホールカメラを後で挿入すれば良いだけです(実際、数m~10mピッチでノンコアボーリングを実施し、ボアホールカメラから柱状図を作成した経験があります)。ボーリングの数を必要とする場合には、有効な手段でしょう。

機械学習よりも掘削機の方が主要な成果です。既にデータさえあれば分析ができる環境が整っていますので、あとは良いデータを集めるだけですから。


文献:Automated geotechnical logging of core box images using machine learning

Automated geotechnical logging of core box images using machine learning: CIM Journal: Vol 16 , No 1 - Get Access

AI要約

背景
地質工学的な不確実性を低減するためには、信頼性の高いデータの量を増やすことが不可欠です。しかし、初期段階のプロジェクトでは、高品質な地質工学用ボアホールの数は限られており、大部分を占める探査用ドリルのデータは品質が不安定なRock Quality Designation (RQD)などに限定されています。また、探査用の実物コアは、分析のために分割されたり、経年劣化や廃棄によって利用できなくなることが多く、コア写真のみが唯一の信頼できる情報源となることが多々あります。従来のコア写真の再ロギングは、時間がかかるだけでなく、ロガー(記録者)の主観やバイアスに影響されやすいという課題がありました。これらの課題を解決し、大量の既存コア写真を客観的かつ効率的にデータ化するため、機械学習を用いたワークフローが開発されました。

手法
機械学習手法: ディープラーニングの一種であるMask_RCNN(畳み込みニューラルネットワーク)が使用されています。これは、画素を自動的に分類・グループ化して特徴マップを作成し、分類を行うモデルです。

前処理:50〜100枚程度のコア画像に対し、各カテゴリーを表すセグメントをポリゴンで囲んでラベル付けを行います。データセットはトレーニングセットと検証セットに分割され、モデルの評価と調整が行われます。
コアの列を特定し、画像を直線化(リニアライズ)して深度を参照するための別のモデルも利用します。

説明変数(入力データ): コア箱のカラー写真です。一貫した照明と色バランスで撮影された写真が、トレーニングに適しています。

目的変数(分類指標): 以下の3つのシステムが開発されました。
Core Damage Index (CDI): コア径に対する砕屑物の平均サイズに基づき、岩盤の状態を5つのカテゴリーに分類します。

  • クラス1: 砕屑物のサイズがコア径の2倍より大きい(> 2x)。従来のRQD(岩質指標)に相当する良好な状態です。
  • クラス2: 砕屑物のサイズがコア径の1〜2倍(1 - 2x)。SCR(固体コア採取率)に相当します。
  • クラス3: 砕屑物のサイズがコア径の0.5〜1倍(0.5 - 1x)。
  • クラス4: 砕屑物のサイズがコア径の0.25〜0.5倍(0.25 - 0.5x)。
  • クラス5: 砕屑物のサイズがコア径の0.25倍未満(< 0.25x)。これには角礫(breccia)、砂、ガウジ(gouge)などが含まれます

Pseudo-RQD(擬似RQD): コア画像上の割れ目と破砕帯(ラブルゾーン)をマッピングして計算されます。自然な不連続面(割れ目)と掘削時などの機械的な破壊を区別しないため、従来のRQDと区別するために「Pseudo」と呼ばれています。
Break Frequency(割れ目頻度): Pseudo-RQDと同様に、割れ目の数から推定されます。

ポストプロセッシング: 5cm未満の間隔のフィルタリング、同じクラスの連続する間隔の結合などのクレンジング処理を経て、以下を表形式でエクスポートします。

  • ホール名(ボアホールID)
  • 開始深度・終了深度(インターバル)
  • 割り当てられたクラス(CDIクラスなど)
  • 該当するコア写真への参照

Leapfrog Geoなどのソフトウェアにこれらのデータをインポートすることで、以下のような高度なモデリングが可能になります。

  • 地質工学ドメインモデルの構築: 抽出されたCDI(コア損傷指数)やPseudo-RQDデータを、地質、構造、岩盤、水理地質の各コンポーネントモデルを構築するためのインプットとして使用します。
  • 断層帯の詳細なモデリング: CDIは5cm単位という非常に高い解像度でデータを生成できるため、断層の核(コア)と損傷帯(ダメージゾーン)を明確に区別し、断層の幅を正確に3D空間で評価できます。
  • 岩盤の変動性の可視化: 従来の1.5m間隔のRQDでは捉えきれなかった岩盤内の細かな品質変化を、3D空間上で連続的に表現できるようになります。

結果
高解像度なデータの取得: CDIを用いることで、従来の1.5m間隔のRQDロギングと比較して4倍以上の高解像度で地質工学的特徴を捉えることが可能になりました。

客観性の確保: ロガーの主観を排除し、砕屑物サイズという客観的な基準で分類することで、一貫したデータセットを構築できました。

損傷の識別: 掘削時の機械的な損傷と、断層核や断層損傷帯のような地質学的な損傷を区別しやすくなり、構造モデリングや水理地質モデリングに貢献するデータが得られました。

考察
客観性の重要性: 機械学習は、主観的な入力が増えるほど、信頼性を維持するために必要な学習データ量が指数関数的に増加します。そのため、RQDのような主観的な判断(自然な割れ目か機械的な破壊かの区別など)を伴う指標は、自動化には不向きであると指摘されています。

デジタル化の限界: コア写真からは岩石の強度や、画像に現れない微細な割れ目の表面状態などを特定することはできません。したがって、この自動ロギングは経験豊富な技術者による詳細なロギングを完全に置き換えるものではなく、既存の膨大なデータを補完するためのツールとして位置づけられます。

モデルの汎用性: 特定の堆積物や条件に過剰適合(オーバーフィッティング)することを避けるため、分類システムを一般化し、客観的な基準(コア径に対する砕屑物サイズなど)を採用することが、信頼性の高いMLモデル構築の鍵となります。

まず思ったのは、オペレータさんによってコアの品質が異なるため、実務に適用するには壁があるだろうな、という点でした。毎回腕の良い、費用の高いオペさんに掘ってもらうことはできないのでしょう。時々、ボロボロのコアに出会うことがありました。
品質を保ちつつ利益を出すというのは企業にとって当たり前のことですが、担当者レベルになるとExecutivesからの圧力もあり、利益が優先される場合があります。これに盾突いて品質を優先する技術者は(程度にもよりますが)、まず民間企業では偉くなれません。結果、利益や株主優先の企業が出てくるのでしょう。

3次元モデラーに入力できるようにしている点は、さすがです。疑似RQDなど、やや品質が落ちたとしても、多数の孔のデータを自動マッピングできるのは基図としてはありがたいと思います。AIに解釈させた結果を提示させるのではなく、画像上の客観的事実のみをAIにより高解像度で提示させたら、後は技術者の仕事です。おかしな点は技術者がログをまとめるなり、モデリングするなりの過程で気づくと思います。

多くのボーリングを整理する必要に迫られた場合、なかなか有向かもしれません。

2026年3月22日日曜日

文献:Machine learning for drill core image analysis

Machine learning for drill core image analysis: A review - ScienceDirect

AI要約

1. はじめに:鉱物探査におけるドリルコアの重要性と機械学習の台頭
世界的な原材料需要の増加、特に再生可能エネルギーへの移行に伴う戦略的原材料の確保が急務となる中、鉱物探査プロセスの効率化が求められています。ドリルコアは、地下の地質状態を物理的に保存した最も直接的な記録であり、その解析(ロギング)は探査の根幹をなします。
近年、このドリルコア写真をデジタルデータとして機械学習(ML)で解析する試みが急速に進化しています。ドリルコア写真は、低コストかつ迅速に撮影可能で、岩相、変質、鉱物、層序、地盤工学的特徴といった多様な視覚的指標を保存しているため、MLの入力データとして非常に魅力的です。

2. 機械学習が取り組む3つの主要な地質学的タスク

① 岩相予測(Lithology Prediction)
岩石の種類(砂岩、大理石、玄武岩など)を分類するタスクで、最も研究が進んでいます。
手法と精度: 畳み込みニューラルネットワーク(CNN)が主流であり、ResNetやGoogLeNetなどのアーキテクチャを用いた研究では、90%から96.7%という極めて高い正解率が報告されています。
技術的アプローチ: 多くの場合、ImageNetで学習済みのモデルをドリルコアデータで微調整する「転移学習」が用いられます。
課題: 砂岩と石灰岩のように視覚的に酷似した岩石の判別には限界があり、人間による化学テスト(塩酸反応など)を代替するには至っていません。

② 地盤工学的解析(RQD/FS推定)
岩盤の品質指標(RQD)や亀裂間隔(FS)を推定するタスクです。
成果: モデルによる推定誤差は手動測定に対して±2.5〜3%以内に収まり、処理速度は人間の約1800倍に達する可能性があるとされています。
汎用性: 亀裂や破砕帯といった構造的特徴は、岩石の種類よりも普遍的なパターンを持つため、最も自動化や汎用化に適した領域と考えられています。

③ 鉱物予測(Mineralogical Prediction)
画像テクスチャ(質感)から特定の鉱物の含有量や品位を推定します。
手法: 従来のテクスチャ記述子(LBPやGLCMなど)を用いる手法と、CNNを用いる手法があります。
複雑性: 鉱物学的性質は微視的なスケールで決定されることが多いため、画像というマクロな視覚情報から推測するこのタスクは、3つの中で最も抽象度が高く困難です。

3. 技術的・実務的な主要課題と議論
研究レベルでの高精度とは裏腹に、実務への完全導入にはいくつかの大きな壁が存在します。

汎用化の壁(Generalization): ある現場で学習したモデルを別の現場や地域に適用すると、精度が著しく低下します。これは、同じ岩相でも地域によって見え方が異なるためです。
データの一貫性と主観性: 地質学者が作成する「正解ラベル」自体に主観が含まれており、専門家間でのラベル不一致(label non-agreement)がモデルの学習を阻害しています。
データの不均衡: 自然界では特定の岩相や希少鉱物は少なく、データが偏っているため、稀なケースをAIが学習しにくいという本質的な問題があります。
スケールの不一致: AIが数ミリ単位で予測を行うのに対し、地質学的な解釈はメートル単位の連続性を重視します。このギャップを埋めるための「予測結果の平滑化(smoothing)」などの後処理が重要視されています。

4. 将来展望:自動化から「コンテキスト認識型アシスタント」へ
ヒューマン・イン・ザ・ループ(HITL): AIが予測を行い、不確実な箇所のみを人間が修正し、その結果をAIが再学習する「地質学者・イン・ザ・ループ」のサイクルが提案されています。これにより、現場固有の文脈(コンテキスト)を効率的にモデルに教え込むことができます。
コンテキスト認識: 空間的な地質モデルや層序学的な知識をMLの制約条件として統合することで、「古い岩石の上に若い岩石があるのは不自然」といった地質学的妥当性を持った予測が可能になります。
ベンチマークの必要性: 異なるモデルを公平に比較するため、多様な地質環境を網羅した「標準的なデータセット群(ベンチマーク・スイート)」の構築が提案されています。

結論として、機械学習は地質学者の仕事を奪うものではなく、解釈の矛盾を指摘したり、膨大なルーチンワークを高速化したりする「高度な助手」へと進化していくことが期待されています。

ルレオ工科大学(スウェーデン)の研究者を中心とし、スウェーデンの大手鉱業企業であるBoliden Mines の実務家が加わった、学術界と産業界の多角的な専門家チームによって執筆されています。レビューなので新たな知見や目新しい手法がないのは仕方ありませんが、それでもHITLの方針はやや残念。いえ、私も(手を抜いて)失敗しましたし、現状では納得なのですが、この壁を破る必要があります。ま、要素ごとに解決して組み合わせる、いずれ丸っとログを吐かせるなどの手法は時間の問題でしょう。
https://phreeqc.blogspot.com/2025/04/blog-post.html

さらに、TBMのようにボーリングマシンでもデータをとれるような仕組みを考え、そのデータを柱状図作成用の機械学習モデルに取り込み、3次元地質モデルを推定させる段階までは、近い将来可能でしょう。要素技術としては既に存在するため、難しくはないと思います。

国内ではこのようなコアに対する機械学習モデルやデータセットを公開しようといった動きを聞きませんし、機械学習自体を使えない技術者たちが Executives になりつつあるため、当面は遅れたままでしょう。ビジネスチャンスではあるので、フットワークの軽い企業は文献に紹介されているような要素技術を商品として宣伝を始めるでしょう。そういった企業がやがて地質の機械学習に関する老舗となり、時代が追い付いた段階でに優位に立てるのかもしれません。


2026年3月21日土曜日

文献:Automated classification of drill core photographs

Automated classification of drill core photographs: A complete workflow for weakly supervised training - ScienceDirect

AI要約

1. 背景
鉱物探査において、地質学者がコアを視覚的に検査することは伝統的な手法ですが、分類が部分的で主観的になりやすく、専門家によって結果が異なるという課題があります。近年、深層学習(CNNなど)を用いた自動予測が注目されていますが、学習に必要な大量のラベル付きデータを作成するには多大な時間と労力が必要です。本研究は、最小限のラベル付けで効率的に岩石を分類できる完全なワークフローを構築することを目的としています。

2. 手法
本手法は、以下の5つの手順で構成されています。

前処理 (Preprocessing)
レンズ歪み補正: 広角レンズによる「樽型歪み」を補正し、その後の直線検出の精度を高めます。
コア箱の分離: 木製のコア箱から岩石コア部分を分離するため、Cannyエッジ検出やモルフォロジー演算(膨張、収縮、オープニングなど)を用います。
細分化 (Slicing): 分離されたコア画像を、解析に適した標準的なサイズ(300×60ピクセル、実寸約18cm長)に分割します。

機械学習手法

自己組織化マップ(SOM)によるクラスタリングとラベル付け
SOMは、高次元のデータを視覚的に理解しやすい低次元(通常は2次元)の格子状マップに変換する「トポロジー保持型」の無向ニューラルネットワークです。
仕組みと構造: 抽出された96個の特徴量(色記述子48個、テクスチャ記述子48個)を入力として使用します。これを10×10(合計100個)のニューロン格子に投影します。
トポロジーの保存: 色や質感が似ている画像は、マップ上でも物理的に近いユニットに配置されます。この性質により、数万枚の画像を1枚ずつ確認するのではなく、似た画像が集まった「クラスター」ごとに効率よく処理できます。
効率的なラベル付け: 地質学者は各ノードから代表的な画像(例:各ノードからランダムに選ばれた5枚)を確認し、そのクラスター全体に対して「漂白」や「片麻岩」といった地質学的なラベルを割り当てます。これにより、数時間という短時間で、数千から数万枚規模の学習用データセットを作成することが可能になります。

深層学習モデル:ベースラインとVGG16
ベースラインモデル (Baseline Model):
本データセットに合わせて開発されたシンプルな3層の畳み込みニューラルネットワーク(CNN)です。
構造: 3つの畳み込みブロック(サイズ32, 32, 64の3×3カーネル、ReLU活性化関数)で構成され、各層の後にバッチ正規化とマックスプーリングが適用されます。最後にソフトマックス活性化関数を持つ全結合層が配置されています。
VGG16: ImageNetデータセットで事前学習された、13層の畳み込み層と5層のマックスプーリング層を持つ非常に深く複雑なアーキテクチャです。
手法: 転移学習(Transfer Learning)のアプローチを採用し、最後の全結合層のみを今回の岩石データで訓練しました。
比較の結果: いずれの地質ドメインにおいても、複雑なVGG16よりもシンプルなベースラインモデルの方が高い精度を示しました。

半教師あり学習(Mean Teacher)
ラベル付きデータが不足している場合に、ラベルのない大量の画像を有効活用して学習の安定性と精度を高める手法です。
「生徒」と「教師」の2モデル構造: 同じ構造を持つ「生徒(Student)」モデルと「教師(Teacher)」モデルを使用します。
一貫性コスト (Consistency Cost): 同じ画像に対して、それぞれ異なるランダムなノイズ(輝度変化や反転など)を加えて両方のモデルに入力します。「滑らかさの仮定(Smoothness Assumption)」に基づき、小さな摂動(ノイズ)を加えても予測結果は変わらないはずであるため、2つのモデルの予測結果の距離(平均二乗誤差:MSE)を一貫性損失として計算し、これを最小化するように学習します。
重みの更新: 生徒モデルは通常の学習(損失関数の最小化)を行いますが、教師モデルの重みは、生徒モデルの過去の重みを指数移動平均(EMA)で反映させることで、より安定した「smoothed(平滑化された)」モデルとして機能します。
利点: 特にサンプル数が極端に少ないクラス(例:ダイアテクサイト)や、複雑な結晶質岩(基盤岩)の分類において、精度の向上に寄与しました。

説明変数 (Explanatory Variables / Features)
色情報: 3Dカラーヒストグラム(RGB空間)から抽出した512個の記述子を、主成分分析(PCA)で48個に圧縮して使用します。
テクスチャ情報: ガボールフィルタ(Gabor filters)を用いて、24通りの畳み込み演算から平均と標準偏差を算出し、計48個の特徴量を取得します。

目的変数 (Objective Variables / Target)
地質学的ドメインごとに以下のクラスを設定しています。
盆地(堆積岩): 漂白(Bleached)、部分除去(Partial removal)、ヘマタイト化(Hematized)、非コア(Non-core)。
基盤岩(結晶質岩): 片麻岩(Gneiss)、メタテキサイト(Metatexite)、ダイアテクサイト(Diatexite)、ペグマタイト(Pegmatite)、非コア。

評価関数 (Evaluation Function)
教師あり学習: カテゴリカル・クロスエントロピーを損失関数として使用します。
半教師あり学習: 教師あり損失(クロスエントロピー)と、教師モデルと生徒モデルの予測の一致度を示す「一貫性損失(MSE:平均二乗誤差)」の合計を最小化します。

3. 結果
盆地サブセット: ベースラインモデルを用いた教師あり学習で、0.932という最も高い分類精度を達成しました。
基盤岩サブセット: 半教師あり学習(Mean Teacher)を採用したベースラインモデルが0.751の精度で最高の結果となりました。
いずれのケースにおいても、複雑なVGG16よりシンプルなベースラインモデルの方が高い精度を示しました。

4. 考察
精度の差: 基盤岩の精度が盆地より低いのは、岩相の複雑さ、特定のクラス(ダイアテクサイト)のサンプル不足(40サンプル)、および変成度の変化が連続的でクラス間の境界が曖昧であるためです。
バイアスの軽減: SOMを用いたクラスタリングにより、地質学者の主観による「オペレーター・バイアス」を一貫したアルゴリズムで補完し、再現性の高い分類が可能になります。

今後の展望: 照明条件の統一や、Segment Anything Model (SAM)のような高度な画像分割手法を導入することで、さらなる精度の向上が期待されます。

まだコアを分けるという段階で、柱状図を作ることはできません。ラベリングの手間をなくすためにクラスタリングを利用するという主張はよく見ますが、経験的には正確ではない場合が多くあります。いずれも発展途中なのでしょうが、いずれ解決すると思います。


文献:Direct inversion of surface wave dispersion

Direct inversion of surface wave dispersion for three-dimensional shallow crustal structure based on ray tracing: methodology and application | Geophysical Journal International | Oxford Academic

AI要約

背景
表面波トモグラフィーは、地球の地殻や上部マントルの構造を研究する上で重要な役割を果たしてきました。従来の一般的な手法は、まず観測された走時データから2次元の位相速度(または群速度)マップを作成し、次に各地点の分散データのインバージョンにより1次元の横波(S波)速度プロファイルを求めるという、2段階のプロセスを踏みます。しかし、この手法や従来の直接反転法では、多くの場合、大圏コース(Great Circle)伝播を仮定しており、複雑な構造を持つ地殻浅部などでは、波の伝播経路の歪みが無視できず、推定結果にバイアスが生じる可能性がありました。一方で、波形全体を用いるフルウェーブフォームインバージョン(FWI)やアジョイントトモグラフィーは高精度ですが、特に高周波数帯域において計算コストが非常に高いという課題があります。

手法
本論文で提案された手法は、中間的な速度マップを作成せず、分散データから直接3次元のS波速度構造を求める単一ステップのインバージョン法です。主な特徴は以下の通りです。

Fast Marching Method( FMM) によるレイトレーシング: 各周期において、FMMを用いて震源・受信点間の走時と波の伝播経路を計算します。これにより、不均質メディアにおける大圏コースからの経路の逸脱を考慮することが可能になります。

反復的な更新: 反転プロセスにおいて、新しく得られた3次元速度モデルに基づいて、波の経路とデータ感度行列(カーネル)を逐次更新します。

ウェーブレット基底を用いた疎性制約付き反転: モデルパラメータをウェーブレット領域で表現します。ウェーブレット変換の多重解像度特性を利用し、データ制約が強い地域では高解像度を、制約が弱い地域では長波長の特徴を保持するようにします。

L1ノルム正則化: ウェーブレット係数がまばら(スパース)であると仮定し、L1 ノルム正則化を適用します。これにより、従来の滑らかさを強制する正則化よりも、データの分布に適合した適応的な解像度が得られます。

計算アルゴリズム: L1ノルムベースの最小化問題を解くために、反復再重合最小二乗法(Iteratively Reweighted Least Squares: IRLS)とLSQRアルゴリズムを組み合わせて使用しています。

物性間の関係: P波速度(α)と密度(ρ)は、地殻に関する経験的な関係式(Brocher, 2005)を用いてS波速度(β)に関連付けられており、これらによる分散への影響も感度行列に含まれています。

結果
台湾の台北盆地における、環境ノイズ相関法から抽出された短周期(0.5〜3.0秒)のレイリー波位相速度データにこの手法を適用しました。

計算の収束: 反復的な反転により、走時残差の標準偏差は1.44秒から0.91秒に減少し、残差の平均はほぼゼロになりました。

速度構造の解明: 盆地内の低速度域と山地(大屯火山群など)の高速度域が明瞭に描き出されました。これらの結果は地表の地質構造と良好に一致しています。

従来手法との比較: 従来の2段階反転法の結果と概ね一致しましたが、データ網羅性が低い地域では、本手法の方がアーティファクトが少なく、より安定した結果が得られました。

解像度テスト: チェッカーボードテストにより、データ制約が良い地域では水平・垂直方向に高い解像度を持つことが確認されました。

考察
提案手法は、計算効率と精度のバランスに優れており、特に構造が複雑な地殻浅部の調査に有効です。

利点: 2次元速度マップの構築が不要であり、3次元参照モデルの組み込みが容易です。また、ウェーブレット基底の採用により、データの密度に応じてモデルの細かさが自動的に調整されます。

限界と仮定: 現状では高周波近似(レイ理論)に基づいており、滑らかな不均質構造を想定しています。

今後の展望: 有限頻度効果(Finite-frequency effects)を取り入れた感度カーネルの導入や、実体波(P波・S波)の走時データとの共同反転(Joint Inversion)への拡張が期待されます。これにより、地殻浅部におけるP波・S波両方の速度構造をより正確に制約できる可能性があります。

こちらも、数式を追うのに時間がかかりました。パスを計算する点や、1次元のインバージョンを介さないという点が新鮮です。



2026年3月18日水曜日

文献:3D Wave‐Equation Dispersion Inversion of Distributed Acoustic Sensing Data


AI要約
3D波動方程式分散インバージョン(3D-DAS-WD)法の解析手順
3D-DAS-WD法は、DASひずみデータに直接基づく3D波動方程式分散インバージョン手法であり、ひずみ成分を速度に変換する際の数値誤差を回避し、低SNR(信号対雑音比)のDASデータにおけるFull Waveform Inversion(FWI)の収束問題に対処することを目的としています。この手法は、浅い地表付近の地質構造を高分解能で3Dイメージングする能力を示しており、地下の空洞などの特徴を効果的に特定できます。

1. DASの基本原理とデータ取得
• DASの測定原理: 従来の地震計が粒子速度を測定するのに対し、DASは光ファイバーのゲージ長に沿ったひずみ速度を測定します。

2. 初期S波速度モデルの作成
• 解析の出発点として、初期S波速度モデルを準備します。このモデルは、反復的なインバージョンプロセスを通じて改善されていきます。

3. 予測ひずみ速度DASデータの順モデリング
• 作成した初期S波速度モデルを用いて、forward modeling を実行し、予測されるひずみ速度DASデータを生成します。この研究では、スペクトル要素法に基づく弾性モデリングコードSPECFEM3Dが使用されています。
• 計算される速度成分は、式(14)および(15)を使ってDASひずみ速度成分に変換されます。

4. 観測データと予測データの分散曲線の導出
• MASW として分散曲線を作成します。
• 分散曲線は、linear Radon transform を用いて計算された分散スペクトルの最大値に基づいて抽出されます。
• この研究では、各ショットから10度間隔で分散曲線が抽出されます。

5. 目的関数の定義と勾配の計算
• 目的関数(Objective Function): 3D-DAS-WD法は、観測された波数κobs (θ,ω)と予測されたDASデータ表面波分散曲線κ(θ,ω)の二乗差の合計を最小化します。目的関数Jは以下のように定義されます: 
J = (1/2) ∑θ ∑ω (κ(θ,ω) − κobs (θ,ω))^2
ここで、θは方位角、ωは周波数です。

• S波速度に対する勾配: S波速度s(x)に対する目的関数の勾配δ(x)は、以下の式で計算されます: 
δ(x) = ∂J / ∂s(x) = ∑θ ∑ω Δκ(θ,ω) (∂κ(θ,ω) / ∂s(x))

• Fréchet 微分の導出: Fréchet 微分 (∂κ(θ,ω) / ∂s(x)) は、予測データと観測データのk-ω領域における相関を示す接続関数(connection function)Φを用いて導出されます。これは、随伴状態法(adjoint state method)を使用して計算されます。最終的にS波速度 s を λ (ラメの第一定数) と μ (剛性率) に関連付けることで、Fréchet 微分が導出されます
∂κ(θ,ω) / ∂s(x)
 = − (1/A) R{∫ ∂D(g,ω)/∂s(x) D̂*obs(g,θ,ω) dg} 
 = − (1/A) R{∫⟨GR ∂u(g,ω)/∂s(x), D̂obs(g,θ,ω)⟩ dg}
= − 4ρs (∂κ(m) / ∂λ) + 2ρs (∂κ(m) / ∂μ) 

・∂κ(m) / ∂λ、∂κ(m) / ∂μは、 波場u(m)(合成地震計データ)とバックプロパゲーションされた残差u'(D̂∗obs(g,θ,ω)をソースとする)の内積の積分として表される。

6. 速度モデルの更新
• ステップ長の決定: safeguarded backtracking line search method を用いて、モデル更新のためのステップ長αが決定されます。
• モデルの反復更新: S波速度モデルは、計算された勾配とステップ長αを用いて、steepest-descent formula により反復的に更新されます。 ここで、

7. 収束判定と最終S波速度モデルの出力
• ステップ3から6のプロセスは、目的関数が指定された誤差閾値以下になるか、または最大反復回数に達するまで繰り返されます。
• 収束条件が満たされた後、最終的なS波速度インバージョンモデルが出力されます。

さすがにAI要約のみでは理解できず、数式を追うのに時間がかかりました。
DAS(1軸センサー)を利用して、どのようにレイリー波を取り出すか、取り出した後、どのようにインバージョンをかけると精度が落ちにくいか、という内容でした。地震分野の知識の蓄積を感じる文献です。
3次元解析を目的としてファイバーをクロスで張るなら、通常のピックを使った方が楽なように感じましたが。ま、一つの方法として覚えておきましょう。

2026年3月10日火曜日

文献:Classification of Stream Hyperconcentrated and Debris Flow

Classification of Stream, Hyperconcentrated, and Debris Flow Using Dimensional Analysis and Machine Learning - Du - 2023 - Water Resources Research - Wiley Online Library

AI要約

1. 背景
山岳地帯における極端な降雨は、土石流、高濃度流、常流といった激しい土砂流動を引き起こし、人命やインフラに深刻な脅威を与えます。しかし、これらの流動メカニズムの理解は、包括的な現場データの不足により不完全な状態にありました。従来の分類基準は主に体積堆積物濃度(Cs )に基づいていましたが、研究者によってその閾値が異なり、物理的な流動特性を必ずしも正確に反映していないという課題がありました。そのため、測定可能な水理・地形学的パラメータを用いた、より普遍的で客観的な分類手法の確立が求められていました。

2. 手法
本研究では、現場観測データと機械学習を組み合わせた物理的根拠に基づく分類フレームワークが採用されています。

前処理(無次元解析): 異なる地質や地形条件を持つサイト間のデータを比較可能にするため、観測データを無次元化しました。粒子衝突、流体粘性、乱流応力などの相対的重要性を評価するため、アインシュタイン数(無次元土砂流量)、サベージ数、バグノルド数など、計11個の無次元パラメータが算出されました。

機械学習手法: 分類アルゴリズムとしてサポートベクターマシン(SVM)が使用されました。特に、対数空間での境界を定義するために、べき乗則(パワーロー)カーネル関数に相当する対数変換を用いた非線形検索アルゴリズムが採用されています。

説明変数: 流動動態を最も効果的に反映する変数として、無次元流量(q∗  )とアインシュタイン数(無次元土砂流量、qs,∗  )の2つが選択されました。

1) データの収集源
現場観測データ: 中国の蒋家溝(Jiangjia Ravine)で1960年から2014年にかけて記録された5,085件の土石流データ、および小江(Xiaojiang River)で2009年から2010年に観測された34件の常流データが使用されました。

文献データ: アジア、アメリカ、ヨーロッパ、オセアニアの41の流域から、高濃度流および常流に関する1,035件のデータが収集されました。

2) 正解ラベル(流動タイプの分類)の付与
機械学習(SVM)の学習に不可欠な「どの流動タイプか」というラベル付けは、元の観測記録や文献における専門家の知見および現場観察の結果に基づいています。本研究では、それらの既存の分類が正確であると仮定して教師データとして採用しています。

3) 特徴量の作成(無次元化処理)
収集された生の観測データ(流速、水深、川幅、勾配、粒径など)をそのまま使うのではなく、異なる地形や地質条件でも普遍的に扱えるよう、11種類の無次元パラメータへと変換されました。

4) データの活用と検証
作成されたデータセットを用いてSVMによる境界の画定が行われました。なお、ラハール(火山泥流)のデータに関しては、SVMの境界作成(学習)には使用せず、得られたモデルの妥当性を確認するための検証用データとして独立して扱われています。

目的変数: 土石流(Debris flow)、高濃度流(Hyperconcentrated flow)、常流(Stream flow)の3つです。

3. 結果
境界の定義: q∗ とqs,∗ のフェーズダイアグラムにおいて、SVMにより各流動タイプを分ける2つのべき乗則境界(上部境界UBと下部境界LB)が導き出されました。

上部境界(Upper Boundary, UB)
分類: 土石流(Debris flow)と高濃度流(Hyperconcentrated flow)を区分します。この境界より上の領域では、粒子同士の衝突応力が流動動態を支配する土石流となります。
qs,∗ =0.12q∗^1.05
精度: 真陽性率(TPrate)0.999、F1スコア0.999と、極めて高い精度で土石流を識別可能です。

下部境界(Lower Boundary, LB)分類: 高濃度流(Hyperconcentrated flow)と常流(Stream flow)を区分します。この境界より下の領域は、土砂が主に水相の剪断力や乱流によって支持・輸送される「流体支配型」の流動(常流)となります。
qs,∗ =0.07q∗^0.96
精度: 真陽性率(TPrate)0.915、F1スコア0.891であり、上部境界に比べるとわずかに分類の曖昧さが残ります。

ラハールへの適用: 火山性の土砂流動であるラハールにこのフレームワークを適用したところ、ラハールは常流から土石流まで極めて広い範囲の流動動態を示すことが確認されました。

4. 考察
輸送メカニズムの違い: 土石流は主に粒子同士の衝突応力によって制御されるのに対し、高濃度流と常流は流体の粘性剪断や乱流応力によって土砂が支えられていることが物理的に裏付けられました。
堆積物濃度基準の限界: 、従来の堆積物濃度(Cs)のみに基づく基準では動的な流動特性を無視しており、誤解を招く可能性があります。判別が困難だった領域(0.1<Cs<0.4 など)においても、流動特性を反映した明確な分類が可能となりました。
提案された無次元流量-土砂流量スキームは、水理情報をより多く取り込み、輸送メカニズムをより効果的に反映できると結論付けられています。
実用性: このフレームワークは、現場での流量や流速の測定値から即座に流動タイプを判定できるため、砂防ダムの形式選定(土石流用のスリットダムか、洪水用の不透過ダムか)など、適切な防災戦略を立てるための定量的な参考指標となります。

観測値に基づき、無次元の特徴量を作成し、機械学習にかける。Traditional な SVM ですが、解釈性を優先することで上部境界、下部境界を見出すことが可能です。検知だと最適化に陥りがちですが、ドメイン知識を有する研究者らしい機械学習の使い方で、データサイエンスと呼べるのではないでしょうか。