2026年4月27日月曜日

AI コーディング

AIの助けを借りてコーディングし始めたころも「すごい」と思いましたが、今はAI主導でコーディングできるようになっています。あらためて「すごい」。これから何度驚かされるのでしょうか。

1年ほど寝かせていたコードですが、2週間ほどで問題点を見つけ、概ねそれらしく動くようになりました。その間、次々に露呈する問題に対して対策を施した文献を探し、実装し、試行したのはAIさんです。1年前と比べても、文献収集力、試行錯誤の効率が段違いです。仕事で使わない手はありません。

この時代、学生さんから見たら、AIを使ってもプログラムを書けないオジサンは老害に見えるかもしれませんね。経験ベースのオジサンたちが古いやり方を踏襲しようとすると、それだけでハラスメント?になるかもしれません。時代は繰り返す、でしょうか。昔も今も、このような構造は変わらないのでしょう。

さあ、コーディング問題は片付いたも同然です。寝かせていた子たちを起こしていきましょう。

Surface-wave dispersion spectrum inversion method applied to Love and Rayleigh waves

Surface-wave dispersion spectrum inversion method applied to Love and Rayleigh waves recorded by distributed acoustic sensingDAS surface-wave inversion | Geophysics | GeoScienceWorld

AI要約

1. 背景(問題点)

DASの特性と制約: DASは既存の光ファイバー網を利用して高密度な空間サンプリングを低コストで実現できる技術ですが、標準的な直線状ケーブルでは主にケーブル軸方向の動的ひずみを記録します。
波の分離の困難さ: 軸方向の成分のみを記録するという特性上、レイリー波とラブ波を分離することが困難です。
従来手法の限界: 従来の表面波解析(分散曲線解析)では、震源とケーブルを一直線上に配置する「インライン」観測で得られる純粋なレイリー波(またはラブ波)のみを扱うのが一般的でした。
クロスラインの問題: 震源がケーブルの延長線上にない「クロスライン」配置では、レイリー波とラブ波が混在して記録されるため、標準的な手法では正確なモデル化ができませんでした。これを解決するために特殊なケーブルやアレイを用いると、導入コストが大幅に増大するという課題がありました。

2. 手法

本研究では、分散曲線を抽出する代わりに分散スペクトル(周波数-位相速度領域)を直接インバージョンする手法を提案しています。
データ処理(観測スペクトルの構築)
スラントスタック法: 多チャンネルの記録をフーリエ変換で周波数領域に変換し、位相速度を仮定した位相シフトを与えて重ね合わせることで、分散スペクトルを構築します。振幅の変動を抑えるための正規化も行われます。

フォワードモデリング(理論スペクトルの生成)
モード集約法(Modal Summation Method): 推定された地下構造モデル(Vs,Vp,ρ、層の厚さ)に基づき、各受振器位置における放射方向(radial)と横方向(transverse)の変位記録を算出します。
DAS記録への変換: 計算された変位を、震源と受振器の方位角に基づいてケーブル軸方向の変位へと線形結合します。
ひずみとゲージ長の考慮: 得られた変位記録に1次中心差分を適用することで、DASが記録する「動的ひずみ」へと変換します。この差分をとる距離が実際のDASのゲージ長に対応します。
スペクトル化: この理論波形に対しても観測データと同様のスラントスタック法を適用し、理論的な分散スペクトルを生成します。

最適化
遺伝的アルゴリズム(GA): 観測スペクトルと理論スペクトルの差(二乗平均平方根誤差)を最小化するように、遺伝的アルゴリズムを用いて最適なS波速度(Vs)モデルを全域的に探索します。

3. 結果

数値シミュレーション: クロスライン配置(混合波)のデータからでも、インライン配置と同等の精度でVs構造を復元できることが確認されました。
低速度層(LVL)の検出: ラブ波に含まれる低周波成分が追加の制約を与えるため、レイリー波単独(インライン)の解析よりも地下深部や低速度層を正確に復元できることが示されました。
実データへの適用: ネバダ州の地熱地帯(PoroTomoプロジェクト)のアクティブ震源および環境ノイズ(NCF)データに適用した結果、異なるデータセットや観測配置の間で一貫性のある地下構造モデルが得られました。

4. 考察

観測設計の柔軟性: 本手法により、震源を必ずしもケーブルの直線上に配置する必要がなくなり、既存の通信用光ファイバー(ダークファイバー)を活用した調査が容易になります。
データ利用効率の向上: 従来は解析が困難だった混在信号を有効活用できるため、利用可能なデータ量が増大し、より高解像度な地下イメージの構築が可能になります。
パラメータ感度:密度の不確実性が解析結果に与える影響は5%未満と極めて限定的です。
P波速度(Vp) については、未固結堆積物では影響が小さいですが、固結した岩盤では誤差が最大20%に達する場合があるため、必要に応じてVp も同時にインバージョンに含めるべきです。
ロバスト性: スラントスタック法はインコヒーレントなノイズを抑制する効果があり、10〜20%程度のノイズが含まれるデータや、10〜15度程度の地形勾配がある場合でも、浅部構造については安定した結果が得られます。

分散曲線を抽出する必要がなく、また Love, Rayleighを気にしなくて良いので、叩く位置をファイバーから外せます。微動計の上を叩いているようなもので、すぐに飽和しちゃいますからね。
この程度ならすぐに組めそうです。

2026年3月28日土曜日

地上開度 その2

久しぶりに地上開度を求めることになりました。

以前の記録を見ると、15年ぶりです。その間、利用することはありましたが、自分の手で作ることはありませんでした。

ArcGIS pro v3.6 を確認しましたが、未だ作成機能は実装されていません。国外製品に実装されないということは、国内限定の指標なのでしょう。

今回は python でArc 用のツールボックスを作って計算してみました。
で、上記 QGIS v3.40  (アドイン:Processing Saga NextGen Provider) との結果の比較段階で、相違に気づきました。

SAGA の Morphometric Protection Index は仰角(水平からの上向きの角度 [radian])です。地上開度(鉛直からの角度)に変換すると、水平:MPI 0度→開度90度となります。水平から下向きの見下ろし角は無視されているため、痩せ尾根や山頂などでも最大90度、平野や滑走路のような広い水平場所でも90度となります。
一方で、地上開度の論文では水平から下向きまで考慮されており、90度以上の値をとります。

NoData 周辺の取り扱いも注意が必要です。特に池や湖。今回は1探索方向の全セルが NoData の場合は90度に設定し、その後に8方向平均をとりました。その方向の探索をやめるとか、8方向平均をとらずに NoData 扱いにするとか、いくつかの考え方があると思います。どのような処理をされたデータなのか、確認が必要です。

15年前はこれらの点に気づいていませんでした。もらった開度データに関しても、どの範囲をとっていたかまで見ていませんでした。今回のように論文を見て実装するなど、手を動かさないとダメでした。
基本、開度を自動で計算できるツールは存在していませんので、頂くデータに関しては、作成手法とデータの範囲に留意しましょう。

*********************************************
20260329 追記
地上開度を計算するArcGIS  pro 用の Python toolbox (.pyt) を GitHub の Public リポジトリに置きました。

2026年3月23日月曜日

文献:Real-time lithology identification while drilling based on drilling parameters analysis with machine learning

Real-time lithology identification while drilling based on drilling parameters analysis with machine learning | Geomechanics and Geophysics for Geo-Energy and Geo-Resources | Springer Nature Link

AI要約

1. 背景
石炭鉱山における災害(斜面崩落、ガス突出など)の防止やガス抽出の効率化には、正確な地層(岩相)情報が不可欠です。従来の技術では、技術者が掘り屑(カッティングス)の色や形状を目視で確認していましたが、精度が低く、個人の経験に依存するという課題がありました。近年、振動、音響、画像解析を用いたAI手法も研究されていますが、地下の過酷な環境やノイズの干渉により、実用化には至っていませんでした。特に、「ドリルストリングの摩擦抵抗」が掘削データに与える影響や、膨大なデータのリアルタイム処理が、機械学習を導入する上での大きな障壁となっていました。

2. 手法
研究チームは、以下のハードウェア、前処理技術、機械学習アルゴリズムを組み合わせたシステムを構築しました。

掘削機(スマート掘削リグ): MWD(Measurement While Drilling)システムを搭載した自走式スマート掘削リグを開発しました。姿勢制御、ロッド操作、遠隔制御の各サブシステムを備え、掘削データを自動的に記録します。また、地下のリグと地上のワークステーションを専用ネットワークで結ぶ遠隔データ処理プラットフォームにより、大規模なデータのリアルタイム解析を可能にしました。

前処理:
高速データ検索: 掘削ステータスを14のコード(掘削、ロッド接続など)に分類し、膨大なデータから有効な掘削情報を即座に抽出します。
摩擦検知と補正: ドリルストリングの座屈(バックリング)安定性解析を行い、座屈が起きない条件下でビットが岩石を破壊していない時の負荷を計測して、摩擦抵抗を自動検知します。
データクリーニング: 部品の起動・停止時に発生する「衝撃」などの無効な信号をフィルタリングして除外します。

機械学習手法: 複数のアルゴリズムを組み合わせる「ソフト投票型アンサンブル学習」を採用しました。個別の識別器として、SVM(Quadraticカーネル)、決定木(Medium Tree)、KNN(Fine KNN)、ニューラルネットワーク(Bilayered NN)の4つを統合し、それぞれの予測確率の重み付き平均から最終的な結果を出力します。

説明変数(入力パラメータ): 補正後の推力(Thrust)、トルク(Torque)、および貫入速度(ROP)、回転数(RPM)の4種類を使用します。

目的変数: 石炭 or 岩石(2値分類)

識別結果の継続性を分析(10セットごとのデータ群で判定)することで、さらに精度を高める手法を導入しています。

3. 結果
識別精度: アンサンブル学習モデルは、テストデータに対して98.79%という極めて高い岩相識別精度を達成しました。
掘削効率の向上: 識別された岩相に合わせて掘削パラメータ(回転数や推力)を最適化した結果、従来のシステムと比較して純掘削効率が18.12%向上しました。
省人化: 従来3人で行っていた作業を1人に削減できる可能性を示し、コスト削減と安全性の向上に寄与しました。

4. 考察
本研究の鍵は、ドリルストリングの摩擦をリアルタイムで検知し、掘削データを補正したことにあります。これにより、地層情報とパラメータの相関性が大幅に強化されました。また、地上と地下をシームレスに結ぶデータプラットフォームが実用性を支えています。
 一方で、課題も残されています。現在のモデルは単一のデータソースに基づいているため、地質条件が大きく異なる地域への適用には限界があります。今後は、掘り屑の画像や掘削振動など、複数の情報を統合した「マルチソース情報」による学習を行うことで、汎用性と精度のさらなる向上が期待されています。

TBM, ドリルジャンボなどと同様に、ノンコアボーリングでもトルクや速度をロギング可能であれば、このような使い方ができるのでしょう。地質を知りたい場合はボアホールカメラを後で挿入すれば良いだけです(実際、数m~10mピッチでノンコアボーリングを実施し、ボアホールカメラから柱状図を作成した経験があります)。ボーリングの数を必要とする場合には、有効な手段でしょう。

機械学習よりも掘削機の方が主要な成果です。既にデータさえあれば分析ができる環境が整っていますので、あとは良いデータを集めるだけですから。


文献:Automated geotechnical logging of core box images using machine learning

Automated geotechnical logging of core box images using machine learning: CIM Journal: Vol 16 , No 1 - Get Access

AI要約

背景
地質工学的な不確実性を低減するためには、信頼性の高いデータの量を増やすことが不可欠です。しかし、初期段階のプロジェクトでは、高品質な地質工学用ボアホールの数は限られており、大部分を占める探査用ドリルのデータは品質が不安定なRock Quality Designation (RQD)などに限定されています。また、探査用の実物コアは、分析のために分割されたり、経年劣化や廃棄によって利用できなくなることが多く、コア写真のみが唯一の信頼できる情報源となることが多々あります。従来のコア写真の再ロギングは、時間がかかるだけでなく、ロガー(記録者)の主観やバイアスに影響されやすいという課題がありました。これらの課題を解決し、大量の既存コア写真を客観的かつ効率的にデータ化するため、機械学習を用いたワークフローが開発されました。

手法
機械学習手法: ディープラーニングの一種であるMask_RCNN(畳み込みニューラルネットワーク)が使用されています。これは、画素を自動的に分類・グループ化して特徴マップを作成し、分類を行うモデルです。

前処理:50〜100枚程度のコア画像に対し、各カテゴリーを表すセグメントをポリゴンで囲んでラベル付けを行います。データセットはトレーニングセットと検証セットに分割され、モデルの評価と調整が行われます。
コアの列を特定し、画像を直線化(リニアライズ)して深度を参照するための別のモデルも利用します。

説明変数(入力データ): コア箱のカラー写真です。一貫した照明と色バランスで撮影された写真が、トレーニングに適しています。

目的変数(分類指標): 以下の3つのシステムが開発されました。
Core Damage Index (CDI): コア径に対する砕屑物の平均サイズに基づき、岩盤の状態を5つのカテゴリーに分類します。

  • クラス1: 砕屑物のサイズがコア径の2倍より大きい(> 2x)。従来のRQD(岩質指標)に相当する良好な状態です。
  • クラス2: 砕屑物のサイズがコア径の1〜2倍(1 - 2x)。SCR(固体コア採取率)に相当します。
  • クラス3: 砕屑物のサイズがコア径の0.5〜1倍(0.5 - 1x)。
  • クラス4: 砕屑物のサイズがコア径の0.25〜0.5倍(0.25 - 0.5x)。
  • クラス5: 砕屑物のサイズがコア径の0.25倍未満(< 0.25x)。これには角礫(breccia)、砂、ガウジ(gouge)などが含まれます

Pseudo-RQD(擬似RQD): コア画像上の割れ目と破砕帯(ラブルゾーン)をマッピングして計算されます。自然な不連続面(割れ目)と掘削時などの機械的な破壊を区別しないため、従来のRQDと区別するために「Pseudo」と呼ばれています。
Break Frequency(割れ目頻度): Pseudo-RQDと同様に、割れ目の数から推定されます。

ポストプロセッシング: 5cm未満の間隔のフィルタリング、同じクラスの連続する間隔の結合などのクレンジング処理を経て、以下を表形式でエクスポートします。

  • ホール名(ボアホールID)
  • 開始深度・終了深度(インターバル)
  • 割り当てられたクラス(CDIクラスなど)
  • 該当するコア写真への参照

Leapfrog Geoなどのソフトウェアにこれらのデータをインポートすることで、以下のような高度なモデリングが可能になります。

  • 地質工学ドメインモデルの構築: 抽出されたCDI(コア損傷指数)やPseudo-RQDデータを、地質、構造、岩盤、水理地質の各コンポーネントモデルを構築するためのインプットとして使用します。
  • 断層帯の詳細なモデリング: CDIは5cm単位という非常に高い解像度でデータを生成できるため、断層の核(コア)と損傷帯(ダメージゾーン)を明確に区別し、断層の幅を正確に3D空間で評価できます。
  • 岩盤の変動性の可視化: 従来の1.5m間隔のRQDでは捉えきれなかった岩盤内の細かな品質変化を、3D空間上で連続的に表現できるようになります。

結果
高解像度なデータの取得: CDIを用いることで、従来の1.5m間隔のRQDロギングと比較して4倍以上の高解像度で地質工学的特徴を捉えることが可能になりました。

客観性の確保: ロガーの主観を排除し、砕屑物サイズという客観的な基準で分類することで、一貫したデータセットを構築できました。

損傷の識別: 掘削時の機械的な損傷と、断層核や断層損傷帯のような地質学的な損傷を区別しやすくなり、構造モデリングや水理地質モデリングに貢献するデータが得られました。

考察
客観性の重要性: 機械学習は、主観的な入力が増えるほど、信頼性を維持するために必要な学習データ量が指数関数的に増加します。そのため、RQDのような主観的な判断(自然な割れ目か機械的な破壊かの区別など)を伴う指標は、自動化には不向きであると指摘されています。

デジタル化の限界: コア写真からは岩石の強度や、画像に現れない微細な割れ目の表面状態などを特定することはできません。したがって、この自動ロギングは経験豊富な技術者による詳細なロギングを完全に置き換えるものではなく、既存の膨大なデータを補完するためのツールとして位置づけられます。

モデルの汎用性: 特定の堆積物や条件に過剰適合(オーバーフィッティング)することを避けるため、分類システムを一般化し、客観的な基準(コア径に対する砕屑物サイズなど)を採用することが、信頼性の高いMLモデル構築の鍵となります。

まず思ったのは、オペレータさんによってコアの品質が異なるため、実務に適用するには壁があるだろうな、という点でした。毎回腕の良い、費用の高いオペさんに掘ってもらうことはできないのでしょう。時々、ボロボロのコアに出会うことがありました。
品質を保ちつつ利益を出すというのは企業にとって当たり前のことですが、担当者レベルになるとExecutivesからの圧力もあり、利益が優先される場合があります。これに盾突いて品質を優先する技術者は(程度にもよりますが)、まず民間企業では偉くなれません。結果、利益や株主優先の企業が出てくるのでしょう。

3次元モデラーに入力できるようにしている点は、さすがです。疑似RQDなど、やや品質が落ちたとしても、多数の孔のデータを自動マッピングできるのは基図としてはありがたいと思います。AIに解釈させた結果を提示させるのではなく、画像上の客観的事実のみをAIにより高解像度で提示させたら、後は技術者の仕事です。おかしな点は技術者がログをまとめるなり、モデリングするなりの過程で気づくと思います。

多くのボーリングを整理する必要に迫られた場合、なかなか有向かもしれません。

2026年3月22日日曜日

文献:Machine learning for drill core image analysis

Machine learning for drill core image analysis: A review - ScienceDirect

AI要約

1. はじめに:鉱物探査におけるドリルコアの重要性と機械学習の台頭
世界的な原材料需要の増加、特に再生可能エネルギーへの移行に伴う戦略的原材料の確保が急務となる中、鉱物探査プロセスの効率化が求められています。ドリルコアは、地下の地質状態を物理的に保存した最も直接的な記録であり、その解析(ロギング)は探査の根幹をなします。
近年、このドリルコア写真をデジタルデータとして機械学習(ML)で解析する試みが急速に進化しています。ドリルコア写真は、低コストかつ迅速に撮影可能で、岩相、変質、鉱物、層序、地盤工学的特徴といった多様な視覚的指標を保存しているため、MLの入力データとして非常に魅力的です。

2. 機械学習が取り組む3つの主要な地質学的タスク

① 岩相予測(Lithology Prediction)
岩石の種類(砂岩、大理石、玄武岩など)を分類するタスクで、最も研究が進んでいます。
手法と精度: 畳み込みニューラルネットワーク(CNN)が主流であり、ResNetやGoogLeNetなどのアーキテクチャを用いた研究では、90%から96.7%という極めて高い正解率が報告されています。
技術的アプローチ: 多くの場合、ImageNetで学習済みのモデルをドリルコアデータで微調整する「転移学習」が用いられます。
課題: 砂岩と石灰岩のように視覚的に酷似した岩石の判別には限界があり、人間による化学テスト(塩酸反応など)を代替するには至っていません。

② 地盤工学的解析(RQD/FS推定)
岩盤の品質指標(RQD)や亀裂間隔(FS)を推定するタスクです。
成果: モデルによる推定誤差は手動測定に対して±2.5〜3%以内に収まり、処理速度は人間の約1800倍に達する可能性があるとされています。
汎用性: 亀裂や破砕帯といった構造的特徴は、岩石の種類よりも普遍的なパターンを持つため、最も自動化や汎用化に適した領域と考えられています。

③ 鉱物予測(Mineralogical Prediction)
画像テクスチャ(質感)から特定の鉱物の含有量や品位を推定します。
手法: 従来のテクスチャ記述子(LBPやGLCMなど)を用いる手法と、CNNを用いる手法があります。
複雑性: 鉱物学的性質は微視的なスケールで決定されることが多いため、画像というマクロな視覚情報から推測するこのタスクは、3つの中で最も抽象度が高く困難です。

3. 技術的・実務的な主要課題と議論
研究レベルでの高精度とは裏腹に、実務への完全導入にはいくつかの大きな壁が存在します。

汎用化の壁(Generalization): ある現場で学習したモデルを別の現場や地域に適用すると、精度が著しく低下します。これは、同じ岩相でも地域によって見え方が異なるためです。
データの一貫性と主観性: 地質学者が作成する「正解ラベル」自体に主観が含まれており、専門家間でのラベル不一致(label non-agreement)がモデルの学習を阻害しています。
データの不均衡: 自然界では特定の岩相や希少鉱物は少なく、データが偏っているため、稀なケースをAIが学習しにくいという本質的な問題があります。
スケールの不一致: AIが数ミリ単位で予測を行うのに対し、地質学的な解釈はメートル単位の連続性を重視します。このギャップを埋めるための「予測結果の平滑化(smoothing)」などの後処理が重要視されています。

4. 将来展望:自動化から「コンテキスト認識型アシスタント」へ
ヒューマン・イン・ザ・ループ(HITL): AIが予測を行い、不確実な箇所のみを人間が修正し、その結果をAIが再学習する「地質学者・イン・ザ・ループ」のサイクルが提案されています。これにより、現場固有の文脈(コンテキスト)を効率的にモデルに教え込むことができます。
コンテキスト認識: 空間的な地質モデルや層序学的な知識をMLの制約条件として統合することで、「古い岩石の上に若い岩石があるのは不自然」といった地質学的妥当性を持った予測が可能になります。
ベンチマークの必要性: 異なるモデルを公平に比較するため、多様な地質環境を網羅した「標準的なデータセット群(ベンチマーク・スイート)」の構築が提案されています。

結論として、機械学習は地質学者の仕事を奪うものではなく、解釈の矛盾を指摘したり、膨大なルーチンワークを高速化したりする「高度な助手」へと進化していくことが期待されています。

ルレオ工科大学(スウェーデン)の研究者を中心とし、スウェーデンの大手鉱業企業であるBoliden Mines の実務家が加わった、学術界と産業界の多角的な専門家チームによって執筆されています。レビューなので新たな知見や目新しい手法がないのは仕方ありませんが、それでもHITLの方針はやや残念。いえ、私も(手を抜いて)失敗しましたし、現状では納得なのですが、この壁を破る必要があります。ま、要素ごとに解決して組み合わせる、いずれ丸っとログを吐かせるなどの手法は時間の問題でしょう。
https://phreeqc.blogspot.com/2025/04/blog-post.html

さらに、TBMのようにボーリングマシンでもデータをとれるような仕組みを考え、そのデータを柱状図作成用の機械学習モデルに取り込み、3次元地質モデルを推定させる段階までは、近い将来可能でしょう。要素技術としては既に存在するため、難しくはないと思います。

国内ではこのようなコアに対する機械学習モデルやデータセットを公開しようといった動きを聞きませんし、機械学習自体を使えない技術者たちが Executives になりつつあるため、当面は遅れたままでしょう。ビジネスチャンスではあるので、フットワークの軽い企業は文献に紹介されているような要素技術を商品として宣伝を始めるでしょう。そういった企業がやがて地質の機械学習に関する老舗となり、時代が追い付いた段階でに優位に立てるのかもしれません。


2026年3月21日土曜日

文献:Automated classification of drill core photographs

Automated classification of drill core photographs: A complete workflow for weakly supervised training - ScienceDirect

AI要約

1. 背景
鉱物探査において、地質学者がコアを視覚的に検査することは伝統的な手法ですが、分類が部分的で主観的になりやすく、専門家によって結果が異なるという課題があります。近年、深層学習(CNNなど)を用いた自動予測が注目されていますが、学習に必要な大量のラベル付きデータを作成するには多大な時間と労力が必要です。本研究は、最小限のラベル付けで効率的に岩石を分類できる完全なワークフローを構築することを目的としています。

2. 手法
本手法は、以下の5つの手順で構成されています。

前処理 (Preprocessing)
レンズ歪み補正: 広角レンズによる「樽型歪み」を補正し、その後の直線検出の精度を高めます。
コア箱の分離: 木製のコア箱から岩石コア部分を分離するため、Cannyエッジ検出やモルフォロジー演算(膨張、収縮、オープニングなど)を用います。
細分化 (Slicing): 分離されたコア画像を、解析に適した標準的なサイズ(300×60ピクセル、実寸約18cm長)に分割します。

機械学習手法

自己組織化マップ(SOM)によるクラスタリングとラベル付け
SOMは、高次元のデータを視覚的に理解しやすい低次元(通常は2次元)の格子状マップに変換する「トポロジー保持型」の無向ニューラルネットワークです。
仕組みと構造: 抽出された96個の特徴量(色記述子48個、テクスチャ記述子48個)を入力として使用します。これを10×10(合計100個)のニューロン格子に投影します。
トポロジーの保存: 色や質感が似ている画像は、マップ上でも物理的に近いユニットに配置されます。この性質により、数万枚の画像を1枚ずつ確認するのではなく、似た画像が集まった「クラスター」ごとに効率よく処理できます。
効率的なラベル付け: 地質学者は各ノードから代表的な画像(例:各ノードからランダムに選ばれた5枚)を確認し、そのクラスター全体に対して「漂白」や「片麻岩」といった地質学的なラベルを割り当てます。これにより、数時間という短時間で、数千から数万枚規模の学習用データセットを作成することが可能になります。

深層学習モデル:ベースラインとVGG16
ベースラインモデル (Baseline Model):
本データセットに合わせて開発されたシンプルな3層の畳み込みニューラルネットワーク(CNN)です。
構造: 3つの畳み込みブロック(サイズ32, 32, 64の3×3カーネル、ReLU活性化関数)で構成され、各層の後にバッチ正規化とマックスプーリングが適用されます。最後にソフトマックス活性化関数を持つ全結合層が配置されています。
VGG16: ImageNetデータセットで事前学習された、13層の畳み込み層と5層のマックスプーリング層を持つ非常に深く複雑なアーキテクチャです。
手法: 転移学習(Transfer Learning)のアプローチを採用し、最後の全結合層のみを今回の岩石データで訓練しました。
比較の結果: いずれの地質ドメインにおいても、複雑なVGG16よりもシンプルなベースラインモデルの方が高い精度を示しました。

半教師あり学習(Mean Teacher)
ラベル付きデータが不足している場合に、ラベルのない大量の画像を有効活用して学習の安定性と精度を高める手法です。
「生徒」と「教師」の2モデル構造: 同じ構造を持つ「生徒(Student)」モデルと「教師(Teacher)」モデルを使用します。
一貫性コスト (Consistency Cost): 同じ画像に対して、それぞれ異なるランダムなノイズ(輝度変化や反転など)を加えて両方のモデルに入力します。「滑らかさの仮定(Smoothness Assumption)」に基づき、小さな摂動(ノイズ)を加えても予測結果は変わらないはずであるため、2つのモデルの予測結果の距離(平均二乗誤差:MSE)を一貫性損失として計算し、これを最小化するように学習します。
重みの更新: 生徒モデルは通常の学習(損失関数の最小化)を行いますが、教師モデルの重みは、生徒モデルの過去の重みを指数移動平均(EMA)で反映させることで、より安定した「smoothed(平滑化された)」モデルとして機能します。
利点: 特にサンプル数が極端に少ないクラス(例:ダイアテクサイト)や、複雑な結晶質岩(基盤岩)の分類において、精度の向上に寄与しました。

説明変数 (Explanatory Variables / Features)
色情報: 3Dカラーヒストグラム(RGB空間)から抽出した512個の記述子を、主成分分析(PCA)で48個に圧縮して使用します。
テクスチャ情報: ガボールフィルタ(Gabor filters)を用いて、24通りの畳み込み演算から平均と標準偏差を算出し、計48個の特徴量を取得します。

目的変数 (Objective Variables / Target)
地質学的ドメインごとに以下のクラスを設定しています。
盆地(堆積岩): 漂白(Bleached)、部分除去(Partial removal)、ヘマタイト化(Hematized)、非コア(Non-core)。
基盤岩(結晶質岩): 片麻岩(Gneiss)、メタテキサイト(Metatexite)、ダイアテクサイト(Diatexite)、ペグマタイト(Pegmatite)、非コア。

評価関数 (Evaluation Function)
教師あり学習: カテゴリカル・クロスエントロピーを損失関数として使用します。
半教師あり学習: 教師あり損失(クロスエントロピー)と、教師モデルと生徒モデルの予測の一致度を示す「一貫性損失(MSE:平均二乗誤差)」の合計を最小化します。

3. 結果
盆地サブセット: ベースラインモデルを用いた教師あり学習で、0.932という最も高い分類精度を達成しました。
基盤岩サブセット: 半教師あり学習(Mean Teacher)を採用したベースラインモデルが0.751の精度で最高の結果となりました。
いずれのケースにおいても、複雑なVGG16よりシンプルなベースラインモデルの方が高い精度を示しました。

4. 考察
精度の差: 基盤岩の精度が盆地より低いのは、岩相の複雑さ、特定のクラス(ダイアテクサイト)のサンプル不足(40サンプル)、および変成度の変化が連続的でクラス間の境界が曖昧であるためです。
バイアスの軽減: SOMを用いたクラスタリングにより、地質学者の主観による「オペレーター・バイアス」を一貫したアルゴリズムで補完し、再現性の高い分類が可能になります。

今後の展望: 照明条件の統一や、Segment Anything Model (SAM)のような高度な画像分割手法を導入することで、さらなる精度の向上が期待されます。

まだコアを分けるという段階で、柱状図を作ることはできません。ラベリングの手間をなくすためにクラスタリングを利用するという主張はよく見ますが、経験的には正確ではない場合が多くあります。いずれも発展途中なのでしょうが、いずれ解決すると思います。