arXiv雑要約

AI - 2026/05/12 公開

  • 安全な生成AIのためのコンセンサスサンプリング [cs.AI, cs.LG]目的:生成AIの安全性向上
    • 生成AIの応用拡大に伴い,潜在的なリスクへの対策が不可欠である。
    • 生成AIは,検知困難なリスクを抱えており,安全性の保証が課題である。
    • 複数の確率分布を統合することで,安全性を高める手法を提案する。
    • コンセンサスサンプリングは,k個の分布に対し,最も安全なs個の分布の平均リスクと同程度の性能を発揮する。
    • 十分な合意が得られない場合は棄権することで,リスクを抑制する。
    • 本手法は,モデルに依存しない安全性確保のアプローチであり,R-robustnessにより情報漏洩や敵対的影響も抑制される。

    Link: https://arxiv.org/abs/2511.09493

  • KLダイバージェンスの適応的対称化 [cs.CY, cs.LG]目的:KLダイバージェンスの対称性を適応的に調整する手法
    • 確率モデルの学習において,KLダイバージェンスは広く利用されており,その性能が重要である。
    • KLダイバージェンスの非対称性により,汎化性能の低い解が得られる可能性がある。
    • KLダイバージェンスの対称性を改善し,安定かつ高精度な学習を実現することを目指す。
    • 提案手法は,ジェフリーズダイバージェンスを非敵対的に最小化するアプローチを採用している。
    • 逆KLダイバージェンスを近似するプロキシモデルを導入し,実用的なアルゴリズムを構築した。
    • 密度推定やシミュレーションベース推論において,MLEやGANよりも優れた安定性と精度を示した。

    Link: https://arxiv.org/abs/2511.11159

  • 強化学習におけるデータメンバーシップ監査:検証可能な報酬を用いた手法 [eess.SY, cs.SY, cs.CR, cs.AI, cs.CL]目的:強化学習におけるデータメンバーシップ監査の実現
    • 大規模言語モデルの性能向上に強化学習が不可欠であり,その信頼性確保が重要である。
    • 強化学習で使用されるプロンプトセットの不正利用が懸念されるが,監査手法は十分ではない。
    • 検証可能な報酬を用いた強化学習におけるデータ露出を検出し,監査を可能にすること。
    • 検証可能な報酬を用いた強化学習は,モデルの応答分布を変化させ,行動の痕跡を残すことが示された。
    • 提案手法DIBAは,報酬とポリシーの両側面から変化を捉え,高い監査精度を達成した (AUC 0.8程度)。
    • 学習後のプロンプト特有の痕跡が残っている場合や,ベースモデルの性能が低い場合に,監査はより効果的である。

    Link: https://arxiv.org/abs/2511.14045

  • 生成敵対的後学習がライブ人間-AI音楽インタラクションにおける報酬ハッキングを軽減する [cs.LG, cs.SD]目的:ライブ音楽セッションにおける報酬ハッキングの軽減
    • 生成AIの応用範囲拡大に伴い,リアルタイムな協調と適応が求められる場面が増加している。
    • 強化学習による後学習では,報酬に基づく一貫性追求が多様性の低下を招く「報酬ハッキング」が課題である。
    • 音楽セッションにおける創造性を維持するため,報酬ハッキングを抑制し多様性を確保する手法を開発する。
    • 敵対的学習により,ポリシーが生成する軌跡とデータ分布を識別する識別器を共進化させることで,報酬ハッキングを軽減。
    • シミュレーションおよびユーザー調査の結果,出力の多様性,調和的一貫性,適応速度,ユーザーの主体性が向上。
    • 本手法は,生成シーケンスモデルの強化学習による後学習における報酬ハッキング軽減に有効であることが示された。

    Link: https://arxiv.org/abs/2511.17879

  • プライベート学習のための行列分解を用いた学習率スケジューリング [cs.LG, stat.ML]目的:プライベート学習における学習率スケジューリングと相関ノイズ
    • プライバシー保護と機械学習の連携が重要視され,差分プライバシー技術が注目されている。
    • 差分プライバシー学習では,ノイズ付加による精度劣化が課題となっている。
    • 学習率スケジューリング下での精度劣化を抑制し,プライベート学習の効率化を目指す。
    • 行列分解を用いた相関ノイズが精度向上に寄与するが,従来の理論研究は定数学習率を前提としていた。
    • 本研究では,幅広い学習率スケジューリングに対する上限と下限を導出し,その差を解消した。
    • 学習率を考慮した行列分解を提案し,MaxSEとMeanSEの両方で既存手法を上回る性能を示した。

    Link: https://arxiv.org/abs/2511.17994

  • MapFormer:入力依存型位置埋め込みによる認知マップの自己教師あり学習 [cs.RO, cs.SY, eess.SY, math.DS, cs.LG, cs.CL]目的:認知マップの学習
    • 人間や動物が示す状況適応能力の基盤であり,AIの汎化性能向上に不可欠な研究分野である。
    • 現在のAIシステムは,未知の状況への対応能力(OOD汎化)において限界がある。
    • 観測データから認知マップを学習し,教師なしで経路積分を行う新たなモデルを開発すること。
    • MapFormerは,既存のAIアーキテクチャを大きく上回り,OOD汎化性能においてほぼ完璧な結果を示した。
    • 絶対位置と相対位置のエンコーディングを統合することで,エピソード記憶とワーキングメモリをモデル化することに成功した。
    • 自然なデータを用いた評価でも,perplexityの改善が確認され,大規模な実世界への応用可能性を示唆している。

    Link: https://arxiv.org/abs/2511.19279

  • BRIDGE:ドメインガイド型プログラム合成における表現の構築 [eess.SY, cs.SY, cs.LG, cs.PL]目的:ドメインガイド型プログラム合成のための構造化プロンプトフレームワーク
    • 形式検証の重要性が増しており,プログラムの信頼性確保が不可欠である。
    • プログラム合成において,実行可能コード,形式仕様,定理文,証明試行の一貫性確保が課題である。
    • 複数のドメイン間の連携を強化し,検証済み合成の規模拡大を目指す。
    • BRIDGEフレームワークは,コード,仕様,定理/証明の3つのドメインを相互に接続することで,Leanにおける実行可能なコードの正答率を最大1.5倍向上させた。
    • 仕様重視のプロンプトは,Pythonのパス率を最大17.5パーセントポイント改善した。
    • BRIDGEスタイルの推論トレースによる教師ありファインチューニングは,コードのみのファインチューニングよりもLeanのパス成功率を約1.5倍向上させた。

    Link: https://arxiv.org/abs/2511.21104

  • 合成表形式データに対するロバストなスペクトルウォーターマーク [cs.CR, cs.LG]目的:合成表形式データのトレーサビリティ確保
    • 生成AIの発展に伴い,データの出所管理が重要視されている。
    • 既存手法は計算コストが高い,混合データに対応できない,攻撃に弱い。
    • 効率的かつロバストなウォーターマーク手法を提案し,問題を解決する。
    • 提案手法TAB-DRWは,周波数領域にウォーターマークを埋め込むことで,効率性とロバスト性を実現した。
    • Yeo-Johnson変換と標準化により異種特徴量を正規化し,DFTを用いて処理する。
    • 実験により,TAB-DRWは高い検出率とロバスト性,データ品質を維持することが示された。

    Link: https://arxiv.org/abs/2511.21600

  • 依然としてカウントは重要である:クエリ緩和によるニューラル複雑質疑応答の理解 [cs.AI, cs.DB, cs.LG]目的:知識グラフに対する複雑質疑応答におけるニューラルモデルの学習パターン
    • 知識グラフは大規模な事実の集合であり,高度な推論を必要とする質問応答に不可欠である。
    • 既存のニューラルCQAモデルは複雑である一方で,その推論能力がクエリ緩和に及ばない場合がある。
    • ニューラルCQAモデルの性能を評価し,クエリ緩和の重要性を再認識すること。
    • ニューラルCQAモデルとクエリ緩和戦略の性能を比較した結果,一貫してニューラルモデルが優位性を示すことはなかった。
    • 両者の回答には重なりが少なく,組み合わせることで性能が向上することが示された。
    • この結果は,ニューラル質疑応答の進歩を再評価する必要性を示唆している。より強力な非ニューラルベースラインの必要性も示唆される。

    Link: https://arxiv.org/abs/2511.22565

  • 自由形式言語によるヒューマノイドの制御:統一された動作語彙を持つ大規模言語行動モデル [cs.RO, cs.AI]目的:ヒューマノイドロボットに対する自由形式の自然言語コマンド追従
    • 人間とロボットの円滑な対話や汎用的な具現化AI実現には不可欠な研究分野である。
    • 既存手法は単純な指示に限定されるか,物理的妥当性のため多様な動作が制限されるという課題がある。
    • 自由形式言語を直接実行可能な全身動作に変換し,多様性と物理的安定性を両立することを目指す。
    • Humanoid-LLAは,自然言語をヒューマノイドロボットの全身動作に直接変換する大規模言語行動モデルである。
    • 統一された人間・ヒューマノイド動作語彙を学習することで,言語の意味と物理的な制御を結びつける。
    • 教師あり学習と強化学習を組み合わせた二段階のファインチューニングにより,頑健性と安定性を向上させている。

    Link: https://arxiv.org/abs/2511.22963

  • 6分の4:適応ブロックスケーリングによる,より正確なNVFP4量子化 [cs.CL, cs.LG]目的:NVFP4量子化における量子化誤差の低減
    • 大規模言語モデルの発展に伴い,高速化とメモリ使用量削減が重要課題となっている
    • NVFP4のような低精度数値形式への量子化は,精度不足によりモデル性能が低下しやすい
    • 浮動小数点形式の特性に着目し,ブロックごとのスケーリングを最適化することで量子化誤差を低減する
    • 提案手法4/6は,現在の最先端のNVFP4学習レシピと比較して,学習損失をBF16により近づけることが示された
    • 4/6は,FP4値のスケーリングを適応的に調整することで,表現可能な値の分布を均一化し,最大値付近の量子化誤差を低減する
    • 4/6は,最新のハードウェアアクセラレータ上で効率的に実装でき,学習と推論の両方で性能向上を実現する

    Link: https://arxiv.org/abs/2512.02010

  • 改善された平均フロー:高速前方生成モデルの課題について [cs.CV, cs.LG]目的:高速前方生成モデルにおける課題解決
    • 生成モデルは,画像生成など多様な応用において重要な役割を担う。
    • 既存の高速前方生成モデルは,学習の安定性や柔軟性に課題があった。
    • 本研究では,学習目標の再定式化とガイダンスの柔軟性向上を目指す。
    • 提案手法(iMF)は,ImageNet 256x256において,1回の関数評価でFID 1.72を達成した。
    • iMFは,従来の同様な手法を大幅に上回り,多段階手法との差を縮小した。
    • 蒸留を用いずに,高い性能を発揮し,高速前方生成モデルの発展に貢献する。

    Link: https://arxiv.org/abs/2512.02012

  • GraphBench:次世代グラフ学習ベンチマーク [cs.CY, cs.HC, cs.LG, cs.AI, cs.NE, stat.ML]目的:グラフ学習の包括的なベンチマークスイート
    • グラフ構造データは,分子予測やチップ設計など様々な分野で重要性が増している。
    • 既存のベンチマークは狭い範囲に限定され,評価プロトコルも一貫していない。
    • 包括的な評価プロトコルとデータセットを提供し,グラフ学習の進展を促進する。
    • GraphBenchは,ノード,エッジ,グラフレベル,生成タスクを含む多様な現実世界のドメインとタスク設定に対応する。
    • 標準化された評価プロトコルと,分布外汎化を評価するための指標を提供することで,再現性を高める。
    • 最近のメッセージパッシングニューラルネットワークとグラフTransformerモデルを用いた評価を行い,将来の研究のためのベースラインを確立した。

    Link: https://arxiv.org/abs/2512.04475

  • CARL:重要度を意識したエージェント型強化学習 [cs.LG, cs.AI, cs.CL]目的:複雑なタスク達成における重要度に基づいた強化学習手法
    • 複雑なタスクを達成するためには,環境との多段階のインタラクションが不可欠である。
    • 従来の強化学習は各ステップを均等に扱うため,重要度の高いステップを見落とす場合がある。
    • 重要度の高い状態に焦点を当て,効率的な学習と性能向上を目指す。
    • CARLはエントロピーを指標に状態の重要度を評価し,重要度の高い状態での行動に報酬を付与する。
    • 重要度の低い状態での行動はモデル更新から除外することで,ノイズの多い信用割り当てを回避し,計算量を削減する。
    • 多様な評価設定において,CARLは優れた性能と高い効率を実証した。

    Link: https://arxiv.org/abs/2512.04949

  • 正弦波ニューラルネットワークにおける勾配制御のための新たな初期化手法 [cs.DC, cs.LG]目的:正弦波活性化関数を持つニューラルネットワークの勾配制御
    • ニューラルネットワークの学習において,適切な初期化は極めて重要である。勾配消失や爆発を抑制し,学習の安定性を高めるため。
    • 確立されたニューラルネットワークアーキテクチャにおいても,初期化パラメータが学習に与える影響についての明確な理論的理解が不足している。
    • 本研究は,不適切な周波数の発生を防ぎ,汎化性能を向上させることを目指す。勾配と事前活性化の消失を制御することで。
    • 提案する初期化手法は,SIRENのパラメータ初期化の閉じた形式を導出し,勾配のスケールとネットワークの深さの関係を制御する。
    • ニューラルタンジェントカーネル(NTK)フレームワークを通じて,この初期化が学習ダイナミクスに大きく影響することが示された。
    • 関数近似や画像再構成など,幅広い再構成タスクにおいて,提案手法は既存手法を凌駕する性能を示した。

    Link: https://arxiv.org/abs/2512.06427

  • テーブルからの漏洩:LLMベースの表形式データ生成における文字列暗記への攻撃 [cs.LG, cs.AI]目的:LLMベースの表形式データ生成におけるプライバシー侵害のリスクの分析と対策
    • 個人情報を含む表形式データの利用増加に伴い,プライバシー保護の重要性が高まっている。
    • LLMによる合成データ生成において,学習データの数値文字列が再現され,プライバシーが侵害される可能性がある。
    • 生成される合成データのみから,学習データへの所属を推測する攻撃への対策を提案する。
    • 提案手法であるLevAttによる攻撃により,多くのモデルやデータセットでプライバシー漏洩が確認された。
    • 最先端モデルにおいては,完璧なメンバーシップ分類器として機能することが示された。
    • 新しいサンプリング戦略により,合成データの品質を維持しつつ,攻撃を効果的に防御できることが示された。

    Link: https://arxiv.org/abs/2512.08875

  • RAG-HAR:検索拡張生成に基づくヒューマンアクティビティ認識 [cs.CV, cs.AI]目的:ヒューマンアクティビティ認識のためのフレームワーク
    • ヘルスケア,リハビリ,フィットネスなどに応用され,生活の質向上に貢献する分野である。
    • 既存手法はデータセット依存性が高く,大規模な教師データと計算資源を必要とする点が課題である。
    • 教師データなしで,未知のアクティビティも認識可能なロバストな認識手法を確立する。
    • RAG-HARは,大規模言語モデルと検索拡張生成を用いることで,学習不要で高い認識性能を達成した。
    • プロンプト最適化やアクティビティ記述子の導入により,コンテキスト情報を効果的に活用している。
    • 6つの異なるHARベンチマークにおいて,最先端の性能を示し,実用性も確認された。

    Link: https://arxiv.org/abs/2512.08984

  • LLMの事後学習における専門家軌跡の活用再考:数学的推論への応用 [cs.LG, cs.CL]目的:LLMの事後学習における専門家軌跡の活用方法の最適化
    • 数学的推論能力は,AIシステムの高度化に不可欠であり,その性能向上は重要な課題である。
    • 既存のSFTやRLでは,専門家軌跡の活用方法に最適化の余地があり,安定性や収束の問題も存在する。
    • SFTとRLを組み合わせた最適なパイプラインを確立し,専門家軌跡から最大限の価値を引き出す指針を示す。
    • 提案するPlasticity-Ceiling Frameworkにより,最終的な性能上限がSFTの基礎性能とRLの可塑性によって決定されることが実証された。
    • Sequential SFT-then-RLパイプラインが,安定性と早期収束の問題を克服し,最適な手法であることが示された。
    • SFTにおけるデータ規模が事後学習の潜在能力を決定し,軌跡の難易度が性能を増幅させる関係が明らかになった。

    Link: https://arxiv.org/abs/2512.11470

  • 大規模言語モデルを用いたイベント系列モデリングにおける時間トークン化戦略 [cs.CL, cs.LG]目的:イベント系列モデリングにおける時間トークン化戦略の比較
    • 時系列イベントのモデリングは,ビジネスや科学など様々な分野で重要であり,予測精度の向上に不可欠である。
    • 大規模言語モデルにおける時間表現は未解明な点が多く,既存手法では多様なイベントデータの統計的性質に対応できていない。
    • イベントデータの統計的性質に合致したトークン化戦略を模索し,予測性能の向上を目指す。
    • 時間トークン化戦略は,データ分布の統計的性質と密接に関連しており,最適な戦略はデータによって異なることが示された。
    • 単純な数値文字列,高精度バイトレベル表現,カレンダー形式トークン,均一ビン分割,適応的残差スカラー量子化を比較した結果,特定の戦略が常に優位とは限らない。
    • 時間トークン化は,大規模言語モデルベースのイベントモデリングにおいて重要な設計要素であり,見過ごされがちな側面であることが強調された。

    Link: https://arxiv.org/abs/2512.13618

  • MIDUS:メモリを注入した深層アップスケーリング [cs.LG, cs.AI]目的:事前学習済み言語モデルの能力拡張手法
    • 大規模言語モデルは性能向上に不可欠だが,学習コストが高い。
    • 深層アップスケーリングは計算コストが増大し,効率性に課題がある。
    • メモリを活用することで,効率的な能力拡張を目指す。
    • MIDUSは,FFN層の複製に代えてメモリ層を用いることで,計算効率を向上させた。
    • Head-wise Memory Layer (HML)とHead-wise Implicit Value Expansion (HIVE)の組み合わせにより,ヘッドごとに異なるキー空間と潜在空間を実現した。
    • 実験結果から,MIDUSは性能と効率の両面で従来の深層アップスケーリング手法を上回ることが示された。

    Link: https://arxiv.org/abs/2512.13751

  • 予測意思決定のための適応型デジタルツイン:状態遷移ダイナミクスのオンラインベイズ学習 [cs.LG, cs.NA, math.NA]目的:土木工学におけるデジタルツインの価値実現の向上
    • インフラの老朽化が進む中,効率的な維持管理が不可欠であり,デジタルツインはその有力な手段となる。
    • 既存のデジタルツインは静的モデルに依存し,現実の変化への適応が困難であるという課題がある。
    • 状態遷移モデルをオンラインで学習し,デジタルツインの適応性と精度を向上させることを目指す。
    • 提案手法は,動的ベイズネットワークと共役事前分布を用いたオンラインベイズ学習により,状態遷移ダイナミクスを効率的に学習する。
    • パラメータ化されたマルコフ決定過程と強化学習を組み合わせることで,高精度な動的ポリシーを計算することを可能にする。
    • 鉄道橋の構造健全性モニタリングとメンテナンス計画のケーススタディにおいて,提案手法の有効性が確認された。

    Link: https://arxiv.org/abs/2512.13919

  • ロバストな部分空間回復への応用を伴う信頼楕円体の学習 [cs.DS, cs.LG, math.ST, stat.ML, stat.TH]目的:高次元における任意の分布に対する信頼楕円体の探索
    • 統計的推論や機械学習において,分布の形状を捉え,外れ値の影響を抑制する信頼区間は重要である。
    • 高次元空間では,最小体積推定量の計算がNP困難となり,実用的な近似アルゴリズムが求められている。
    • 条件数βが無限大に近づく場合でも,効率的に信頼楕円体を近似するアルゴリズムを開発すること。
    • 提案手法は,多項式時間で,最適なβ条件付き楕円体の体積に対して,O(β)^γdの乗法的な誤差範囲内の楕円体を見つけ出す。
    • 特にγをo(1)に設定することで,体積近似はO(β)^{o(d)}となり,カバレッジの損失を伴う。
    • 本研究により,ロバストな部分空間回復問題に対する,近似保証付きの最初の多項式時間アルゴリズムが得られた。

    Link: https://arxiv.org/abs/2512.16875

  • ニューラルネットワークアーキテクチャの統一的な表現 [cs.LG, math.OC]目的:ニューラルネットワークアーキテクチャの統一的な表現
    • 深層学習は画像認識や自然言語処理など,幅広い分野で目覚ましい成果を上げている。
    • ニューラルネットワークの層数やニューロン数を無限に増やした場合の理論的な解析が困難である。
    • 無限次元におけるニューラルネットワークの近似誤差を評価し,統一的な表現を導く。
    • 隠れ層が単層のニューラルネットワークに対して,既存の連続ニューラルネットワークを一般化する積分表現を導出した。
    • 深層残差CNNについても同様のアプローチを拡張し,残差結合を持つネットワークの解析を可能にした。
    • ニューラルODEと深層残差ネットワークの関係を形式化し,分散パラメータニューラルネットワーク(DiPaNet)として統一的に表現した。

    Link: https://arxiv.org/abs/2512.17593

  • LoRA勾配降下の収束レートについて [cs.LG]目的:LoRA勾配降下の収束レートの解析
    • 大規模モデルの微調整は重要だが,計算コストが高い。
    • LoRAは計算コストを削減するが,収束性に関する理論的理解が不十分である。
    • 既存の理論的制約を克服し,LoRAの収束レートを厳密に評価する。
    • 本研究では,LoRA勾配降下が $O(\frac{1}{\log T})$ のレートで停留点に収束することを証明した。
    • この証明は,アダプタ行列の外積による問題の再定式化,修正された下降補題,ステップサイズの制御に基づいている。
    • 実験結果は,理論的知見を裏付けている。

    Link: https://arxiv.org/abs/2512.18248

  • 時系列データのプロクルステスの床:ポイントワイズ損失関数の最適化バイアス [cs.LG]目的:ポイントワイズ損失関数における最適化バイアスの理論的解明と軽減策の提案
    • 時系列データは予測において重要な役割を担うが,その予測精度向上は依然として課題である。
    • 既存のポイントワイズ損失関数は時間的依存性を無視するため,最適化バイアスが生じやすい。
    • この研究は,バイアスの根本原因を特定し,データ特性に基づいた軽減策を提供する。
    • 最適化バイアスは,系列長と構造的信号対雑音比(SSNR)というデータ特性によって本質的に決定されることが示された。
    • 提案手法は,DFT/DWTと調和化された$\ell_p$ノルムを組み合わせることで,このバイアスを軽減する。
    • 実験結果から,iTransformerを用いた予測および代入において,それぞれ平均二乗誤差/平均絶対誤差が5.2%/5.0%および27.4%/19.4%改善されたことが確認された。

    Link: https://arxiv.org/abs/2512.18610

  • LLMは学生の苦労を推定できるか?:項目難易度予測のための人間とAIの難易度一致と習熟度シミュレーション [cs.CL, cs.AI, cs.CY]目的:項目難易度予測における人間とAIの難易度一致
    • 教育評価において,項目の適切な難易度設定は重要であり,学習効果に大きく影響する。
    • 新しい項目に対しては,過去のデータがないため,難易度を正確に推定することが困難である。
    • LLMの能力を用いて,人間の学習者の認知的な苦労を考慮した難易度予測を目指す。
    • 大規模な実験により,モデルの規模を拡大しても人間との難易度の一致は必ずしも向上しないことが示された。
    • 高性能なモデルは,学習者の能力限界をシミュレートすることが難しく,難易度推定の精度が低下する傾向にある。
    • モデルは自身の限界を予測することができず,内省能力の欠如が明らかになった。

    Link: https://arxiv.org/abs/2512.18880

  • 非線形データ同化のためのアンサンブルシュレーディンガーブリッジフィルタ [cs.LG]目的:非線形データ同化手法の開発
    • 気象予測などの分野で,より正確な状態推定が求められている。
    • 従来のフィルタは,非線形性が強いシステムに対して性能が低下する。
    • 高次元かつ非線形なシステムにおけるデータ同化精度向上を目指す。
    • 提案手法は,微分や学習を必要とせず,並列計算に適している。
    • 数値実験の結果,カオスシステムを含む高非線形なシステムに対して有効性が確認された。
    • アンサンブルカルマンフィルタやパーティクルフィルタと比較して,性能が向上することが示された。

    Link: https://arxiv.org/abs/2512.18928

  • 視覚トークンとアテンションヘッドに対する選択的LoRA [cs.CV, cs.AI]目的:視覚言語モデルのパラメータ効率の良いファインチューニング手法
    • 画像とテキストを扱う視覚言語モデルは,多様なタスクに応用可能であり,重要性が増している。
    • LoRAを含む従来のファインチューニング手法は,計算コストが高く,すべてのトークンとヘッドに適応する。
    • 視覚トークンと重要アテンションヘッドに絞り込むことで,計算コストを削減し,性能を維持すること。
    • Image-LoRAは,視覚トークンのみにLoRAを適用し,アテンションヘッドの価値パスへの適応を制限する。
    • Image-LoRAは,標準的なLoRAと同等またはそれ以上の性能を示し,特に画像トークンが多い場合に有利なトレードオフを提供する。
    • TextVQA,VideoQA,GSM8Kなどのタスクで有効性が確認され,より強い情報ボトルネックが性能向上に繋がることが示された。

    Link: https://arxiv.org/abs/2512.19219

  • 言語モデルによるシェーンフェルドの数学的推論解剖 [eess.SY, cs.SY, cs.CL, cs.AI, cs.LG]目的:言語モデルにおける数学的推論の構造の解明
    • AIの進化に伴い,複雑な問題解決能力の理解が不可欠となっている。
    • 言語モデルの推論過程は表面的な統計からは読み解きにくく,詳細な分析が困難である。
    • 言語モデルの推論ステップを明確化し,推論構造を体系的に分析することを目指す。
    • 提示されたThinkARMフレームワークにより,言語モデルの推論を機能的なステップに抽象化することが可能となった。
    • 分析の結果,推論を行うモデルと行わないモデルの間で再現性のある思考パターンと構造的な違いが明らかになった。
    • 探索ステップが正答に繋がる重要な分岐点であり,効率化手法は評価的フィードバックを抑制することが示された。

    Link: https://arxiv.org/abs/2512.19995

  • 自律型AIエージェントにおける結果重視の制約違反を評価するためのベンチマーク [cs.AI]目的:自律型AIエージェントにおける結果重視の制約違反の評価
    • AIエージェントの活用が拡大する中で,安全性と人間価値との整合性が重要課題となっている。
    • 従来のベンチマークは有害な指示の拒否や複雑なタスクの遂行に偏っており,結果重視の制約違反を捉えられていない。
    • 本研究は,AIエージェントが目標最適化と倫理的制約の優先順位付けの間で生じる問題を評価するベンチマークを提案する。
    • 40のシナリオからなるベンチマークを構築し,最先端のLLM12モデルを評価した結果,制約違反率は0.0%から62.8%に及んだ。
    • 評価されたモデルの多くが,25%以上の整合性不足を示し,世代間の比較では,安全性が必ずしも向上しないことが示された。
    • 4モデルによる評価パネルを用いたことで評価の信頼性が向上し,KPIプレッシャー下での倫理的逸脱の存在も確認された。

    Link: https://arxiv.org/abs/2512.20798

  • ビジョン言語モデルにおけるハイエントロピー トークン:マルチモーダルな脆弱性のポイント [cs.CV, cs.LG]目的:ビジョン言語モデルの脆弱性を評価し,効率的な敵対的攻撃手法の開発
    • ビジョン言語モデルは高性能だが,セキュリティ上の脆弱性が課題となっている。
    • 既存の攻撃手法は全てのトークンを対象とするため,効率性に課題がある。
    • ハイエントロピー トークンに集中した攻撃により,効率性と有効性を高める。
    • ハイエントロピー トークンは,モデルの不安定化に大きな影響を与えることが示された。
    • ハイエントロピー トークンへの攻撃は,少ないステップ数で同程度の性能劣化を達成する。
    • 開発したEntropy-Guided Attack (EGA) は高い攻撃成功率と有害率を示した。

    Link: https://arxiv.org/abs/2512.21815

  • 精神保健のためのLLMを活用した物語的統合:多角的センシングと言語モデルの整合 [cs.CL, cs.AI]目的:多角的センシングデータと言語モデルを整合させ,精神保健に関する臨床的に根拠のある物語を生成すること。
    • 精神保健の評価において,行動シグナルを捉える多角的センシングの重要性が高まっている。
    • 数値時系列データの自然言語への変換が難しく,LLMが長期のセンサーストリームを直接処理できない。
    • 多角的センシングデータを言語モデルと整合させ,臨床的に意味のある物語を生成することで,この問題を解決する。
    • LENSは,既存のベースラインモデルと比較して,標準的なNLP指標と症状の重症度に関するタスク固有の指標で優れた性能を示した。
    • 精神保健専門家によるユーザースタディの結果,LENSが生成する物語は包括的で臨床的に意味のあるものであると評価された。
    • 本研究は,LLMをヘルスセンシングのインターフェースとして発展させ,行動シグナルに基づいた臨床的判断を支援する道を開く。

    Link: https://arxiv.org/abs/2512.23025

  • DUALFloodGNN:物理情報に基づく洪水モデルのためのグラフニューラルネットワーク [cs.LG, cs.AI]目的:洪水モデリングのためのグラフニューラルネットワークアーキテクチャの開発
    • 災害管理において,洪水シミュレーションは重要な役割を担うため,その精度と効率が求められる。
    • 従来の物理モデルは高精度だが計算コストが高く,リアルタイムな予測には不向きである。
    • 計算効率を維持しつつ,物理情報を取り入れ,予測精度を向上させることを目指す。
    • 提案手法DUALFloodGNNは,グローバルおよびローカルスケールで物理的制約を組み込んだ新しい洪水GNNアーキテクチャである。
    • 水体積と流量を同時に予測する共有メッセージパッシングフレームワークを採用し,複数水文変数の予測精度を大幅に向上させた。
    • 動的カリキュラム学習を用いた多段階損失関数により,自己回帰推論の性能も改善された。

    Link: https://arxiv.org/abs/2512.23964

  • 再帰的言語モデル [cs.AI, cs.CL]目的:長文プロンプト処理の推論時スケーリング
    • 大規模言語モデルの活用範囲拡大のため,入力できる情報量を増やす研究が重要である。
    • 既存モデルのコンテキストウィンドウには上限があり,長文の情報を処理できない問題がある。
    • 再帰的な処理により,コンテキストウィンドウの制限を超えた長文プロンプトを扱えるようにする。
    • 再帰的言語モデル(RLM)は,従来のモデルよりも大幅に長い入力に対応可能であることが示された。
    • RLMは,コンパクションやCodeActなどの手法と比較して,様々な長文コンテキストタスクで性能が向上した。
    • RLM-Qwen3-8Bは,ベースモデルであるQwen3-8Bを上回り,GPT-5に匹敵する性能を示した。

    Link: https://arxiv.org/abs/2512.24601

  • 大規模AIはメタクライシスを加速させている:我々は何ができるか? [cs.CL, cs.AI, cs.CY]目的:メタクライシス加速の現状と対策
    • 地球規模の課題が複雑に絡み合い,解決が困難になっている現状を認識する必要がある。
    • 大規模AI開発が富と権力の集中を招き,地球規模の危機を悪化させている。
    • 自然言語処理の分野が人間と地球の幸福を重視する方向へ転換する必要がある。
    • 大規模AI,特にLLM技術が,生態,意味,言語の危機を複合的に加速させている。
    • LLMエンジニアリングが,少数の個人や企業に利益をもたらす一方で,地球規模の損害を引き起こしている。
    • 自然言語処理の専門家は,持続可能な未来を築くための代替案を模索し,専門分野の再設計を急ぐべきである。

    Link: https://arxiv.org/abs/2512.24863

  • TextBridgeGNN:テキスト誘導転移によるクロスドメイン推薦のためのグラフニューラルネットワークの事前学習 [cs.IR, cs.AI]目的:クロスドメイン推薦のためのグラフニューラルネットワーク事前学習フレームワーク
    • 推薦システムは情報過多な現代において,ユーザーに最適なアイテムを提示する上で不可欠である。
    • 従来のID埋め込みに基づく推薦モデルは,ドメイン間の知識転移が難しく,汎化性能に課題がある。
    • テキスト情報を橋渡しとして用いることで,ドメイン間の知識転移を可能にし,推薦精度を向上させることを目指す。
    • TextBridgeGNNは,テキストを介した多層グラフ伝播により,異なるドメイン間の関連性を構築し,知識転移を実現する。
    • 事前学習段階では,テキスト情報を用いてドメイン間の孤立性を解消し,ドメイン固有およびグローバルな知識を獲得する。
    • 実験の結果,TextBridgeGNNは既存手法と比較して,クロスドメイン,マルチドメイン,および学習不要な設定で優れた性能を示すことが確認された。

    Link: https://arxiv.org/abs/2601.02366

  • バッチ思考:インスタンス間学習によるLLM推論の強化 [cs.AI]目的:大規模言語モデルの推論能力向上
    • LLMは多様な分野で活用され,その推論能力の向上が重要である。
    • 従来のLLMは個々のクエリを独立して処理し,インスタンス間の有用な情報を活用できていない。
    • 関連するクエリをまとめて処理することで,推論テンプレートの品質向上や誤りの検出を目指す。
    • 本研究では,Batch-of-Thought (BoT) という学習不要な手法を提案し,関連クエリをまとめて処理することで,インスタンス間学習を実現した。
    • BoT-Rと呼ばれるマルチエージェントリフレクションアーキテクチャを構築し,比較分析により高精度な推論テンプレートを特定し,一貫性チェックで誤りを検出した。
    • 実験結果から,BoT-Rは精度と確信度を向上させ,推論コストを最大61%削減することが示された。

    Link: https://arxiv.org/abs/2601.02950

  • 大規模オーディオ言語モデルにおける空間理解の実現 [cs.SD, cs.AI]目的:オーディオシーン分析の能力
    • 近年のオーディオ言語モデルの進歩は目覚ましいが,空間的な理解は未だ課題である。
    • 音声イベントの位置,属性の関連付け,配置,物理的な妥当性の判断などが不明確である。
    • 明確なタスク定義と物理に基づいた学習により空間認識能力を向上させる。
    • 本研究では,物理に基づいたアンビソニックシミュレーションとメタデータを用いた学習フレームワーク「TWNM」を提案した。
    • TWNMは,空間的特徴と意味的特徴を融合し,段階的なカリキュラムと選択肢最適化によって訓練される。
    • 提案手法は,空間認識タスクにおいて高い精度を示し,オーディオ言語モデルの空間推論能力を改善する可能性を示した。

    Link: https://arxiv.org/abs/2601.02954

  • イントロLM:プレフィリング時の自己評価による内省的言語モデル [cs.CL, cs.CL, cs.AI, cs.LG]目的:言語モデルの出力品質予測手法
    • 大規模言語モデルの活用には,その出力品質を事前に予測することが不可欠である。
    • 既存手法は外部分類器に依存し,文脈長の制限や計算コストの問題がある。
    • 言語モデル自身が出力品質を予測し,外部評価器なしに性能向上を目指す。
    • イントロLMは,Qwen3 8Bにおいて,成功予測のROC AUCで90%を達成し,DeBERTa分類器を14%上回る性能を示した。
    • マルチモーダルルーティングシステムに統合することで,最大33%の遅延削減と,最大50%の大型モデル利用率削減を実現した。
    • イントロLMは,生成性能を損なうことなく,言語モデル自身による自己評価を可能にした。

    Link: https://arxiv.org/abs/2601.03511

  • 大規模言語モデルにおける道徳的基盤の追跡 [cs.CL, cs.AI]目的:大規模言語モデルにおける道徳的基盤の符号化,組織化,表現に関する理解
    • 言語モデルが人間らしい判断を下す能力は,社会実装において不可欠である。
    • 言語モデルの道徳的判断が,概念構造に基づいているのか,模倣に過ぎないのか不明である。
    • 言語モデルにおける道徳的基盤のメカニズムを解明し,その構造を明らかにする。
    • モデルは人間の道徳的判断と一致した形で道徳的基盤を表現し,区別することが明らかになった。
    • 道徳的基盤の幾何学的構造は,事前学習から自然に現れ,後学習によって選択的に再構成される。
    • スパース・オートエンコーダーの特徴量は特定の道徳的基盤と明確な意味的リンクを示し,表現の分散性と階層性を示唆する。

    Link: https://arxiv.org/abs/2601.05437

  • LLMにおける均質化問題:AI安全における意味のある多様性に向けて [cs.AI, cs.CL, cs.CY]目的:AI安全における均質化問題の重要性認識と,多様性促進のための枠組み
    • AIは社会に浸透しつつあり,その影響は大きい。倫理的な問題や偏見の増幅が懸念される。
    • LLMは学習データに含まれる偏見を再現・増幅し,多様性を失う均質化を引き起こす。
    • LLMにおける均質化を定量的に評価し,多様性を促進するための具体的な手法を提案する。
    • 均質化を文脈と価値観に基づいて表現できるフレームワークを提示した。
    • LLM(Claude 3.5 Haiku)におけるジェンダーバイアスを実証実験で明らかにした。
    • クィア理論とフェミニズム理論を応用し,均質化と多様性促進のための新たな概念を提唱した。

    Link: https://arxiv.org/abs/2601.06116

  • STAGE:進化する物語の推論のためのフル脚本ベンチマーク [cs.CL, cs.AI]目的:物語世界の構築と一貫性のある推論・生成能力の評価
    • 物語理解は,自然言語処理の重要な課題であり,人間のような知能を実現する上で不可欠である。
    • 既存のベンチマークは,個別のサブタスクに焦点を当てており,物語世界全体の理解と一貫性を評価できていない。
    • 本研究は,フル脚本を用いた包括的な物語理解評価を可能にし,物語世界の構築能力を向上させることを目指す。
    • STAGEベンチマークは,知識グラフ構築,シーンレベルイベント要約,長文脚本質疑応答,キャラクターロールプレイングの4つのタスクを定義する。
    • 150本の英語と中国の映画脚本,キュレーションされた知識グラフ,イベントおよびキャラクター中心のアノテーションを提供することで,モデルの能力を総合的に評価する。
    • 本ベンチマークは,物語世界表現の構築,物語イベントの抽象化と検証,長編物語の推論,キャラクターの一貫性のある応答生成を評価する。

    Link: https://arxiv.org/abs/2601.08510

  • スペクトル特性評価と逐次知識編集崩壊の緩和 [cs.ET, cs.DB, cs.CL, cs.AI]目的:大規模言語モデルにおける逐次知識編集時の能力崩壊のメカニズム解明と緩和策の提案
    • 大規模言語モデルの活用が広がる中,その知識更新能力の維持は重要な課題である。
    • 逐次的な知識編集を行うと,モデルの汎化性能が著しく低下する問題がある。
    • 知識編集時の性能劣化メカニズムを明らかにし,汎化性能を維持する手法を開発する。
    • スペクトル分析により,モデルの汎化性能と事前学習済み重み行列の主要な特異方向との関連性が示された。
    • 逐次編集によって特異方向が擾乱されることが,性能低下の主要な原因であることが明らかになった。
    • 提案手法REVIVEは,主要な特異空間を保護することで,逐次編集における性能維持と知識編集の有効性を両立した。

    Link: https://arxiv.org/abs/2601.11042

  • 知識だけでは不十分:継続的適応のためのRLスキルの注入 [cs.LG, cs.AI, cs.CL]目的:知識獲得と推論能力の向上
    • 大規模言語モデルの性能向上は,様々な分野で重要性を増している。
    • 既存モデルは知識の更新が難しく,新しい情報への適応が課題である。
    • SFTとRLを組み合わせ,効率的に知識を更新し,推論能力を高める。
    • PaSTは,SQuADにおいて最先端の自己編集SFTベースラインを最大9.9ポイント上回る性能を示した。
    • LooGLEの長文脈QAでは,絶対精度が8.0ポイント向上し,効果が確認された。
    • ToolBenchのゼロショット成功率が平均で+10.3ポイント向上し,汎用性とドメイン間転移性が示された。

    Link: https://arxiv.org/abs/2601.11258

  • LLMにおけるバイアス監査のためのスケーラブルなエンティティベースフレームワーク [cs.CL, cs.CL, cs.AI]目的:大規模言語モデルにおけるバイアスの系統的な差異の測定
    • LLMの社会実装が進む中,潜在的なバイアスの存在は倫理的・社会的な問題を引き起こす可能性がある。
    • 既存のバイアス評価手法は,現実世界の利用状況を反映していないか,規模と厳密さに欠けるという課題がある。
    • この研究は,大規模で厳密なバイアス監査を可能にするスケーラブルなフレームワークを構築し,バイアスの実態を明らかにすることを目的とする。
    • フレームワークは,固有表現を制御されたプローブとして使用し,モデルの挙動における体系的な差異を測定する。
    • 19億件のデータポイントを用いた大規模な監査の結果,モデルは右翼の政治家を不利に扱い,左翼の政治家を好む傾向が確認された。
    • モデルの規模拡大はバイアスを増幅させ,中国語やロシア語でのプロンプティングは,欧米中心の選好を軽減しないことが示された。

    Link: https://arxiv.org/abs/2601.12374

  • ア adjoint matching を用いた Q 学習 [cs.LG, cs.AI, cs.RO, stat.ML]目的:連続行動空間における強化学習のための新たなアルゴリズム
    • 連続行動空間における強化学習は,ロボット制御などに応用が期待され,重要性が高い。
    • 拡散モデルやフローマッチングのような表現力豊かな方策の最適化が難しいという課題があった。
    • adjoint matching を利用することで,数値的に不安定な逆伝播を回避し,効率的な最適化を目指す。
    • 本研究で提案する QAM は,既存手法と比較して,オフラインおよびオフラインからオンラインへの強化学習において,困難な疎な報酬タスクで優れた性能を示す。
    • QAM は,adjoint matching を活用することで,不安定な逆伝播を回避しつつ,表現力豊かでバイアスのかからない方策を学習できる。
    • QAM は,批評家の行動勾配を変換し,ステップごとの目的関数を構築することで,効率的な最適化を実現する。

    Link: https://arxiv.org/abs/2601.14234

  • ハードな書き換えと厳格な保存を超えて:生涯学習型LLM編集のためのソフト再帰最小二乗法 [cs.LG]目的:大規模言語モデルの継続的な編集における安定性と柔軟性の両立
    • LLMは大規模な知識を持つが,その更新はコストがかかるため,効率的な編集手法が求められている。
    • 既存の編集手法は,累積的な干渉や,保護されていない挙動の変化といった問題がある。
    • 本研究では,長期間にわたる編集ストリームに対して,安定性と柔軟性を両立する新しい編集手法を提案する。
    • 提案手法RLSEditは,オンラインの二乗最適化を用いて編集を定式化し,事前学習済み重みからの逸脱とアンカーマッピングからの逸脱を制御する。
    • 実験により,RLSEditは10,000回の編集まで安定的にスケールし,編集の成功率と全体的な安定性において既存手法を上回ることを示した。
    • また,初期の編集内容を保持し,GLUEやその他のベンチマークにおける汎用的な能力を維持することが確認された。

    Link: https://arxiv.org/abs/2601.15686

  • 精神保健AI安全性テストにおける専門家評価と人間のフィードバックの限界 [cs.AI, cs.HC]目的:精神保健AIの安全性評価における専門家間の意見不一致の実態
    • 精神保健分野では,AIの安全性確保が極めて重要であり,専門家の判断が不可欠である。
    • AIの安全性評価において,専門家間の意見の一致度が低い場合がある。
    • 専門家間の意見不一致が,AIの安全性評価に及ぼす影響を明らかにすること。
    • 精神科医3名によるLLM生成応答の評価において,専門家間の信頼性は低く,重要な項目ほど意見の相違が大きかった。
    • 意見の相違は,測定誤差ではなく,専門家の臨床的枠組みや価値観の違いに起因することが示唆された。
    • 多数決によるラベル集約は,専門家の判断の根拠を希釈する可能性があり,専門家間の意見の相違を考慮したAI調整手法への転換が推奨される。

    Link: https://arxiv.org/abs/2601.18061

  • ハイパースフェリック座標を用いたVAE:ハイパーボリューム圧縮潜在空間からの異常検知の改善 [cs.LG]目的:異常検知性能の向上
    • 高次元データ分析において,潜在空間の次元増加は表現能力低下を招くため,効率的な次元削減が重要である。
    • 高次元潜在空間では,異常データの分布を正確に捉えることが難しく,異常検知の精度が低下する。
    • ハイパースフェリック座標を用いることで,潜在空間の表現力を高め,異常検知の精度向上を目指す。
    • 提案手法は,VAEの潜在変数をハイパースフェリック座標で表現することにより,潜在ベクトルの圧縮を実現した。
    • その結果,無条件および条件付きの異常検知において,既存手法を上回る性能を達成した。
    • 特に,火星探査ローバーの画像や地上ベースの銀河画像といった実世界の複雑なデータセットで高い効果が確認された。

    Link: https://arxiv.org/abs/2601.18823

  • 幾何学的推論器:長文脈推論のための多様体情報に基づく潜在フォワード探索 [cs.LG, cs.AI]目的:長文脈推論における潜在フォワード探索の効率化
    • 大規模言語モデルの性能向上の鍵は,長文脈を理解し推論する能力。
    • 計算コストと探索範囲の質のトレードオフが,CoT推論の課題。
    • メモリ制約下で,多様性と効率性を両立する推論手法の確立。
    • TGRは,学習を必要としないフレームワークであり,多様体情報に基づいた潜在フォワード探索を行う。
    • Qwen3-8Bにおいて,Pass@kのAUCを最大13ポイント改善し,計算オーバーヘッドはわずか1.1〜1.3倍。
    • チャンクごとのKVキャッシュリセットにより,メモリ使用量を線形に抑える。

    Link: https://arxiv.org/abs/2601.18832