arXiv雑要約

セキュリティ - 2025/10/14 公開

  • モジュール格子簡約の予測 [cs.CL, cs.CR]目的:モジュール格子簡約の性能評価
    • 格子暗号は,その安全性と効率性から,現代暗号における重要な構成要素である。
    • モジュール格子簡約の効率は,Kyberなどの格子暗号の安全性に直接影響する点が課題である。
    • 本研究は,モジュールBKZアルゴリズムの具体的な性能と,その効率に影響する要素の特定を目指す。
    • モジュールBKZアルゴリズムにおける期待される勾配は,対象となる数体の判別式$\Delta_K$に大きく依存することが示された。
    • 2のべき乗となる巡回体の場合は,モジュールBKZは非モジュール版よりも大きなブロックサイズを必要とする。
    • その他の巡回体においては,モジュールBKZはブロックサイズに関して亜線形的な利点をもたらし,亜指数関数的な高速化を実現する。

    Link: https://arxiv.org/abs/2510.10540

  • C言語によるCOSE上のクロンティリスの一時的ディフィーヘルマン(EDHOC)を用いた中間者攻撃の概念実証 [cs.CR]目的:軽量な鍵交換プロトコルの認証プロセスにおける中間者攻撃の脆弱性
    • 通信の安全性を確保する上で,鍵交換プロトコルの堅牢性は極めて重要である。
    • 合法的な傍受の可能性があり,大量監視を助長するリスクが存在する。
    • 鍵交換プロトコルに対する中間者攻撃の技術的側面を明らかにすること。
    • 本研究では,軽量鍵交換プロトコルに対する中間者攻撃の可能性をC言語で実装した概念実証を通じて示した。
    • 特に,COSE上のクロンティリスの一時的ディフィーヘルマン(EDHOC)を用いた攻撃シナリオにおける技術的詳細を分析した。
    • 今後の研究では,悪意のあるメタサーフェースがB5Gネットワークに与えるセキュリティへの影響も考慮する必要がある。

    Link: https://arxiv.org/abs/2510.10574

  • ImpMIA:現実的なシナリオ下における暗黙的バイアスを活用したメンバーシップ推論攻撃 [cs.AR, cs.CE, cs.LG, cs.CR, cs.CV]目的:メンバーシップ推論攻撃における暗黙的バイアスの活用
    • 機械学習モデルのプライバシー保護は重要であり,学習データが推測されるリスクを軽減する必要がある。
    • 既存のメンバーシップ推論攻撃は,現実世界では成立しない仮定に依存している場合が多い。
    • モデルの重みへのアクセスに基づき,より現実的な条件下で有効なメンバーシップ推論攻撃を実現すること。
    • 本研究では,ニューラルネットワークの暗黙的バイアスを活用するImpMIAを提案し,参照モデルを必要としない。
    • ImpMIAは,KKT条件を用いて学習データに含まれるサンプルを特定し,その勾配を用いてモデルパラメータを再構成する。
    • 実験結果から,ImpMIAは現実的な設定下で,既存の攻撃手法と比較して最先端の性能を発揮することが示された。

    Link: https://arxiv.org/abs/2510.10625

  • イーサリアム入力データメッセージにおける有害コンテンツのモデレーション:不変の紙への毒のインク [cs.NI, cs.RO, cs.CR]目的:イーサリアム入力データメッセージ(IDM)のコンテンツモデレーション手法
    • Web3における分散型コミュニケーションの重要性が高まっているため,その安全性確保が不可欠である。
    • イーサリアムにはプロトコルレベルでのコンテンツモデレーション機能がなく,有害コンテンツの増加が問題となっている。
    • 有害コンテンツの増加に対応し,分散型コミュニケーション環境の安全性,信頼性,社会的責任を向上させる。
    • 提案するBUILDERMODはブロック時間のオーバーヘッドが大きく実用性に課題があることが示された。
    • 一方,USERMODは低遅延で検証可能であり,より効果的にスケールすることが確認された。
    • 本研究は分散型システムにおけるプロトコルレベルのコンテンツガバナンスの基盤を築き,今後の発展に貢献する。

    Link: https://arxiv.org/abs/2510.10761

  • 自律走行車における適応型DBSCANを用いたGPSスプーフィング攻撃の検知 [cs.CR, cs.AI, cs.SY, eess.SY]目的:GPSスプーフィング攻撃の検知手法
    • 自動運転技術の発展に伴い,安全性の確保が重要課題となっている。
    • GPS信号の脆弱性が,悪意のある攻撃による車両制御の脅威となる。
    • リアルタイムで閾値を調整し,巧妙なスプーフィング攻撃を検知する。
    • 提案手法は,Honda Research Institute Driving Datasetを用いて,様々な規模のGPSスプーフィング攻撃に対する有効性を検証した。
    • ターン毎,停止時,オーバースート,複数の微小なバイアス攻撃に対し,それぞれ98.621%,99.960.1%,99.880.1%,98.380.1%の検知精度を達成した。
    • 本研究は,自動運転車のGPSスプーフィングに対する安全性向上に大きく貢献する。

    Link: https://arxiv.org/abs/2510.10766

  • コンパクトリー群のバーンサイド環に基づく対称鍵暗号 [cs.CR, math.RA]目的:コンパクトリー群のバーンサイド環を利用した対称鍵暗号の提案
    • 古典的な線形暗号は脆弱性がある。新たな暗号方式の検討が重要。
    • 従来の線形暗号は既知平文攻撃に弱く,鍵が特定されやすい。
    • バーンサイド環を利用することで,鍵の特定を困難にする暗号方式を開発する。
    • 暗号化は平文のサポートを維持し,暗号文の拡張やセキュリティ漏洩を防ぐ。
    • 観測データから鍵を特定できないことを情報理論的に示す。
    • スキームはIND-CPA安全性を持たないことが,二項探索に基づく識別子によって証明された。

    Link: https://arxiv.org/abs/2510.10901

  • TabVLA:視覚言語行動モデルに対する標的型バックドア攻撃 [cs.CR, cs.AI, cs.RO]目的:視覚言語行動モデルへの標的型バックドア攻撃の検討
    • 現実世界でのAIシステム利用拡大に伴い,安全性確保が重要課題となっている。
    • VLAモデルのバックドア攻撃は存在するが,標的型攻撃の検討が不足していた。
    • VLAモデルへの標的型バックドア攻撃の脆弱性を明らかにし,対策の必要性を訴える。
    • 提案手法TabVLAは,ブラックボックスでのファインチューニングにより,標的型攻撃を可能にする。
    • 視覚チャネルが主な攻撃対象となり,少ない汚染データで高い攻撃成功率を示すことが確認された。
    • 入力ストリーム再構成による潜在的トリガー検出防御策の効果も検証された。

    Link: https://arxiv.org/abs/2510.10932

  • マルチパーティオープンシステムにおける深層強化学習に対する中立エージェントベースの敵対的方策学習 [cs.LG, cs.CR]目的:深層強化学習に対する敵対的攻撃手法の改良
    • 強化学習は,不確実性下での長期的な意思決定問題解決に不可欠な機械学習パラダイムである。
    • 深層強化学習は敵対的攻撃に脆弱であり,既存手法は環境制御や被害者エージェントとのインタラクションに依存する。
    • マルチパーティオープンシステムにおいても有効な,被害者エージェントとの直接的なインタラクションを必要としない敵対的攻撃手法の開発。
    • 提案手法は,共有環境を通じて間接的に被害者エージェントに影響を与える中立エージェントベースのアプローチである。
    • SMACプラットフォーム(Starcraft IIベース)とHighway-env(自動運転シミュレーション)を用いた実験により,有効性が確認された。
    • マルチパーティオープンシステムにおいて,汎用性と有効性を有する敵対的攻撃を可能にする。

    Link: https://arxiv.org/abs/2510.10937

  • DITTO:知識蒸留によるウォーターマーク付きLLMに対する詐称攻撃フレームワーク [cs.CR, cs.AI]目的:ウォーターマーク付きLLMの詐称攻撃
    • LLMの利用拡大に伴い,生成されたテキストの著作権保護が重要となっている。
    • 既存のウォーターマーク技術は,その真正性の検証が脆弱である可能性が指摘されている。
    • 本研究は,ウォーターマークの偽造を可能にする攻撃手法とその対策を明らかにすることを目的とする。
    • 本研究で開発されたDITTOは,知識蒸留により,被害者モデルのウォーターマークを悪意のあるモデルに再現させる。
    • これにより,誤情報などの有害コンテンツが信頼できる情報源からのものと偽って帰属される危険性がある。
    • ウォーターマークの真正性を識別できる技術へのパラダイムシフトが求められることを示した。

    Link: https://arxiv.org/abs/2510.10987

  • 秘匿性保護進化による差分プライバシーを考慮した合成テキスト生成 [cs.CR, cs.CL, cs.NE]目的:差分プライバシーを考慮した合成テキスト生成の効率と品質向上
    • 大規模言語モデルの学習には大量のテキストデータが不可欠であり,その重要性は増している。
    • 現実世界の高品質なテキストデータはプライバシーに関わるものが多く,利用が制限されている。
    • 秘匿性保護進化により,プライバシー保護とデータユーティリティのバランスを改善することを目指す。
    • 提案手法SecPEは,既存手法と比較してFIDスコアが低く,下流タスクの精度が高い。
    • SecPEは,同じレベルのプライバシー保護を実現するために,より少ないノイズで済む。
    • 秘匿性保護の保証は,より実用的で効果的なプライバシー保護型合成テキスト生成を可能にする。

    Link: https://arxiv.org/abs/2510.10990

  • ステーキングレートの安定化,動的インフレーションと遅延誘発振動 [cs.CY, cs.CR, econ.GN, math.DS, q-fin.EC]目的:ステーキングレート安定化のための新規分配モデル
    • ブロックチェーンのセキュリティとトークン流動性の確保は重要である。
    • ステーキングレート変化への感度が高く,応答遅延により振動が発生しやすい。
    • インフレーションベースの報酬システムにおける不安定性を解決すること。
    • 提案モデルは,ステーキングレートの振動を効果的に抑制する。
    • ステーキングレートを目標範囲内に安定させることを可能にする。
    • インフレーションに基づく報酬システムのダイナミクスを分析した。

    Link: https://arxiv.org/abs/2510.11065

  • LLMベースのエージェントシステムにおけるアクセス制御の展望 [cs.MA, cs.AI, cs.CR]目的:LLMベースのエージェントシステムにおけるアクセス制御の新たな枠組み
    • AIエージェントの自律性と複雑性が増す中,安全性を確保するアクセス制御が重要となる。
    • 従来のアクセス制御は静的で,LLMエージェントの動的な情報フローに対応できない。
    • 情報ガバナンスの視点から,LLMエージェントのアクセス制御における課題を解決する。
    • 本稿では,アクセス制御を動的かつ文脈を考慮した情報フローガバナンスとして捉え直す「Agent Access Control (AAC)」を提案する。
    • AACは,多次元的な文脈評価と適応的な応答生成の2つのモジュールで構成され,単なる許可/拒否を超えた情報操作を可能にする。
    • AACは,人間の判断とスケーラブルなAI安全性の間のギャップを埋め,信頼できるエージェント設計の新たな概念的レンズを提供する。

    Link: https://arxiv.org/abs/2510.11108

  • N出力メカニズム:局所的差分プライバシー下における数値データからの統計情報推定 [cs.CR]目的:数値データ収集における統計情報推定の精度向上
    • 個人情報保護の重要性が増す中,センシティブなデータ収集におけるプライバシー保護が不可欠である。
    • 既存の局所的差分プライバシーメカニズムは,出力空間が非常に小さいか無限大の場合に最適化されているが,任意の出力サイズNに対する汎用的な手法が存在しない。
    • 任意の出力サイズNに対して最適なメカニズムを構築し,数値データ収集におけるプライバシー保護とデータ利用のバランスを実現する。
    • 提案手法であるN出力メカニズムは,任意のNに対して最適化問題を解くことで設計され,高い精度と適応性を示す。
    • 平均,分散,分布推定において,最先端の精度を達成し,通信コストも小さいことが実証された。
    • 本研究は,分布推定タスクへの既存メカニズムの拡張も実現した。

    Link: https://arxiv.org/abs/2510.11116

  • CoSPED:一貫性のあるソフトプロンプトを用いた標的型データ抽出と防御 [cs.CR]目的:大規模言語モデルにおけるデータ抽出リスクの評価と対策
    • 大規模言語モデルの普及に伴い,その安全性確保が重要課題となっている。
    • 大規模言語モデルは,プライバシー侵害などのセキュリティ脆弱性を抱えている。
    • ソフトプロンプト攻撃によるデータ抽出メカニズムの解明と,有効な防御策の開発。
    • 提案手法CoSPEDにより,50トークンprefix比較において65.2%の抽出率を達成した。
    • Pythiaモデルを用いた実験では51.7%の抽出率を示し,モデル間比較も行った。
    • Rank-One Model Editingによる防御により,抽出率を1.6%まで大幅に低減することに成功した。

    Link: https://arxiv.org/abs/2510.11137

  • TypePilot:Scala型システムを活用したLLM生成コードの安全性向上 [cs.CL, cs.CR]目的:LLM生成コードのセキュリティおよび堅牢性の向上
    • LLMはコード生成に優れるが,潜在的な脆弱性を含み,セキュリティリスクとなる。
    • LLM生成コードには,巧妙な脆弱性が含まれることが多く,安全性が重要視されるシステムでの利用が困難である。
    • Scalaの型システムを活用し,LLM生成コードの脆弱性を軽減し,信頼性を高めることを目指す。
    • TypePilotは,型情報に基づいたエージェントパイプラインにより,入力検証やインジェクション脆弱性を大幅に低減できることが示された。
    • 従来のLLMによる直接生成や,単純なプロンプトによる安全なコード生成と比較して,TypePilotはセキュリティ面で優れた性能を発揮する。
    • 構造化された型指向のLLMワークフローが,高信頼性が必要な分野における自動コード生成の信頼性向上に貢献する可能性が示唆された。

    Link: https://arxiv.org/abs/2510.11151

  • RAG-Pull:コード生成におけるRAGシステムに対する知覚できない攻撃 [cs.CR, cs.AI]目的:RAGシステムに対する知覚できない攻撃手法の開発と評価
    • 大規模言語モデル(LLM)の信頼性と安全性の確保は重要であり,誤情報の生成抑制が課題となっている。
    • RAGシステムは,外部データへの依存度が高いため,悪意のあるデータによって安全性が損なわれる可能性がある。
    • 本研究は,RAGシステムの脆弱性を明らかにし,攻撃手法を提案することで,その安全性を高めることを目指す。
    • RAG-Pullは,クエリやコードリポジトリに隠れたUTF文字を挿入することで,悪意のあるコードへの検索を誘導する。
    • クエリとコードの微小な変更により検索結果を操作でき,攻撃成功率が高いことが示された。
    • RAG-Pullによって取り込まれたコードには,リモートコード実行やSQLインジェクションなどの脆弱性が含まれることが確認された。

    Link: https://arxiv.org/abs/2510.11195

  • 学習ベースのコード脆弱性検出モデルの行レベル局所化能力の評価 [cs.LG, cs.CR]目的:学習ベースのコード脆弱性検出モデルの行レベル局所化能力
    • ソフトウェアの脆弱性は深刻な問題であり,システムセキュリティの確保は重要である。
    • 既存の脆弱性検出モデルは,コード全体を脆弱と判断するだけで,正確な箇所を特定できない。
    • 脆弱性の局所化精度を高め,開発者のデバッグ作業を支援することを目指す。
    • 提案手法であるDetection Alignment (DA) は,予測に影響を与えるコード行と実際の脆弱性箇所の一致度を定量化する。
    • DAの分析により,既存のモデルの予測は脆弱でないコード行に強く影響を受け,バイアスや相関関係の影響が大きいことが示された。
    • 本研究は,モデルに内在するバイアスの影響を明らかにし,脆弱性検出の精度向上に向けた課題を提示する。

    Link: https://arxiv.org/abs/2510.11202

  • TraceAegis:階層的・行動異常検知によるLLMベースエージェントの保護 [cs.CR]目的:LLMベースエージェントにおける異常検知手法
    • LLMエージェントは実用化が進む一方,セキュリティ上の脆弱性が課題となっている。
    • 既存手法はルール定義の困難さから,網羅的な異常検知が難しい。
    • エージェントの実行トレースに基づく,新たな異常検知フレームワークを提案する。
    • TraceAegisは,エージェントの実行トレースを基に,階層構造と行動制約を構築する。
    • これにより,正常な行動をモデル化し,異常な行動を効果的に検出する。
    • 医療と企業調達の2つのシナリオにおける評価データセットTraceAegis-Benchで有効性が確認された。

    Link: https://arxiv.org/abs/2510.11203

  • 制限付き復号問題に基づくMPCitH署名 [cs.CR, cs.IT, math.IT]目的:デジタル署名スキームの性能向上
    • 情報セキュリティにおいて,安全かつ効率的な署名方式は不可欠である。
    • 既存のMPCitHベース署名方式は,署名サイズが大きいという課題があった。
    • 制限付き復号問題を導入し,署名サイズの縮小を目指す。
    • 本研究では,制限付き復号問題をMPCitHフレームワークに組み込むことで,署名サイズを大幅に削減することに成功した。
    • CROSSの安全性仮定に基づくインスタンス化により,NIST提出方式と比較して2倍以上のサイズ削減を実現した。
    • WAVEの安全性仮定と関連する三進フルウェイト復号を用いることで,NIST競争における最小のMPCitHベース候補と同等の署名サイズが得られた。

    Link: https://arxiv.org/abs/2510.11224

  • 協調的シャドウ:LLMベースのマルチエージェントシステムにおける分散バックドア攻撃 [cs.CR]目的:LLMベースのマルチエージェントシステムに対する分散バックドア攻撃
    • 次世代アプリケーションへのLLMベースMASの統合が進む中で,セキュリティ確保は重要課題である。
    • 既存研究は単一エージェントへの攻撃に偏り,エージェント間の協調が生み出す新たな攻撃面が未解明である。
    • エージェント間の協調を利用した分散バックドア攻撃を提示し,その脅威を明らかにすることを目的とする。
    • 本研究では,マルチエージェントシステムに分散したバックドア攻撃手法を提案した。
    • 提案手法は,エージェント間の特定の協調シーケンスでのみ活性化し,高い攻撃成功率(95%以上)を示した。
    • エージェント間の協調を利用する新たな攻撃面を明らかにし,単一エージェント保護の限界を指摘した。

    Link: https://arxiv.org/abs/2510.11246

  • 大規模言語モデルは効果的なコードウォーターマークである [cs.CR, cs.AI, cs.LG]目的:コードの出所特定のためのウォーターマーク技術
    • LLMとオープンソースコードの普及により,コードの倫理的・セキュリティ上の問題が重要になっている。
    • 既存技術は言語依存性が高く,汎用性や攻撃への耐性が低いという課題があった。
    • LLMを用いて,セマンティクスを損なわずにコードにウォーターマークを埋め込む手法を開発する。
    • 提案手法CodeMark-LLMは,機能維持変換と差分比較によりウォーターマークを埋め込む。
    • LLMの言語非依存性を活用し,言語固有の設計や学習が不要である。
    • 多様なプログラミング言語と攻撃シナリオにおいて,頑健性,有効性,スケーラビリティが示された。

    Link: https://arxiv.org/abs/2510.11251

  • プライバシーモデルから実際のプライバシーと有用性を得る方法:k-匿名性と差分プライバシー [cs.CL, cs.CR, cs.DB]目的:プライバシーモデルの有効性と限界
    • データ公開におけるプライバシー保護は重要であり,機密情報の漏洩リスクを最小限に抑える必要がある。
    • 既存のプライバシーモデルは,定義上の問題やプライバシー保護と有用性のトレードオフにより,十分な保護を提供できない場合がある。
    • k-匿名性の再定義により,有用性を損なわずに,より堅牢なプライバシー保護を実現することを目指す。
    • k-匿名性は,決定論的メカニズムや機密値の制約がない場合,完全な匿名性を保証できない。
    • 差分プライバシーは,小さな予算では有用性が低下し,大きな予算ではプライバシー保証が意味をなさなくなる。
    • 差分プライバシーのプライバシー保証を緩和するのではなく,k-匿名性の意味的再定義が,有用性を維持しつつより堅牢なプライバシーを提供する。

    Link: https://arxiv.org/abs/2510.11299

  • 医療画像セキュリティのための深層学習駆動型暗号アーキテクチャTDADL-IE [cs.CR]目的:医療画像のセキュリティ確保
    • 遠隔医療やクラウドストレージの普及に伴い,患者データの保護が重要視される。
    • 従来の画像暗号化手法は,十分なセキュリティを確保できていない場合がある。
    • 本研究では,より安全な医療画像暗号化システムの開発を目指す。
    • LSTMネットワークと1D-SQCMを用いた,改良されたカオス生成器を提案した。
    • 置換された画像に対して,新しい三次元拡散アルゴリズム(TDA)を適用した。
    • TDADL-IEは,あらゆるサイズの画像に対応可能であり,様々なセキュリティ脅威に対する有効性が確認された。

    Link: https://arxiv.org/abs/2510.11301

  • TBRD:TESLA認証UASブロードキャストリモートID [cs.CR]目的:リモートIDメッセージの認証システム
    • ドローン利用の増加に伴い,安全管理と責任追跡の重要性が増している。
    • 現在のリモートID標準では認証メカニズムが不明確で,偽装攻撃のリスクがある。
    • 既存標準に適合し,ドローン能力を活用した軽量な認証システムの実現を目指す。
    • 提案システムTBRDは,TESLAプロトコルとモバイルデバイスのTEEを活用して認証を実現した。
    • TBRDは,デジタル署名と比較して認証オーバーヘッドを50%削減し,計算時間を100倍短縮した。
    • TBRDは,既存のリモートIDインフラに統合でき,規制および運用用途に適したスケーラブルな認証を提供する。

    Link: https://arxiv.org/abs/2510.11343

  • LLMの悪用:攻撃手法の変化 [eess.SY, cs.SY, math.DS, cs.IR, cs.CR, cs.AI]目的:LLMが悪意のある攻撃に利用される可能性の調査
    • システムへの侵入において,検知回避が重要視されている
    • 既存のツールが悪用される「Living off the Land」攻撃が課題
    • 将来的なLLMの悪用による新たな攻撃手法への対策
    • 将来のデバイス搭載LLMが悪意のある攻撃者に利用される可能性を示唆した。
    • 攻撃者はLLMを既存の攻撃パイプラインに組み込み,検知を回避すると考えられる。
    • セキュリティコミュニティがこの脅威に対抗するための対策が求められる。

    Link: https://arxiv.org/abs/2510.11398

  • LLMによる判断を用いたTBACモデルによる,不確実性認識型・リスク適応型アクセス制御 [eess.SY, cs.SY, cs.CR]目的:エージェントシステムにおけるアクセス制御の実現
    • 企業環境における自律型AIエージェントの増加に伴い,セキュリティ確保が重要になっている。
    • 未定義の新規タスクに対するアクセス制御は,既存のポリシーでは対応が困難である。
    • LLMを活用し,リスクと不確実性を考慮した適応的なアクセス制御を可能にすること。
    • 本研究では,LLMをリスク評価者として組み込んだTBACモデルを提案している。
    • LLMはタスク意図,対象リソースのリスク,および自身の判断における不確実性を考慮してアクセス制御判断を行う。
    • リスクや不確実性が高い要求に対しては,人間の承認を必要とするなど,より厳格な制御を適用する。

    Link: https://arxiv.org/abs/2510.11414

  • 推論に基づく安全性ガードレールの回避手法集 [cs.CR, cs.CL]目的:推論に基づく安全性ガードレールの脆弱性とその回避
    • 大規模言語モデルの安全性確保は,悪意のある利用を防ぐ上で不可欠である。
    • 既存の安全性ガードレールは,巧妙なプロンプト操作によって容易に回避される可能性がある。
    • 推論に基づく安全性ガードレールの脆弱性を明らかにし,より堅牢な対策を促す。
    • 推論に基づく安全性ガードレールは,わずかなテンプレートトークンの追加によって容易に回避されることが判明した。
    • 提案手法は,多様な攻撃設定(白箱,灰箱,黒箱)において高い攻撃成功率(90%超)を達成した。
    • これらの脆弱性は,複数のオープンソース大規模言語モデルで確認されており,安全性対策の強化が急務である。

    Link: https://arxiv.org/abs/2510.11570

  • LLMAtKGE:知識グラフ埋め込みに対する説明可能な攻撃者としての大規模言語モデル [eess.SY, cs.RO, cs.SY, cs.CL, cs.CR]目的:知識グラフ埋め込みに対する攻撃手法とその説明生成
    • 知識グラフは,多様な情報を構造的に表現し,様々な応用を可能にする基盤技術である。
    • 知識グラフ埋め込みは攻撃に脆弱であり,モデルの信頼性を損なう可能性がある。
    • 大規模言語モデルを活用し,攻撃の対象選択と説明生成を同時に実現する。
    • 提案手法LLMAtKGEは,既存のブラックボックス攻撃手法を上回る性能を示す。
    • LLMAtKGEは,攻撃の根拠となる推論過程を人間が理解できる形で説明できる。
    • ホワイトボックス攻撃手法と比較しても遜色ない性能を発揮する。

    Link: https://arxiv.org/abs/2510.11584

  • 稠密部分グラフの継続的公開:プライバシー増幅とサブ線形空間のためのサブサンプリング [cs.CE, cs.IR, cs.DS, cs.CR, cs.LG]目的:エッジ差分プライバシーを考慮したグラフアルゴリズムにおける,稠密部分グラフ問題の継続的公開
    • グラフデータのプライバシー保護は重要であり,特に大規模グラフの解析においては不可欠である。
    • 従来の差分プライバシーを適用したグラフアルゴリズムは,空間効率や精度に課題があった。
    • 空間効率と精度を改善し,継続的なデータ公開に対応した稠密部分グラフアルゴリズムを開発する。
    • 本研究により,既存の静的差分プライバシーアルゴリズムと同等の精度を達成しつつ,ストリーミングアルゴリズムと同等の空間複雑性を実現するアルゴリズムが提案された。
    • サブサンプリングとプライバシー増幅を組み合わせることで,高いプライバシー保護と効率的なデータ処理を両立している。
    • グラフの稠密化という手法を導入することで,誤差と空間複雑性における既存手法の対数項を削減することに成功した。

    Link: https://arxiv.org/abs/2510.11640

  • PACEbench:実用的なAIサイバー攻撃能力を評価するためのフレームワーク [cs.CR, cs.AI]目的:AIサイバー攻撃能力の評価フレームワーク
    • LLMの自律性が高まる中で,セキュリティリスクの評価が不可欠である。
    • 既存の評価基準は現実の複雑さを欠き,正確な評価が困難である。
    • 現実的な脆弱性と防御を考慮した,AIサイバー攻撃能力の信頼性向上を目指す。
    • PACEbenchは,現実的な難易度,環境の複雑さ,およびサイバー防御を考慮した,実用的なサイバー攻撃評価基準である。
    • 最新の7つのLLMを用いた実験により,複雑なサイバー攻撃シナリオへの対応が困難であることが示された。
    • 現時点では,どのLLMも防御を突破できず,汎用的なサイバー攻撃の脅威とはなりえないことが示唆された。

    Link: https://arxiv.org/abs/2510.11688

  • ドメインシフト下におけるBluetoothフィンガープリント識別:過渡位相微分によるアプローチ [quant-ph, cs.CC, eess.SP, cs.CR]目的:Bluetooth機器のフィンガープリント識別におけるドメイン適応性向上
    • 無線通信のセキュリティ確保は重要であり,物理層セキュリティ技術への期待が高まっている。
    • 環境変化等によるドメインシフトが,無線フィンガープリント識別技術の性能を大きく低下させる。
    • Bluetoothの周波数ホッピング特性を考慮した,ドメイン適応的な特徴抽出手法を開発する。
    • 提案手法は,従来のベンチマークと比較して,環境間での識別精度を最大58%向上させる。
    • 受信機間での識別精度を最大80%向上させることが確認された。
    • Bluetooth機器の周波数ホッピングがフィンガープリント識別に与える影響を初めて解析した。

    Link: https://arxiv.org/abs/2510.09940

  • シンプルかつ効率的なワンショット署名方式 [q-fin.CP, cs.CE, q-fin.MF, quant-ph, cs.CR]目的:ワンショット署名方式の効率化
    • 量子暗号における重要な概念であり,将来の安全な通信に不可欠である。
    • 既存の方式は,署名鍵や署名のサイズが大きすぎるという課題がある。
    • より小さく効率的な署名鍵と署名サイズを持つ方式を構築すること。
    • 本研究では,既存方式と比較して,署名鍵と署名のサイズを大幅に削減する新しいワンショット署名方式を提案する。
    • 提案方式は,署名鍵の量子ビット数と署名サイズを$\Theta(\lambda^2)$ビットに抑えることができる。
    • また,完全な正当性を達成し,最近の研究における誤りを修正し,その応用を回復させる。

    Link: https://arxiv.org/abs/2510.10899

  • オンコアタイミングチャネルの完全な時間的分割による系統的な防止 [cs.CR, cs.AR]目的:マイクロアーキテクチャにおけるタイミングチャネルの系統的防止
    • セキュリティ境界を越えた情報漏洩を防ぐことは,システムの安全性を確保する上で不可欠である。
    • 既存のタイミングチャネル対策は,ハードウェアサポートの必要性や性能への影響が課題となっていた。
    • RISC-V ISAを活用し,タイミングチャネルを効率的に防止する時間的隔離メカニズムを確立すること。
    • RISC-V ISAに新たな命令fence.tを導入し,脆弱なマイクロアーキテクチャの状態をクリアする。
    • fence.tの実装をseL4マイクロカーネルとCVA6コアで検証し,その有効性を確認した。
    • 全ての非アーキテクチャコアコンポーネントの系統的な消去が,最も効果的で低コストな実装であると示された。

    Link: https://arxiv.org/abs/2202.12029

  • Montsalvat: Intel SGXにおけるJavaアプリケーションのTCBを最小化するための分割 [cs.CR]目的:Javaアプリケーション分割による,Intel SGXにおける信頼計算基盤(TCB)の最小化
    • クラウド環境におけるJava利用の増加に伴い,セキュリティ対策の重要性が高まっている。
    • クラウド環境では,特権攻撃に対する脆弱性が存在し,Javaアプリケーションの安全性が脅かされている。
    • 本研究は,Javaアプリケーションを効率的に分割し,TCBを削減することで,セキュリティリスクの低減を目指す。
    • Montsalvatは,Javaアプリケーションを安全なエンクレーブ向けに分割するための,注釈ベースのアプローチを提供する。
    • オブジェクト間通信にはRMIライクなメカニズムが,ガベージコレクションには一貫性のある手法が採用されている。
    • GraalVM native-imageを用いて実装されており,マイクロ・マクロベンチマークによる評価で性能向上が確認された。

    Link: https://arxiv.org/abs/2305.00766

  • プライバシーを考慮したガウス過程回帰 [cs.LG, cs.CR]目的:プライバシー制約下におけるガウス過程回帰の理論的・方法論的フレームワーク
    • データ利用の拡大とプライバシー保護の両立が重要課題となっている。
    • 高精度な学習モデルの公開はプライバシー侵害のリスクを伴う。
    • プライバシーレベルを保証しつつ,有用なモデルを構築すること。
    • 提案手法では,合成ノイズを加えることでプライバシーレベルを調整する。
    • 合成ノイズの最適な共分散行列は,半正定値計画法で定式化される。
    • 衛星軌道追跡モデルや人口統計データセットへの適用例が示された。

    Link: https://arxiv.org/abs/2305.16541

  • 視覚が機能しない場合:ViTとOCRに対するテキスト攻撃 [cs.CR, cs.LG]目的:Unicodeベースの敵対的サンプルによるテキスト誤読の脆弱性
    • テキストベースの機械学習モデルの安全性確保は重要であり,誤った解釈による被害を最小限に抑える必要がある。
    • Unicodeの特性を悪用した攻撃に対し,既存の防御策は十分ではなく,OCR処理が必ずしも有効ではない。
    • OCR処理を回避し,視覚的にわずかな摂動を加えたテキスト攻撃の有効性を示す。
    • 本研究では,遺伝的アルゴリズムを用いてOCRの出力(視覚的敵対的サンプル)を生成し,OCRや他の視覚モデルの精度を大幅に低下させることを示した。
    • Meta,Microsoft,IBM,Googleなどの実運用モデルに対する攻撃の有効性を実証し,テキストの解釈において言語モデルが特異的に脆弱であることを示した。
    • ユーザースタディの結果,これらの敵対的サンプルは人間のテキスト理解には影響を与えないことが確認された。

    Link: https://arxiv.org/abs/2306.07033

  • LineBreaker: 大規模言語モデルを用いたトークン不整合バグの検出 [cs.CR, cs.SE]目的:トークン不整合バグの検出
    • ソフトウェア品質の確保は重要であり,潜在的なバグの早期発見が不可欠である。
    • 従来の静的解析や動的テストでは,意味レベルで発生するトークン不整合バグの検出が困難である。
    • 大規模言語モデルを活用し,トークン不整合バグの検出効率と精度を向上させる。
    • GPT-4はトークン不整合バグの検出に潜在力を持つが,精度とスケーラビリティに課題があることが判明した。
    • LineBreakerは,より小型で効率的な言語モデルを用いてコードをフィルタリングすることで,精度,再現率,スケーラビリティを大幅に向上させる。
    • 154のGitHubリポジトリの評価により,123個の新たな脆弱性を発見し,その45%はプログラム機能の妨害につながる可能性がある。

    Link: https://arxiv.org/abs/2405.01668

  • LDPKiT:プライバシー保護ローカルモデル学習のためのリモートクエリの重ね合わせ [cs.RO, cs.LG, cs.CR, cs.CY]目的:プライバシー保護ローカルモデル学習のためのフレームワーク
    • 機械学習クラウドサービス利用におけるプライバシー保護は重要課題である。
    • データ送信に伴うプライバシーリスクと,専門モデル利用の必要性の間で板挟みになる。
    • 局所的差分プライバシー下での知識転移を可能にし,プライバシー保護と実用性の両立を目指す。
    • LDPKiTは,プライバシーを保護しつつ,モデルの有用性を向上させることを示す。
    • SVHNデータセットにおいて,より強力なプライバシー保証(ε=1.25)で,ほぼ同等の推論精度を達成。
    • データセットサイズや潜在空間表現に対する感度分析を行い,LDPKiTの精度向上に関する理論的な洞察を提供する。

    Link: https://arxiv.org/abs/2405.16361

  • Mon CH\'ERI:条件付き機能を用いた未初期化メモリアクセス緩和 [cs.CR]目的:未初期化メモリアクセスによる脆弱性の緩和策
    • C/C++等の言語におけるメモリ安全性の確保は重要である。未初期化変数はセキュリティリスクとなり得る。
    • 未初期化変数による脆弱性は多く,既存のソフトウェアによる対策が不十分であるという課題がある。
    • 条件付き機能により,メモリ操作履歴に応じたアクセス制御を行い,未初期化変数による問題を解決する。
    • 条件付き機能は,QEMUシミュレータおよびFPGAベースのCHERI-RISCVソフトコアにおいて,高い検出精度を示した。
    • 導入による性能オーバーヘッドはわずか約3.5%であり,基本的なCHERI機能と同程度である。
    • 本研究は,未初期化メモリアクセスを抑制するためのハードウェアアーキテクチャ拡張を提案し,実用性を示した。

    Link: https://arxiv.org/abs/2407.08663

  • アゴラ:機密コンピューティングにおける検証のための信頼の低減と開放 [cs.CR]目的:機密コンピューティングにおける検証サービスの構築
    • ソフトウェアセキュリティにおいて,バイナリ検証は極めて重要であり,その信頼性と開放性が課題となっている。
    • 従来の検証サービスは,信頼できる基盤(TCB)が大きくなり,運用コストが増大するという問題があった。
    • AGORAは,信頼できない主体へのタスク委譲とTCBの最適化により,これらの問題を解決することを目指す。
    • AGORAは,信頼できないアサーションの検証を可能にする新しいバイナリ検証サービスである。
    • ブロックチェーンベースのバウンティタスクマネージャーを活用し,定理証明器への信頼を排除している。
    • ソフトウェアベースのフォールト分離ポリシーとサイドチャネル対策の検証を通じて,AGORAの有効性が実証された。

    Link: https://arxiv.org/abs/2407.15062

  • 画像改ざん防止のための意味的ウォーターマーキング:SWIFT [eess.SY, cs.SY, math.OC, cs.CR, cs.AI, cs.CV, cs.MM]目的:画像認証と改ざん検出
    • デジタル画像の普及に伴い,改ざん検出の重要性が増している。
    • 従来の改ざん検出法は,巧妙な改ざんに対応できない場合がある。
    • 意味情報を埋め込むことで,改ざんの検出精度とロバスト性を向上させる。
    • 提案手法は,HiDDeNアーキテクチャを改良し,画像のキャプションを埋め込むことで,悪意のある編集と通常の編集の両方に対して高い耐性を示す。
    • メッセージ復旧率と相関する局所信頼度指標を導入し,実用的な適用性を高めた。
    • 従来のウォーターマーキングと受動的なフォレンジック手法を組み合わせることで,画像完全性検証のための堅牢なソリューションを提供する。

    Link: https://arxiv.org/abs/2407.18995

  • スマートコミュニティにおける相互運用性と説明可能なAIに基づくゼロデイ攻撃検知プロセス [eess.SY, cs.SY, math.OC, cs.CR]目的:ゼロデイ攻撃検知プロセスの構築
    • 社会インフラの安全性を確保するため,国際的な連携と信頼性が重要である。
    • 既存のセキュリティシステムは,新たな攻撃に対して脆弱性を抱えている。
    • 次世代技術を統合し,未知の攻撃に対する防御能力を高める。
    • 6G,IoE,AI,WiFi-8等の技術連携により,既知および未知の攻撃ベクトルへの対策が可能となる。
    • 相互運用性と説明可能なAI(XAI)の統合は,ゼロデイ攻撃に対する堅牢な防御を実現する。
    • 攻撃パターンの分析精度と処理時間に関するパラメータ評価を実施した。

    Link: https://arxiv.org/abs/2408.02921

  • 準同型暗号とLoRAを用いたPrivTuner:AI基盤モデルのプライバシー保護型パラメータ効率的ファインチューニングスキーム [cs.CR]目的:AI基盤モデルのプライバシー保護型パラメータ効率的ファインチューニング
    • AI基盤モデルの性能向上は多岐にわたる分野で注目されており,その活用範囲は拡大の一途を辿っている。
    • ファインチューニング時にモデルパラメータや学習データが漏洩するリスクがあり,プライバシー保護が課題となっている。
    • パラメータ効率性とプライバシー保護を両立する新たなファインチューニングフレームワークの実現を目指す。
    • 提案手法PrivTunerは,準同型暗号とLoRAを組み合わせることで,データ保護とパラメータ効率の両立を実現した。
    • 無線通信環境下でのPrivTunerシステムに対し,エネルギー消費とプライバシー保護を同時に最適化するリソース割り当てアルゴリズムを開発した。
    • 実験により,提案アルゴリズムが様々なプライバシー要件に適応しつつ,エネルギー消費を大幅に削減できることが示された。

    Link: https://arxiv.org/abs/2410.00433

  • 機械的アンラーニングと検索拡張生成(RAG)の融合:秘密保持か知識の忘却か [cs.CR, cs.CL]目的:大規模言語モデルにおける機密情報の保持と有害コンテンツの問題解決
    • 大規模言語モデルの利用拡大に伴い,倫理的・法的課題が顕在化しているため。
    • 既存のアンラーニング手法は,計算コストが高い,適用範囲が限られる,または破滅的忘却のリスクがある。
    • RAG技術に基づき,軽量な行動的アンラーニングフレームワークを構築し,知識の忘却をシミュレートする。
    • 提案手法は,効果性,普遍性,無害性,簡潔性,および堅牢性の5つのアンラーニング基準を満たすことが実験により示された。
    • 特に,既存のアンラーニング手法が困難なクローズドソースLLMにおいて有効性が確認された。
    • マルチモーダル大規模言語モデルやLLMベースのエージェントへの拡張可能性も示唆された。

    Link: https://arxiv.org/abs/2410.15267

  • AIソフトウェアにおける効果的な脆弱性管理の最小要素の確立 [cs.CR]目的:AI脆弱性管理の最小要素
    • AI技術の発展に伴い,システムの安全性確保が重要課題となっている。
    • 既存の脆弱性管理手法では,AI特有の脆弱性に対応できない。
    • AIシステムの脆弱性に対応したデータベース構築と管理体制の確立。
    • 本研究では,AI脆弱性管理の標準化されたフォーマットとプロトコルを提示した。
    • AI脆弱性データベース(AIVD)の構築が,AIシステムの安全性向上に不可欠であることが示唆された。
    • AI特有の脆弱性に対応するため,新たな重症度スコアや脆弱性列挙システムの必要性が強調された。

    Link: https://arxiv.org/abs/2411.11317

  • DemonAgent:LLMベースエージェントに対する動的暗号化複数バックドア埋め込み攻撃 [cs.CL, cs.CR, cs.AI]目的:LLMベースエージェントへのバックドア埋め込み攻撃手法
    • LLMエージェントの利用拡大に伴い,安全性確保が重要課題となっている。
    • 従来のバックドア攻撃は,推論過程の安全監査で検出される可能性がある。
    • 安全監査を回避し,より巧妙なバックドア埋め込み攻撃を実現すること。
    • 動的暗号化と複数サブバックドアへの分解により,安全監査を大幅に回避可能となった。
    • 提案手法は,100%近い攻撃成功率と0%の検出率を達成し,その有効性が示された。
    • 既存の安全機構の限界が明らかになり,より堅牢な防御策の必要性が示唆された。

    Link: https://arxiv.org/abs/2502.12575

  • 軽量検証可能準同型暗号の暗号解読 [cs.CR]目的:軽量検証可能準同型暗号の安全性評価
    • クラウドコンピューティング普及により,データ保護と計算正確性の両立が重要になっている。
    • 既存の検証可能準同型暗号は,計算効率と安全性のバランスに課題があった。
    • 軽量検証可能準同型暗号の脆弱性を明らかにし,現実的なセキュリティレベルを評価する。
    • 提案攻撃により,vADDGの80ビットセキュリティパラメータは10ビット未満のセキュリティしか提供しないことが示された。
    • REPおよびPEに対する攻撃は,完全準同型暗号を用いることで線形時間複雑度で確率1の偽造攻撃が可能であることを示した。
    • 暗号化方式の準同型性質を利用し,検証アルゴリズムを回避して暗号文を改ざんする攻撃手法を提示した。

    Link: https://arxiv.org/abs/2502.12628

  • 最先端AIがサイバーセキュリティ環境に与える影響 [cs.CY, cs.HC, cs.MA, cs.CR, cs.AI, cs.CY]目的:最先端AIのサイバーセキュリティへの影響分析
    • サイバー攻撃は巧妙化の一途をたどっており,セキュリティ対策の強化が急務である。
    • AI技術は攻撃に利用される一方,防御への応用は遅れており,その差が問題となっている。
    • AIが攻撃側優位となる状況を打開し,防御側の能力向上を目指す。
    • AIはすでに攻撃に広く利用されているが,防御,特に復旧や導入においては限定的である。
    • 専門家は,AIが今後も攻撃側を優位にすると予測するが,その差は徐々に縮小すると見ている。
    • 新たなサイバーセキュリティベンチマークの構築や,防御のためのAIエージェント開発が求められる。

    Link: https://arxiv.org/abs/2504.05408

  • 深層学習に基づく侵入検知システム:調査 [eess.SY, cs.SY, cs.CR, cs.AI]目的:深層学習に基づく侵入検知システムの現状と課題
    • サイバーセキュリティは重要性が増しており,侵入検知システムの役割は大きい。
    • 従来の侵入検知システムでは,未知の攻撃への対応が課題であった。
    • 深層学習を活用することで,未知の攻撃に対する検知能力の向上を目指す。
    • 本調査では,データ収集から攻撃調査までの深層学習に基づく侵入検知システムの各段階を体系的にレビューした。
    • 公開されているベンチマークデータセットの情報も提供し,研究者の利便性を高めた。
    • 現在の課題と将来の研究方向性について議論し,研究の推進を促すことを目的とした。

    Link: https://arxiv.org/abs/2504.07839

  • LLMはWebShell検出に対応できるか?行動関数認識フレームワークによる検出課題の克服 [cs.CR, cs.LG]目的:WebShell検出における大規模言語モデル(LLM)の有効性と限界の検証
    • Webサーバへの悪意のあるスクリプト注入であるWebShell攻撃は,重大なサイバーセキュリティ脅威である。
    • 従来の機械学習手法は,大量の学習データ,破滅的忘却,汎化性能の低さなどの課題を抱えている。
    • LLMをWebShell検出に応用する際の課題を解決し,検出性能を向上させる。
    • 大規模LLMは高い適合率を示す一方,小規模モデルは高い再現率を示すという,分析戦略の違いによるトレードオフが確認された。
    • 行動関数認識フレームワーク(BFAD)の適用により,すべてのLLMの性能が大幅に向上し,平均F1スコアが13.82%増加した。
    • 特に,大規模モデルは既存の最先端手法を上回り,小規模モデルも従来の技術と同等の性能を達成した。

    Link: https://arxiv.org/abs/2504.13811