arXiv雑要約

セキュリティ - 2026/03/05 公開

  • Maude-HCS:隠密通信システムの秘匿性と性能のトレードオフのモデル検査 [cs.CR]目的:隠密通信システムの秘匿性と性能のトレードオフに関する研究
    • ネットワークセキュリティにおいて,通信の秘匿性は重要な課題である。検知を回避しつつ,有用な通信を実現する必要がある。
    • 従来の秘匿性評価は,特定の環境や仮定に依存しており,一般的な保証を提供できないという問題がある。
    • 統計的区別不能性に基づいた秘匿性の形式的な定義と,モデル検査による評価手法を確立し,解決を目指す。
    • Maude-HCSは,隠密通信システムのプロトコル,観測者,環境設定を記述し,実行トレースを生成するフレームワークである。
    • このフレームワークを用いることで,統計的検定の偽陽性率と真陽性率を推定し,秘匿性の下限値を算出できる。
    • トンネリングベースの隠密通信システムを評価した結果,モデルによる予測と実測値の間に強い整合性が見られた。

    Link: https://arxiv.org/abs/2603.03369

  • 休眠細胞:ツール利用型LLMへの潜在的な悪意的時間的バックドアの注入 [cs.CR, cs.AI]目的:ツール利用型LLMへのステルス的なバックドア注入手法
    • オープンソースLLMの普及によりAIエージェント開発が進む一方,セキュリティ評価が不十分な場合がある。
    • ファインチューニングされたモデルの共有・利用が進む中で,悪意のある振る舞いを隠蔽するリスクが存在する。
    • LLMに潜む潜在的な悪意を検出し,安全なAIエージェント開発を促進することを目的とする。
    • 本研究では,Parameter-Efficient Fine-Tuning (PEFT)を用いて,ツール利用型エージェントに悪意のある振る舞いを注入する手法を提案した。
    • 提案手法SFT-then-GRPOは,能力付与と行動制御を分離することで,特定の条件下でのみ悪意のある行動を実行するように誘導する。
    • 実験結果から,本手法によりバックドア化されたモデルは,通常のタスク性能を維持しつつ,隠蔽された悪意を抱えることが示された。

    Link: https://arxiv.org/abs/2603.03371

  • IEEE,ETSI,YD/T 3957-2021に基づく資格証明管理システムの比較 [cs.CR, cs.NI, cs.PF]目的:V2X環境における資格証明管理システムの標準規格比較
    • V2X技術の普及に伴い,ネットワークセキュリティの確保が重要課題となっている。
    • 各地域で異なる標準規格が採用されており,相互運用性の問題が存在する。
    • 異なる標準規格間の類似点・相違点を分析し,相互運用性を高めるための指針を示す。
    • IEEE,ETSI,YD/T 3957-2021の3規格について,証明書フォーマットや署名プロセスなどを比較分析した。
    • NIST P-256/SM2-256,SHA-256/SM3-256,AES-128/SM4-128といった暗号方式の効率についても評価を行った。
    • V2Xデバイスへの実装と検証により,メッセージ署名・検証の効率を比較し,安全な資格証明管理システム開発の参考となる知見を得た。

    Link: https://arxiv.org/abs/2603.03376

  • 量子耐性のある医療AIのための格子ベースのハイブリッド暗号化を用いたゼロ知識連合学習 [cs.CR, cs.AI]目的:量子耐性を持つ医療AIのためのゼロ知識連合学習プロトコル
    • 医療AIは,患者データ保護とモデルの共同学習という課題を抱えている。連合学習はその解決策の一つである。
    • 連合学習では,モデル更新の交換時に,勾配反転攻撃や悪意のあるクライアントによるモデル汚染のリスクが存在する。
    • 将来の量子コンピュータによる攻撃に耐性を持つ,より安全な連合学習プロトコルを開発すること。
    • 提案手法ZKFL-PQは,量子耐性鍵カプセル化,格子ベースのゼロ知識証明,および準同型暗号化を組み合わせることで,悪意のある更新を100%排除した。
    • 従来の連合学習と比較して,モデル精度を維持しながら,勾配の整合性を保証することができた。
    • 計算オーバーヘッドは約20倍だが,臨床研究ワークフローにおいて実用的な範囲内であると示された。

    Link: https://arxiv.org/abs/2603.03398

  • 共有は思いやり:不確かな要素から生まれる検証可能で信頼できるワークフロー [cs.CR, cs.OS]目的:機密コンピューティングにおけるコンポーネント間の安全な通信機構
    • クラウド環境において,データの機密性と完全性を保つことは極めて重要である。
    • 既存のTEEでは,コンポーネント間の信頼を前提とするため,脆弱性が存在する。
    • コンポーネント間の信頼関係なしに,機密データの漏洩を防ぐ仕組みを確立すること。
    • Micaは,機密性と信頼性を分離するアーキテクチャであり,コンポーネント間の通信経路を明示的に制御・検証可能にする。
    • Arm CCA上でMicaを実装し,既存の機能を活用することで,信頼できるコンピューティングベースへの変更を最小限に抑えた。
    • 評価の結果,Micaは現実的なクラウドパイプラインをサポートし,強力な機密性保証を提供することが示された。

    Link: https://arxiv.org/abs/2603.03403

  • GoogleのSynthID-Text LLMウォーターマークシステム:理論的分析と実証的検証 [cs.CR, cs.AI]目的:大規模言語モデル生成テキストの識別可能性向上
    • AI生成テキストの普及に伴い,その出所を特定する技術の重要性が増している。
    • 既存のウォーターマーク技術は,検出性能やロバスト性に課題が残されていた。
    • SynthID-Textの理論的脆弱性を分析し,より堅牢なウォーターマーク技術の開発に貢献する。
    • 本研究により,平均スコアがトーナメント層の増加に脆弱であることが証明された。
    • 層インフレーション攻撃によってSynthID-Textを破る手法が示された。
    • ベイズスコアが層に対するウォーターマークのロバスト性を向上させることが実証された。

    Link: https://arxiv.org/abs/2603.03410

  • 顔中心画像生成編集のためのプライバシー保護パイプラインPRIVATEEDIT [cs.CR, cs.AI]目的:顔中心の画像生成編集におけるプライバシー保護
    • 画像生成編集技術は急速に進歩しており,様々な応用が期待されている。
    • 顔画像を高画質でアップロードする必要があり,プライバシー侵害のリスクが存在する。
    • ユーザーの生体データを保護しつつ,高品質な編集を可能にすることを目指す。
    • 本研究では,デバイス上でのセグメンテーションとマスキングにより,顔の個人情報領域と編集可能な画像領域を分離するパイプラインを提案した。
    • これにより,第三者の生成モデルを変更することなく,安全でユーザー制御された編集が可能となる。
    • マスキングの調整機構により,プライバシーと出力品質のバランスをユーザーが制御できる。

    Link: https://arxiv.org/abs/2603.03412

  • テスト時スケーリングにおける多系列検証器 [cs.HC, cs.CY, cs.CR, cs.AI]目的:大規模言語モデルの性能向上
    • 言語モデルの性能向上は,様々な自然言語処理タスクの精度向上に不可欠である。
    • 候補解の選択精度と推論遅延が,テスト時スケーリングのボトルネックとなっている。
    • 候補解間の相互作用を考慮した検証器による精度向上と低遅延化を目指す。
    • 提案手法であるMulti-Sequence Verifier (MSV) は,候補解の同時処理により検証精度を向上させる。
    • MSVは,従来の検証器と比較して,より正確な解選択を可能にする。
    • ストリーミングMSVと早期終了フレームワークにより,推論遅延を大幅に削減できる。

    Link: https://arxiv.org/abs/2603.03417

  • C-V2X対応ロードセーフティへの敵対的攻撃の影響分析:情報鮮度の視点から [cs.CR, cs.NI]目的:C-V2Xを用いたロードセーフティに対する敵対的攻撃の影響評価
    • 自動運転技術の発展において,車両間通信は不可欠であり,安全性向上に貢献する。
    • NR-V2Xの脆弱性が存在し,セキュリティリスクが懸念されている。
    • NR-V2Xにおける敵対的攻撃が,自動運転システムの安全性に及ぼす影響を定量的に評価する。
    • 提案手法であるリソース枯渇攻撃により,NR-V2Xのサービスレベル要件が最大15%低下し,安全な運転条件が損なわれる可能性がある。
    • リソースが不足すると,良質な車両も利己的に行動し,さらなる安全性の低下を招くことが示された。
    • 情報鮮度(AoI)は,NR-V2Xへの敵対的攻撃の影響を評価する上で重要な指標であることが確認された。

    Link: https://arxiv.org/abs/2603.03462

  • DKD-KAN:MLPとKANに基づく軽量知識蒸留型侵入検知フレームワーク [cs.CR, cs.SY, eess.SP, eess.SY]目的:侵入検知のための軽量フレームワークの開発
    • サイバーセキュリティは,社会基盤を支える上で不可欠であり,その重要性は増している。
    • エッジ環境やリアルタイム監視システムでは,リソースが限られており,モデルサイズと推論速度が課題となる。
    • 限られたリソースでも高性能な侵入検知を可能にする手法を確立すること。
    • 本研究では,複雑な特徴を捉えるKANと効率的な知識蒸留(DKD)を組み合わせた軽量なフレームワークを提案した。
    • DKD-MLPモデルは,KANモデルと比較して大幅にパラメータ数を削減し,リソース制約のあるデバイスへの展開に適している。
    • WADIおよびSWaTデータセットにおいて,DKD-MLPモデルは,単純なMLPモデルと比較してF1スコアがそれぞれ4.18%,3.07%向上した。

    Link: https://arxiv.org/abs/2603.03486

  • SENTINEL:パイプライン並列分散学習における段階的な整合性検証 [cs.DC, cs.CR, cs.LG]目的:パイプライン並列分散学習の整合性検証機構
    • 分散学習の普及に伴い,セキュリティリスクへの対策が不可欠である。
    • 従来の耐ビザンチン性研究はデータ並列学習に偏っており,パイプライン並列学習への適用が困難である。
    • パイプライン並列学習における段階間通信の改ざん検出と,学習の安定性を実現する。
    • SENTINELは,計算の重複なしに,パイプライン並列学習の整合性を検証する機構である。
    • 軽量なMomentumベースの監視により,段階間通信の破損を検出し,理論的な収束性を保証する。
    • 最大40億パラメータのLLMを,最大176ワーカーの信頼できない分散環境で学習可能であることを示した。

    Link: https://arxiv.org/abs/2603.03592

  • スクランブラ: Eグラフと等式展開を用いた混合ブール算術難読化ツール [cs.CL, econ.EM, cs.CR]目的:混合ブール算術難読化ツールの開発
    • ソフトウェアの知的財産保護は重要であり,難読化技術はその有効な手段の一つである。
    • 既存の難読化ツールでは,表現力や複雑さに限界があり,高度な攻撃への耐性が低い場合がある。
    • Eグラフと等式展開を用いることで,より複雑かつ多様な表現を効率的に生成し,難読化強度を高める。
    • スクランブラは,Eグラフに基づいて,等式展開を用いて効率的に複雑な表現を生成する。
    • 実験の結果,スクランブラは既存のツールと比較して,表現力と複雑さにおいて優れていることが示された。
    • 本研究で提案する手法は,ソフトウェアの難読化性能向上に貢献する。

    Link: https://arxiv.org/abs/2603.03624

  • LLMを活用したシステムの目標駆動型リスク評価:医療分野における事例研究 [cs.RO, cs.IR, cs.MA, eess.SY, cs.SY, math.OC, cs.CR, cs.AI]目的:LLMを活用したシステムのセキュリティリスク評価手法
    • 医療分野をはじめとする重要領域でLLM活用が進む中,セキュリティ確保は不可欠である。
    • 従来の脅威モデリングは抽象的でリスク評価に限界があり,LLM特有の攻撃に対応しにくい。
    • アタツキツリーを用いて詳細な攻撃経路を特定し,リスク評価の精度向上を目指す。
    • 提案手法を医療システムに適用し,LLMと従来の攻撃を組み合わせた具体的な攻撃経路を提示した。
    • リスク評価の構造化により,LLMベースシステムの安全設計に貢献できることを示した。
    • LLMに対する最新の攻撃手法と従来の攻撃手法を統合し,類似システムへの応用可能性を示唆した。

    Link: https://arxiv.org/abs/2603.03633

  • 画像に基づくプロンプトインジェクション:視覚的に埋め込まれた敵対的指示によるマルチモーダルLLMの乗っ取り [cs.CV, cs.AI, cs.CR]目的:画像に基づくプロンプトインジェクションの脆弱性
    • マルチモーダルLLMは応用範囲が広く,その安全性が重要である。
    • 視覚とテキストの統合により,新たな脆弱性が生じる可能性がある。
    • 敵対的指示を画像に埋め込み,モデルの挙動を制御する攻撃に対抗する。
    • 画像に敵対的指示を埋め込むことで,モデルの出力を確実に操作できることが示された。
    • 最も効果的な設定では,ステルス性を維持しながら最大64%の攻撃成功率を達成した。
    • 本研究は,ブラックボックス環境におけるマルチモーダルプロンプトインジェクションの現実的な脅威を強調する。

    Link: https://arxiv.org/abs/2603.03637

  • 無謀な設計と破られた約束:ソーシャルメディアにおけるターゲティングインタラクティブ広告のプライバシーへの影響 [cs.CR, cs.CY]目的:ソーシャルメディアにおけるターゲティングインタラクティブ広告のプライバシー侵害
    • ソーシャルメディアは情報収集の主要な場であり,プライバシー保護は不可欠である。
    • ターゲティング広告は,意図しない情報漏洩のリスクを抱えている。
    • 広告とのインタラクションによるユーザーのプライバシー侵害を解消すること。
    • ソーシャルメディアプラットフォームの設計により,広告主は広告に反応したユーザーのプロフィールを閲覧可能となる。
    • これは,プラットフォームが約束したユーザーデータの保護に反する行為である。
    • 広告インタラクションの結果に対する透明性を高めることで,意図しない情報開示を防ぐべきである。

    Link: https://arxiv.org/abs/2603.03659

  • インターネットマルウェア拡散:再発と介入を含むSEIRV疫学モデルによるダイナミクスと制御 [cs.CR, cs.SY, eess.SY, math.DS]目的:マルウェア拡散のダイナミクス理解と効果的な制御戦略の設計
    • 現代社会において,デジタル環境は不可欠であり,マルウェア攻撃は社会インフラへの脅威となる。
    • 既存研究では,マルウェアの再感染や介入の効果を十分に考慮したモデルが不足していた。
    • マルウェア拡散のメカニズムを詳細に解析し,実効的な制御策を特定することを目的とする。
    • 提案モデルを用いて,マルウェア拡散の閾値や安定性を解析し,疫学的な特性を明らかにした。
    • 影響度の高いパラメータを特定し,マルウェア拡散抑制のための重要な制御対象を示唆した。
    • 介入開始時期と感染者数削減の関係において,介入遅延による効果減少が指数関数的に示された。

    Link: https://arxiv.org/abs/2603.03712

  • IoTデバイスを用いたオフラインCBDC決済システムにおけるゼロ知識証明認証 [cs.CR, cs.AI, cs.CE]目的:オフラインCBDC決済システムのセキュリティ確保
    • 中央銀行デジタル通貨は金融包摂,金融安定,決済効率化に貢献する重要なツールである。
    • IoTデバイスはリソース制約があるため,二重支払い防止やプライバシー保護が課題となる。
    • オフライン環境での安全かつ効率的なCBDC決済を実現し,金融包摂を促進することを目指す。
    • 本研究では,セキュアエレメントとゼロ知識証明を用いることで,オフラインCBDC決済モデルを提案する。
    • 提案モデルは,IoTデバイスの制約に対応するため,軽量な暗号アルゴリズムと断続的な同期を採用している。
    • オンライン決済とオフライン決済を組み合わせたハイブリッドアーキテクチャにより,セキュリティと利便性を両立する。

    Link: https://arxiv.org/abs/2603.03804

  • 連合学習における構造を考慮した分散型バックドア攻撃 [cs.CL, cs.LG, cs.AI, cs.CR]目的:連合学習環境下でのバックドア攻撃に関する構造的影響の分析
    • プライバシー保護とモデルの活用を両立する連合学習は,近年重要性が増している。
    • バックドア攻撃に対する脆弱性が懸念されるが,モデル構造の影響が十分に考慮されていない。
    • モデル構造とバックドア攻撃の相互作用を明らかにし,より効果的な防御策の設計を目指す。
    • モデル構造が摂動の伝播と集約に大きな影響を与えることが実験的に示された。
    • マルチパス特徴融合を持つネットワークは,低いポイズニング率でも摂動を増幅・維持しやすい。
    • 構造的適合性係数(SCC)と攻撃成功率の間に強い相関があり,摂動の生存可能性を予測できる可能性が示唆された。

    Link: https://arxiv.org/abs/2603.03865

  • LLM駆動エージェントのダークパターン監査への適合性 [cs.CR, cs.AI, cs.CL, cs.CY, cs.HC]目的:ダークパターンの識別可能性
    • ウェブサイトにおけるユーザー操作誘導の巧妙化が進み,悪質な誘導デザイン(ダークパターン)の検出が重要である。
    • ダークパターンの検出は,専門知識を要し,手動での監査は時間とコストがかかるという課題がある。
    • LLM駆動エージェントによるダークパターンの自動監査の実現可能性と限界を明らかにすること。
    • LLM駆動エージェントは,456のデータブローカーサイトで,権利行使リクエストフローを安定的に特定・完了できた。
    • エージェントによるダークパターンの分類は,一定の信頼性と再現性を示したが,誤判定や失敗も観測された。
    • LLM駆動エージェントによるダークパターン監査は,スケーラブルな手法として一定の有効性を持つことが示された。

    Link: https://arxiv.org/abs/2603.03881

  • 合成ソーシャルメディアデータセットにおけるプライバシーと忠実性の測定 [cs.CR]目的:合成データによるプライバシーと忠実性の定量評価
    • 研究における個人情報保護の重要性が増しており,データ共有とプライバシー保護の両立が課題である。
    • 既存の合成データ生成手法では,プライバシー保護が十分に担保されているか不明な点が多い。
    • ソーシャルメディアのテキストデータにおけるプライバシーリスクを定量的に評価し,プライバシーと忠実性の間のトレードオフを明らかにする。
    • 合成Instagram投稿の著者特定攻撃において,実データでは81%の精度であったRoBERTa-large分類器は,合成データでは16.5-29.7%の精度にとどまり,プライバシーリスクの軽減が確認された。
    • テキストの特徴,感情,トピック,埋め込み類似度に基づいた忠実度評価により,忠実度が高いほどプライバシー漏洩のリスクが高まることが示唆された。
    • 本研究は,合成テキストデータのプライバシー評価フレームワークを提供し,ソーシャルメディアデータセットにおけるプライバシーと忠実性の間の緊張関係を実証した。

    Link: https://arxiv.org/abs/2603.03906

  • 脅威インテリジェンスからファイアウォールルールへ:ハイブリッドAIエージェントと専門家システムの体系における意味関係 [cs.AI, cs.CL, cs.CR]目的:サイバー脅威に対するセキュリティ制御設定のための情報抽出
    • Webセキュリティにおいて,変化するサイバー脅威への迅速な対応が不可欠である。
    • AIによる自動化が期待される一方,信頼性の高いセキュリティ対応が求められる。
    • 脅威インテリジェンスからファイアウォールルールを自動生成する仕組みを構築すること。
    • 上位-下位関係のテキスト関係を活用することで,脅威インテリジェンスレポートからの情報抽出性能が向上した。
    • ニューロシンボリックアプローチにより,エージェントシステムが専門家システム用のCLIPSコードを自動生成することが可能となった。
    • 提案手法は,ベースラインと比較して優れた性能を示し,脅威軽減の有効性が確認された。

    Link: https://arxiv.org/abs/2603.03911

  • 安全性が脆弱性となる時:RAGにおける転移可能なブロック攻撃のためのLLMアライメントの均質性の悪用 [cs.CR]目的:RAGシステムにおける転移可能なブロック攻撃手法の開発
    • LLMは知識獲得により能力が向上するが,その知識ベースの脆弱性が新たなリスクとなる。
    • 従来のブロック攻撃は,最新の安全アライメントLLMに対して効果が低下している。
    • LLMアライメントの均質性を悪用し,ブラックボックス環境下での転移可能な攻撃を実現する。
    • 安全アライメントLLMは,クエリに関連するリスク信号に敏感であり,それが拒否の原因となることが示された。
    • 提案手法TabooRAGは,7種類のLLMと3つのデータセットで高い転移性とブロック成功率(GPT-5.2で最大96%)を達成した。
    • LLMの標準化された安全アライメントがRAGシステムにおける共有された攻撃対象領域を形成していることが明らかになった。

    Link: https://arxiv.org/abs/2603.03919

  • 分散型LLM推論における品質証明付き多次元品質スコアリングフレームワーク [cs.PF, cs.DC, cs.LG, cs.AI, cs.CR]目的:分散型LLM推論における出力品質の評価メカニズム
    • 大規模言語モデルの利用拡大に伴い,分散型推論の効率的な品質評価が不可欠である。
    • 評価者の異質性や悪意ある行動により,既存の品質評価メカニズムでは公平な報酬分配が困難である。
    • 出力品質を多角的に評価し,信頼性の高いスコアリングフレームワークを構築することで,公平な評価を実現する。
    • 出力品質を,モデル特性,構造,意味,クエリとの整合性,合意度といった多次元に分解するフレームワークを提案した。
    • 各次元の信頼性を検証した結果,タスク依存性や参照品質との負の相関が見られた。
    • 信頼性の低い次元を除去し,重みを再正規化することで,単一の評価者や合意に基づくベースラインを上回るスコアリングが可能となった。

    Link: https://arxiv.org/abs/2603.04028

  • OMNIINTENT:ユーザーフレンドリーなWeb3のための信頼性の高い意図中心フレームワーク [cs.CR]目的:Web3におけるユーザーの意図を重視したフレームワークの設計と実装
    • Web3とDeFiの複雑化に伴い,参加者の高度な専門知識と金融リテラシーが求められている。
    • 既存の意図中心アプローチは,表現力,信頼性,プライバシー,相互運用性のいずれかの点でトレードオフを伴う。
    • 表現力,信頼性,プライバシー,相互運用性を両立する意図中心フレームワークの構築を目指す。
    • OMNIINTENTは,意図の仕様,コンパイル,実行最適化を包括的に行うフレームワークである。
    • 多様なDeFiシナリオにおいて,89.6%の意図カバレッジ,最大7.3倍のスループット向上を達成した。
    • 実行可能性予測の精度は最大99.2%に達し,低遅延で高い性能を示した。

    Link: https://arxiv.org/abs/2603.04168

  • CAM-LDS:システムログとセキュリティアラートの自動解釈のためのサイバー攻撃の兆候 [cs.DB, cs.CR, cs.AI]目的:サイバー攻撃の兆候に関するログデータセット
    • セキュリティインシデントの検知とフォレンジック調査において,ログデータは不可欠である。
    • ログデータは量が多く,形式が多様で非構造化されており,手動分析は困難である。
    • 大規模言語モデルを活用し,広範な攻撃手法を網羅したログデータセットを構築することで,その課題を解決する。
    • 本研究で開発したCAM-LDSは,13の戦術と81の具体的な攻撃手法を網羅する7つの攻撃シナリオを含む。
    • 大規模言語モデルを用いた実証実験の結果,攻撃ステップの約3分の1で正確な攻撃手法の予測が可能であり,さらに3分の1で適切な予測が得られた。
    • これらの結果は,大規模言語モデルを用いたログ解釈の可能性と,本データセットの有用性を示唆している。

    Link: https://arxiv.org/abs/2603.04186

  • ゲームリソース局所化攻撃に対する統計的労力モデル化 [cs.CR]目的:ゲームリソース局所化攻撃の労力に関する統計モデル
    • ソフトウェア保護技術の有効性評価は重要であり,ゲームチート対策を含む。
    • ソフトウェア保護の労力評価は,実証研究に限界があり,効率的な手法が求められる。
    • 本研究は,ソフトウェア保護の有効性を定量的に評価するためのモデル構築を目指す。
    • 提案手法の実現可能性と,ソフトウェア保護ツール利用者の意思決定支援への有用性が確認された。
    • ゲームリソース局所化攻撃の労力モデルが,2つのゲーム事例を通して構築された。
    • 人間による実証研究と比較して,より大規模な評価が可能となる道が開かれた。

    Link: https://arxiv.org/abs/2603.04261

  • PTOPOFL:持続ホモロジーによるプライバシー保護型パーソナライズされた分散学習 [cs.LG, cs.CR, cs.DC, math.AT, stat.ML]目的:プライバシー保護と分散学習における集約品質の改善
    • 医療データなど,データ共有が困難な状況下での機械学習の活用が重要視されている。
    • 分散学習では,勾配情報の共有により,データ復元のリスクや,クライアント間データの非IID性による集約精度の低下が課題である。
    • 持続ホモロジーを用いて,勾配情報の共有を回避し,プライバシーを保護しつつ,高精度な分散学習を実現する。
    • PTOPOFLは,勾配情報の代わりに48次元の持続ホモロジー特徴ベクトルを用いることで,データ復元リスクを低減することに成功した。
    • Wasserstein距離に基づくクラスタリングとトポロジー重み付けされた集約により,FedAvgよりも高いAUCを達成した。
    • 持続ホモロジー特徴量は,勾配情報と比較して,サンプルあたりの相互情報量を厳密に少なく抑えることが証明された。

    Link: https://arxiv.org/abs/2603.04323

  • 悪癖を断つ:シミュレーションによるフィッシングキャンペーンの影響範囲を限定する [cs.CR, cs.CY]目的:フィッシングキャンペーンにおけるクリック行動の因果的影響の正確な評価
    • 組織におけるサイバーセキュリティ対策は重要であり,従業員の意識向上が不可欠である。
    • フィッシングキャンペーンの介入は,クリックした従業員にのみ行われるため,データに偏りが生じやすい。
    • 安定した個人の特性と習慣形成を区別し,キャンペーンの効果を正確に評価すること。
    • 従来の分析では,安定した個人の特性を無視することで,クリック行動の持続性が過大評価される傾向がある。
    • キャンペーンの説得的要素が共通している場合,クリック行動の持続性が強まることが明らかになった。
    • 感情的な表現や報告の推奨は持続性を抑制する一方,メールの注釈はわずかに悪化させる。

    Link: https://arxiv.org/abs/2603.04324

  • 敵対的アラインメントヤコビアン正則化によるエージェントAIシステムの堅牢性 [cs.LG, cs.AI, cs.CR, cs.MA]目的:エージェントAIシステムの堅牢性向上
    • 大規模言語モデルが自律的なマルチエージェントシステムへ進化する中で,堅牢性が重要となる
    • 非線形なポリシーが内側の最大化において極端な局所曲率を引き起こし,堅牢なミニマックス学習が不安定になりやすい
    • 敵対的アラインメントヤコビアン正則化(AAJR)により,最適化経路の安定性を確保し,堅牢性を高める
    • AAJRは,既存のグローバルなヤコビアン制約よりも許容されるポリシーのクラスを拡大し,近似誤差を低減する
    • AAJRは,最適化経路に沿った実効的な滑らかさを制御し,内側のループの安定性を保証するためのステップサイズ条件を導出した
    • 本研究は,ミニマックス安定性とグローバルな表現制限を分離するエージェントの堅牢性に関する構造的理論を提供する

    Link: https://arxiv.org/abs/2603.04378

  • 信頼を取引へ:YouTubeインフルエンサーエコノミーにおけるアフィリエイトマーケティングとFTCコンプライアンスの追跡 [cs.NI, cs.CY, cs.CR, cs.IR, cs.LG, cs.SI]目的:YouTubeにおけるアフィリエイトマーケティングの実態とFTCコンプライアンス遵守状況
    • YouTubeは強力なプラットフォームとなり,インフルエンサーによる収益化が一般的になっている。
    • アフィリエイト関係の開示義務が守られず,消費者への不利益が生じている。
    • YouTubeにおけるアフィリエイトマーケティングの普及度とコンプライアンス率を定量的に評価する。
    • アフィリエイトリンクは広く普及しているが,FTC基準を満たす開示は少ないことが判明した。
    • プラットフォームが標準化された開示機能を提供することで,コンプライアンスが向上する傾向が示唆された。
    • 規制当局とアフィリエイトパートナーがプラットフォームと連携し,透明性と信頼性を高めることが推奨される。

    Link: https://arxiv.org/abs/2603.04383

  • ベイジアン敵対的プライバシー [math.ST, cs.CR, cs.LG, stat.ME, stat.TH]目的:プライバシーの定量的な概念
    • プライバシー保護は重要であり,個人情報や機密情報の漏洩を防ぐ必要がある。
    • 従来の差分プライバシーや統計的開示理論では,プライバシーの定義が曖昧である。
    • より意味のある,文脈依存的かつ具体的なプライバシーの概念を提案し,問題解決を目指す。
    • 本研究では,標準的なベイジアン決定理論に基づきながら,情報公開主体がデータに依存せず事前分布の視点から開示決定を行うべきであると主張する。
    • 提案手法は,差分プライバシーよりも意味のあるプライバシー概念を提供し,統計的開示理論よりも厳密な定式化を行う。
    • 具体的な例や計算手法を用いて,提案手法の特性を詳細に説明している。

    Link: https://arxiv.org/abs/2603.04199

  • virtCCA:TrustZoneを用いた仮想化されたArm Confidential Compute Architecture [cs.CR]目的:Arm Confidential Compute Architectureの仮想化
    • 機密コンピューティングの重要性が増しており,データ保護の新たな手法が求められている。
    • CCA対応ハードウェアの普及が遅れており,開発環境の構築が困難である。
    • 既存のArmプラットフォームでCCAの機能をエミュレートし,開発を促進すること。
    • virtCCAは,既存のTrustZone技術を用いてCCAを仮想化するアーキテクチャである。
    • S-EL2拡張を持つArmサーバーと持たないサーバーの両方で実装されており,CCA仕様との互換性が高い。
    • マイクロベンチマークとマクロベンチマークの結果,CVMの実行オーバーヘッドは許容範囲内であることが示された。

    Link: https://arxiv.org/abs/2306.11011

  • プラグ・アンド・ハイド:検証可能で調整可能な拡散生成ステガノグラフィ [cs.CR]目的:拡散モデルに基づく生成画像ステガノグラフィにおける画像品質,安全性,抽出信頼性のトレードオフ
    • 画像に秘密情報を隠蔽するステガノグラフィは,情報セキュリティにおいて重要な役割を果たす。
    • 従来のステガノグラフィは,隠蔽容量と安全性に課題があり,高画質維持が困難である。
    • 拡散モデルの特性を利用し,画像品質,安全性,抽出信頼性を両立する新たな手法を提案する。
    • 提案手法PA-B2Gは,任意の長さのビット列をガウスノイズに可逆的にエンコードすることを理論的に保証する。
    • PA-B2Gは,既存の拡散モデルに追加学習なしで統合でき,柔軟なペイロードサイズに対応可能である。
    • 実験結果から,提案手法は高い画像品質とセキュリティを維持しつつ,損失圧縮に対しても堅牢であることが示された。

    Link: https://arxiv.org/abs/2409.04878

  • 記憶が脆弱性となる時:テキスト-画像生成システムに対する複数ターン脱獄攻撃に向けて [cs.CV, cs.CR]目的:テキスト-画像生成システムのメモリ機構を悪用した複数ターン脱獄攻撃手法の開発
    • 近年のテキスト-画像生成技術の発展は目覚ましいが,安全性評価は進んでいない。
    • 既存の攻撃は単一のプロンプトに悪意を凝縮するため,検知や安全性の担保が難しい。
    • 対話の初期段階でメモリに悪意を埋め込み,既存手法の限界を克服する。
    • 提案手法Inceptionは,実世界のテキスト-画像生成システムに対して高い攻撃成功率を示す。
    • VisionFlowにより,二段階の安全フィルタと産業グレードのメモリ機構を再現した環境を構築した。
    • Inceptionは,最先端技術を20.0%上回る攻撃成功率を達成し,実用的な脅威を検証した。

    Link: https://arxiv.org/abs/2504.20376

  • Appleの合成デフォーカスノイズパターン:特徴付けとフォレンジック応用 [cs.CV, cs.CR, eess.IV]目的:Appleの合成デフォーカスノイズパターン(SDNP)の特徴付けと,それを利用したフォレンジック応用の検討
    • デジタルフォレンジックにおいて,画像生成デバイスの識別は重要な課題である。
    • iPhoneのポートレートモード画像に特有のノイズパターンが,カメラ認証の精度を低下させる可能性がある。
    • SDNPを正確に推定し,その影響を軽減することで,カメラ認証の信頼性を向上させる。
    • iPhoneのポートレートモード画像に存在するSDNPを詳細に特徴付け,シーンの明るさやISO設定との関係性をモデル化した。
    • SDNPを利用して,iPhoneのモデルやiOSバージョン間での画像追跡が可能であり,画像加工に対する頑健性も確認された。
    • PRNUベースのカメラ認証において,SDNPの影響領域をマスキングすることで誤検出を大幅に減少させ,カメラ帰属の精度を向上させた。

    Link: https://arxiv.org/abs/2505.07380

  • クラウドの証明:機密VMのデータセンター実行保証 [cs.CR, cs.DC]目的:機密VMのデータセンター内実行保証のメカニズム
    • クラウドコンピューティングの普及に伴い,機密性の高い処理を安全に行う必要性が高まっている。
    • 既存のVMアテステーションはコードの実行のみを証明し,実行場所の信頼性を保証できない。
    • データセンターの物理的なセキュリティとVMの信頼性を結びつけ,不正なアテステーションを防止する。
    • DCEAは,TPMのプラットフォームレベルの証拠とVMアテステーションを組み合わせることで,クラウドの証明を生成する。
    • DCEAは,TEEメーカーとインフラプロバイダーという2つの信頼の根源を組み合わせ,リレー攻撃を防止する。
    • AGATEフレームワークを用いた形式検証により,DCEAが理想的な位置情報認識型TEEをエミュレートすることが証明された。

    Link: https://arxiv.org/abs/2510.12469

  • AudAgent:AIエージェントにおけるプライバシーポリシー遵守の自動監査 [cs.CL, cs.CY, cs.CL, cs.CR, cs.AI]目的:AIエージェントのプライバシーポリシー遵守状況の自動監査
    • AIエージェントの普及に伴い,個人情報保護の重要性が増しているため。
    • AIエージェントの実行時の行動が,プライバシーポリシーに適合しているか透明性に欠ける。
    • AIエージェントの実行時データを監視し,プライバシーポリシー違反を検出・可視化すること。
    • AudAgentは,AIエージェントのデータ利用状況をリアルタイムに監視し,プライバシーポリシー遵守を監査する。
    • 多くのプライバシーポリシーでは,SSNなどの高度に機密性の高いデータに対する明確な保護策が欠如していることが判明した。
    • AudAgentは,Claude,Gemini,DeepSeekを含む多くのエージェントが,第三者ツールを通じてSSNを処理することを阻止する。

    Link: https://arxiv.org/abs/2511.07441

  • ceLLMate:ブラウザAIエージェントのサンドボックス化 [cs.CR, cs.LG]目的:ブラウザAIエージェントに対するプロンプトインジェクション攻撃の防御
    • Webブラウザを介したAIエージェントの利用が拡大しており,その安全性確保が重要である。
    • AIエージェントは,プロンプトインジェクション攻撃により意図しない動作を引き起こす脆弱性がある。
    • ブラウザレベルでのサンドボックス化により,攻撃の影響範囲を限定し,安全性を向上させる。
    • ceLLMateは,エージェントに与える権限を制限し,プロンプトインジェクション攻撃のリスクを低減する。
    • HTTPレベルでのサンドボックス化により,UI操作のセキュリティポリシーをより堅牢にすることができる。
    • WASPベンチマークにおいて,ceLLMateは7.25〜15%の遅延増加で攻撃をブロックすることを示した。

    Link: https://arxiv.org/abs/2512.12594

  • 過不足なく:最小権限言語モデル [cs.CR, cs.LG]目的:言語モデルにおける最小権限の実現
    • 大規模言語モデルの普及に伴い,セキュリティ上の課題が顕在化している。
    • 既存の言語モデルは,単一のAPIを通じて全てのリクエストに応えており,権限管理が不十分である。
    • モデル再学習なしに,言語モデル内部のアクセス制御を定義・実装する方法を確立すること。
    • 最小権限言語モデルの概念を提唱し,内部計算における権限を制御可能とした。
    • リクエスト時のシグナル,権限割り当てルール,推論時の選択機構から成る制御スタックを形式化した。
    • Nested Least-Privilege Networksにより,滑らかで可逆的な権限調整を実現し,特定の能力の選択的抑制を可能にした。

    Link: https://arxiv.org/abs/2601.23157

  • 企業ディレクトリアクセスグラフにおける悪意のある活動を検出するためのコンセンサス・ベイズ的フレームワーク [cs.LG, cs.CR]目的:企業ディレクトリアクセスグラフにおける悪意のあるユーザー行動の検出
    • 企業のセキュリティ維持には,内部不正アクセス対策が不可欠である。
    • 従来のアクセスログ分析では,巧妙に隠蔽された内部不正の発見が困難である。
    • ディレクトリ構造の異常を検出し,内部不正アクセスを早期に特定することを目指す。
    • 提案手法は,ディレクトリをトピック,ユーザーをエージェントとして多層的な相互作用グラフをモデル化する。
    • 意見力学に基づき,アクセス進化をシミュレーションし,構造的規範からの逸脱を異常として検出する。
    • シミュレーション結果は,論理的な不整合に対する感度と,動的な摂動に対するロバスト性を示す。

    Link: https://arxiv.org/abs/2602.04027

  • 第三者サイバーセキュリティリスク評価質問票に対する意味的ラベリング戦略の探求 [cs.CR, cs.AI]目的:第三者リスク評価質問票の組織ニーズへの適合性向上
    • サプライチェーン攻撃の増加に伴い,第三者リスク評価の重要性が高まっている。
    • 質問票の選択が手作業であり,質問の意味内容を捉えた検索が困難である。
    • 意味的ラベルを用いて質問票を整理し,効率的な検索を実現すること。
    • 意味的ラベルは,質問票検索の精度向上に貢献することが示された。
    • 半教師あり意味的ラベリング(SSSL)パイプラインは,LLM利用を削減しつつ,大規模データセットへのラベル適用を可能にした。
    • ラベル空間での検索は,質問の表面的な類似性に基づく検索よりも,より適切な結果をもたらすことが確認された。

    Link: https://arxiv.org/abs/2602.10149

  • プライベートターンスタイルストリームにおける加法誤差の障壁の回避 [cs.DS, cs.CR]目的:ターンスタイルストリームにおけるdistinctな要素数の差分プライバシーを保ちつつ継続的な公開
    • データプライバシー保護は現代社会において不可欠であり,データ分析の安全性を確保する上で重要である。
    • 従来の差分プライバシー手法では,ストリーム長に伴う加法誤差の増加が課題となっていた。
    • 加法誤差と乗法誤差の両方を用いることで,この下限を回避し,より効率的なアルゴリズムを開発する。
    • 本研究では,乗法誤差と多項式対数加法誤差を持つdistinct要素数の継続的な公開アルゴリズムを提案した。
    • 同様の結果が,$F_2$モーメント推定においても得られ,多項式対数空間で実現された。
    • サブ線形空間においては,プライバシー考慮の有無にかかわらず,ある程度の乗法誤差が必要であることが示唆された。

    Link: https://arxiv.org/abs/2602.10360

  • キメラ:信頼性の高いデータプレーン知能のためのニューロシンボリック注意プリミティブ [cs.NI, cs.AI, cs.CR, cs.LG]目的:データプレーンにおける信頼性の高い推論の実現
    • ネットワークトラフィック分析の高速化と低遅延化が求められているため。
    • ハードウェア制約と予測可能な振る舞いの必要性から,高度な学習モデルの直接的な適用が困難である。
    • ニューロシンボリックなアプローチにより,ハードウェア制約下での信頼性の高い推論を可能にすること。
    • キメラは,注意機構を用いたニューラル計算とシンボリック制約をデータプレーンのプリミティブにマッピングするフレームワークである。
    • カーネル化された線形化された注意近似,キー選択階層,カスケード融合メカニズムを組み合わせることで,ニューラル表現力を維持しつつ,厳密なシンボリック保証を実現している。
    • コモディティのプログラマブルスイッチのリソース内で,高忠実度の推論を達成できることが実験的に示された。

    Link: https://arxiv.org/abs/2602.12851

  • AI防御によるセマンティック通信の安全性:基礎,解決策,そして今後の展望 [cs.CR, cs.SY, eess.SY]目的:セマンティック通信におけるセキュリティの脅威と防御戦略
    • 無線通信の新たな枠組みとして注目されており,タスクに必要な意味情報を伝達することを目指す。
    • AIモデルへの攻撃やデータ汚染など,従来のセキュリティ対策では防ぎきれない新たな脆弱性が存在する。
    • セマンティック通信システムにおけるセキュリティ侵害を防ぎ,安全で信頼性の高い通信を実現すること。
    • セマンティック通信のセキュリティ脅威を,モデル,チャネル,知識,ネットワーク推論の観点から体系的に分析した。
    • セマンティックエンコーディング,無線伝送,知識の完全性,エージェント間の協調といった各段階における防御戦略を分類した。
    • セマンティック忠実度,堅牢性,遅延,エネルギー消費間のトレードオフを考慮したセキュリティユーティリティの評価枠組みを提示した。

    Link: https://arxiv.org/abs/2602.22134

  • vEcho:脆弱性検証からLLMを用いた積極的な発見へのパラダイムシフト [cs.CR]目的:大規模言語モデルを用いた脆弱性の積極的な発見手法
    • ソフトウェアの安全性を確保することは,社会インフラや個人情報保護において不可欠である。
    • 静的解析ツールは誤検知が多く,監査リソースを浪費する問題がある。
    • LLMを活用し,未知の脆弱性を能動的に発見する新しいフレームワークを構築する。
    • vEchoは,LLMを仮想セキュリティ専門家として活用し,学習,記憶,推論能力を実現した。
    • CWE-Bench-Javaデータセットにおいて,vEchoは検出率65%を達成し,既存手法IRISを41.8%上回った。
    • 誤検知率も28.3%削減され,アラート疲労の軽減にも貢献している。さらに,未公開の脆弱性を多数発見した。

    Link: https://arxiv.org/abs/2603.01154

  • IoTおよび車両データ共有のためのプライバシー保護アーキテクチャの体系的調査:技術,課題,および将来の方向性 [cs.CR]目的:IoTおよびV2Xシステムにおけるプライバシー保護アーキテクチャの体系的な分析
    • IoTとV2Xの普及により,機密データが増加しており,プライバシー保護が重要となっている。
    • 従来のソリューションは,プライバシー,効率性,信頼性のトレードオフに陥りやすい。
    • 本研究は,このトレードオフを克服するための有望なハイブリッドアーキテクチャを特定する。
    • 75本の技術論文を分析し,分散計算,暗号ベース,および分散台帳の3つの次元による分類を行った。
    • 2024年から2025年にかけて論文発表が大幅に増加し,分散計算が最も大きな割合を占めた。
    • 既存のソリューションは,特定の側面で優れているものの,他の側面では妥協しており,トレードオフの存在を裏付けている。

    Link: https://arxiv.org/abs/2603.01876

  • 連合推論:プライバシー保護型協調・インセンティブ付きモデルサービングへ [cs.AI, cs.CR, cs.LG]目的:プライバシー保護型協調モデルサービングの実現
    • データ活用において,プライバシー保護とデータ連携のニーズが高まっている。
    • モデルやデータを共有せずに推論を行う連合推論の体系的な理解が不足している。
    • プライバシー保護と性能向上を両立する連合推論の設計指針を明確化する。
    • 連合推論を,連合学習と補完関係にある独自の協調パラダイムとして位置づけた。
    • 推論時のプライバシー保護,非IIDデータ,観測可能性の制約下における構造的トレードオフを分析した。
    • 連合推論固有のシステムレベルの振る舞いを明らかにし,今後の課題を提示した。

    Link: https://arxiv.org/abs/2603.02214

  • サンプル最適局所プライバシー仮説選択とインタラクティブ性の証明的利点 [stat.ML, cs.CR, cs.IT, cs.LG, math.IT]目的:局所プライバシー制約下における仮説選択
    • データプライバシー保護は,現代社会において不可欠な課題であり,データ利用とプライバシーのバランスが求められている。
    • 従来の仮説選択アルゴリズムは,サンプル数が増加すると計算コストが増大し,プライバシー保護との両立が困難であった。
    • 本研究は,インタラクティブ性を導入することで,サンプル数を削減し,効率的な仮説選択を実現することを目的とする。
    • 提案アルゴリズムは,既存アルゴリズムと比較して,より少ないサンプル数で同等の精度を達成する。
    • 特に,ε<1の場合において,サンプル複雑性は理論的な下限に一致する。
    • インタラクティブ性を用いることで,非インタラクティブな仮説選択の下限を打破することに成功した。

    Link: https://arxiv.org/abs/2312.05645

  • 1