InTAct:継続学習のためのニューラルネットワークにおける機能的保存

2026年02月04日 公開 | スペイン語から翻訳
Diagrama comparativo mostrando la estabilización de rangos de activación neuronal con InTAct versus la deriva representacional en métodos tradicionales, con ejemplos visuales de dominios ImageNet-R y DomainNet.

InTAct: 連続学習のためのニューラルネットワークにおける機能的保存

連続学習は、人工知能において、モデルが新しいドメインに適応しつつ、以前に習得した能力を失わないという重要な課題に直面しています。現在のアプローチ、パラメータ化されたプロンプトに基づく技術を含むものは、以前のタスクに不可欠な内部特徴を変化させる表現のドリフトを経験します。InTActは、凍結されたパラメータや過去データの保存を必要とせずに共有層の機能的動作を保持する革新的な解決策として登場し、各タスクの特徴的な活性化範囲の一貫性を保証しつつ、非クリティカルな領域での適応を可能にします 🧠。

知識保護メカニズム

InTActの方法論は、学習された各タスクに関連する特定の活性化間隔を特定し、そのクリティカルな範囲内の一貫性を保持するためにモデルの更新を制限します。パラメトリック値を直接固定する代わりに、システムは重要なニューロンの機能的役割を調整し、以前の知識が存在する表現のドリフトを抑制します。この戦略はアーキテクチャ独立であり、プロンプトベースのフレームワークにシームレスに統合され、全体の学習プロセスを損なうことなく追加の保護層を提供します。

アプローチの主な特徴:
  • タスクごとの特定の活性化範囲の自動識別
  • パラメータ凍結なしでの更新調整
  • 多様なニューラルアーキテクチャとの互換性
InTActは、過去のタスクをコード化するクリティカルな機能領域を安定化しつつ、保護されていない領域で新しい変換を学習することを可能にします

実験評価とアプリケーション

DomainNetおよびImageNet-Rなどのドメインシフトベンチマークで行われたテストは、InTActが表現のドリフトを一貫して低減し、性能を顕著に向上させることを示しています。実験では、参照方法と比較して平均精度で最大8パーセントポイントの向上を記録し、安定性と可塑性のバランスにおける新しいパラダイムを確立しています。この技術は、以前のタスクをコード化する本質的な機能領域を強化しつつ、保護されていない領域で新しい変換を吸収することを可能にし、入力ドメインが絶えず進化する実世界のシナリオに対する堅牢な解決策を提供します。

ベンチマークでの主な結果:
  • ドメイン全体での平均精度の持続的な向上
  • 表現のドリフトの大幅な低減
  • 動的環境での適応性の維持

機械学習の未来への示唆

ついにニューラルネットワークが、変化するドメインの引き出しを探検しつつ、以前の知識の鍵をどこに置いたかを思い出すことができるようです。この選択的保存能力は、より効率的で多用途なAIシステムの開発におけるマイルストーンを刻み、運用上の本質を失うことなく進化する能力を提供します 🔑。