InTAct: 지속 학습을 위한 신경망에서의 기능 보존

2026년 02월 16일 | 스페인어에서 번역됨
Diagrama comparativo mostrando la estabilización de rangos de activación neuronal con InTAct versus la deriva representacional en métodos tradicionales, con ejemplos visuales de dominios ImageNet-R y DomainNet.

InTAct: 지속적 학습을 위한 신경망에서의 기능 보존

인공지능에서의 지속적 학습은 모델이 새로운 도메인에 적응해야 하면서 이전에 습득한 역량을 잃지 않아야 하는 중대한 도전에 직면합니다. 현재 접근법, 매개변수화된 프롬프트 기반 기술을 포함하여, 이전 작업에 필수적인 내부 특징을 변경시키는 표현 드리프트를 경험합니다. InTAct는 동결된 매개변수나 역사적 데이터 저장 없이 공유 레이어의 기능적 행동을 보존하는 혁신적인 솔루션으로 등장하며, 각 작업의 특징적 활성화 범위에서 일관성을 보장하면서 비중요 영역에서의 적응을 가능하게 합니다 🧠.

지식 보호 메커니즘

InTAct 방법론은 학습된 각 작업과 연결된 특정 활성화 간격을 식별하고, 해당 중요 범위 내 일관성을 보존하기 위해 모델 업데이트를 제한합니다. 매개변수 값을 직접 고정하는 대신, 시스템은 중요한 뉴런의 기능적 역할을 규제하여 이전 지식이 위치한 표현 드리프트를 억제합니다. 이 전략은 아키텍처 독립적이며 프롬프트 기반 프레임워크에 원활하게 통합되어 전체 학습 과정을 손상시키지 않고 추가 보호 층을 제공합니다.

접근법의 주요 특징:
  • 작업별 특정 활성화 범위의 자동 식별
  • 매개변수 동결 없이 업데이트 규제
  • 다양한 신경망 아키텍처와의 호환성
InTAct는 과거 작업을 인코딩하는 중요한 기능 영역을 안정화하면서 보호되지 않은 영역에서 새로운 변환을 학습할 수 있도록 합니다

실험 평가 및 응용

DomainNetImageNet-R과 같은 도메인 변화 벤치마크에서 수행된 테스트는 InTAct가 표현에서의 드리프트를 일관되게 줄이고 성능을 현저히 향상시킨다는 것을 입증합니다. 실험은 기준 방법 대비 Average Accuracy에서 최대 8%p 증가를 기록하며, 안정성과 가소성 간 균형에서 새로운 패러다임을 확립합니다. 이 기술은 이전 작업을 인코딩하는 필수 기능 영역을 강화하면서 보호되지 않은 영역에서 새로운 변환을 흡수할 수 있도록 하여, 입력 도메인이 지속적으로 진화하는 실제 시나리오에 대한 견고한 솔루션을 제공합니다.

벤치마크에서의 주요 결과:
  • 도메인 간 평균 정확도의 지속적 개선
  • 표현 드리프트의 상당한 감소
  • 동적 환경에서의 적응성 유지

기계 학습의 미래에 대한 함의

마침내 신경망변화하는 도메인 서랍을 탐색하면서 이전 지식의 열쇠를 어디에 두었는지 기억할 수 있게 된 것 같습니다. 이 선택적 보존 능력은 더 효율적이고 다재다능한 AI 시스템 개발에서 이정표를 세우며, 이전 운영 본질을 잃지 않고 진화할 수 있습니다 🔑.