Resultados 1 al 1 de 1

Redes neuronales que siguen aprendiendo sin olvidar conocimientos previos

  1. #1
    Fecha de ingreso
    Apr 2002
    Mensajes
    33,508

    Redes neuronales que siguen aprendiendo sin olvidar conocimientos previos

    El aprendizaje continuo enfrenta un desafío fundamental cuando las redes neuronales deben adaptarse a nuevos dominios sin perder lo aprendido anteriormente. Las técnicas actuales, incluso aquellas que utilizan prompts para aislar parámetros, sufren de deriva representacional que modifica las características internas críticas para tareas pasadas. InTAct surge como una solución elegante que preserva el comportamiento funcional de las capas compartidas sin necesidad de congelar parámetros ni almacenar datos anteriores, manteniendo la coherencia en los rangos de activación característicos de cada tarea mientras permite adaptaciones en áreas no protegidas.


    Mecanismo de preservación funcional

    InTAct identifica los rangos de activación específicos asociados a cada tarea aprendida y restringe las actualizaciones del modelo para mantener la coherencia dentro de esos intervalos críticos. En lugar de fijar valores de parámetros directamente, el método regula el papel funcional de las neuronas importantes, limitando la deriva representacional donde reside el conocimiento previo. Esta aproximación es independiente de la arquitectura y puede integrarse fácilmente en marcos basados en prompts, ofreciendo una capa adicional de protección sin interferir con el proceso de aprendizaje general.

    Resultados y aplicaciones prácticas

    Las evaluaciones en benchmarks de cambio de dominio como DomainNet e ImageNet-R demuestran que InTAct reduce consistentemente la deriva en las representaciones y mejora el rendimiento de manera significativa. Los experimentos reportan incrementos de hasta 8 puntos porcentuales en Average Accuracy comparado con métodos de referencia, estableciendo un nuevo estándar en el equilibrio entre estabilidad y plasticidad. El método estabiliza las regiones funcionales críticas que codifican tareas pasadas mientras permite al modelo aprender nuevas transformaciones en zonas no protegidas, ofreciendo una solución robusta para escenarios del mundo real donde los dominios de entrada evolucionan constantemente.

    Parece que por fin las redes neuronales podrán recordar dónde dejaron las llaves del conocimiento anterior mientras buscan las nuevas en el cajón de los dominios cambiantes.
    |Agradecer cuando alguien te ayuda es de ser agradecido|

Temas similares

  1. Ciencia Redes neuronales reales impresas en 3D
    Por 3dpoder en el foro Ciencia
    Respuestas: 0
    : 16-07-2025, 09:01
  2. Render en tiempo real mediante decodificadores neuronales
    Por 3dpoder en el foro Render, Iluminación y Cámaras
    Respuestas: 0
    : 08-05-2023, 13:01
  3. Noticias 3D Que conocimientos previos se ha de tener
    Por nand0 en el foro Noticias 3D
    Respuestas: 5
    : 24-06-2010, 17:57
  4. 3dsMax Previos de 3ds Max en Windows 7
    Por Jaca en el foro Programas de Diseño 3D y CAD
    Respuestas: 0
    : 26-02-2010, 00:07
  5. Personajes previos
    Por Beleashar en el foro Ilustración y 2D
    Respuestas: 20
    : 28-08-2004, 02:04

Etiquetas para este tema