Skip to content

论文总结

Pushing Mixture of Experts to the Limit: Extremely Parameter Efficient MoE for Instruction Tuning

背景

现实场景——我们能否成功将 MoEs 应用于仅微调远少参数的参数高效微调(PEFT)方法,如 (IA)3或 LORA等。这是一个重大挑战,不仅因为我们的目标是仅更新所有参数的一小部分,还因为我们需要在更受限的环境中应对 MoEs 固有的优化挑战,这些挑战已被先前工作所指出。

总结:将PEFT方式moe化以微调更少的参数,获得更好的微调效果

GPTSwarm: Language Agents as Optimizable Graphs

概述

本文提出了一种将智能体描述为计算图的方法,(1)通过节点级 LLM 提示优化(节点优化)来改进节点,以及(2)通过改变图连接性来改进智能体编排(边优化)。实验表明,框架可用于高效地开发、集成和自动改进各种 LLM 智能体。

主要实验手段

FedSR: A Semi-Decentralized Federated Learning Algorithm for Non-IIDness in IoT System