moe

  • PRO | 为什么基于 MoE 的大模型更值得关注?

    2023年,几乎 ai 的每个领域都在以前所未有的速度进化,同时,ai也在不断地推动着具身智能、自动驾驶等关键赛道的技术边界。多模态趋势下,transformer 作为 ai 大模型主流架构的局面是否会撼动?为何探索基于 moe (专家混合

    2024-08-08
    600
  • 算法、系统和应用,三个视角全面读懂混合专家(MoE)

    LLM 很强,而为了实现 LLM 的可持续扩展,有必要找到并实现能提升其效率的方法,混合专家(MoE)就是这类方法的一大重要成员。
    最近,各家科技公司提出的新一代大模型不约而同地正在使用混合专家(mixture of experts:moe

    2024-08-06
    1300
  • 国产开源MoE指标炸裂:GPT

    最新国产开源moe大模型,刚刚亮相就火了。
    DeepSeek-V2性能达GPT-4级别,但开源、可免费商用、API价格仅为GPT-4-Turbo的百分之一。
    因此一经发布,立马引发不小讨论。
    图片
    通过公布的性能指标来看,DeepSeek

    2024-05-07
    3600
  • 全球最强开源 MoE 模型来了,中文能力比肩 GPT

    想象一下,一个人工智能模型,不仅拥有超越传统计算的能力,还能以更低的成本实现更高效的性能。这不是科幻,deepseek-v2[1],全球最强开源 moe 模型来了。DeepSeek-V2 是一个强大的专家混合(MoE)语言模型,具有训练经济

    2024-05-07
    8200

联系我们

在线咨询: QQ交谈

邮件:442814395@qq.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信公众号