专家混合架构(Mixture of Experts, MoE)
收藏
已收藏
公司推荐
产品详情
基于大模型的专家混合架构,使用多个子模型(专家)共享权重,仅在处理特定输入时激活部分专家,实现高效的推理资源分配。创新点在于DeepSeek-V2模型中采用的轻量级共享专家机制,减少了模型规模的同时保持高性能,支持128K tokens上下文处理,相较于传统Transformer模型,推理成本显著降低。
融资次数
3
员工数量
-
公司简介
边塞科技成立于2023年,是一家人工智能大模型技术公司,用强化学习为更多人创造更好的智能体验。
经营范围
一般项目:技术服务、技术开发、技术咨询、技术交流、技术转让、技术推广;网络技术服务;软件开发;物联网技术服务;信息技术咨询服务;计算机软硬件及辅助设备批发;计算机软硬件及辅助设备零售。(除依法须经批准的项目外,凭营业执照依法自主开展经营活动)(不得从事国家和本市产业政策禁止和限制类项目的经营活动。)
主营业务
提供人工智能大模型技术,通过强化学习优化智能体验。
北京谱塞科技有限公司
有限责任公司(台港澳法人独资)
$600万
2023-07-28
吴鹏飞
15071660966
lishihui@openpsi.com
北京市海淀区永丰路9号院3号楼A座2层中段345号