MoE(Mixture of Experts)架构大模型
MoE架构是一种多专家混合神经网络框架,由调度模型(Gating Model)和多个专业专家模型(Expert Models)组成。调度模型基于输入任务类型(如健康咨询或诊断),动态激活最相关专家模型(如全科医生AI、专科专家AI、运动教练AI、营养师AI),并融合其输出以优化决策。创新点在于应用于健康管理领域:医者AI团队自研了总参数近700亿的模型规模,专门针对亚健康场景构建10+专家模型,结合软硬件实现高并发7*24小时服务,通过混合架构解决复杂健康问题的个性化和精准化需求。
经营范围
一般项目:技术服务、技术开发、技术咨询、技术交流、技术转让、技术推广;养生保健服务(非医疗);健康咨询服务(不含诊疗服务);体育健康服务;残疾康复训练服务(非医疗);健身休闲活动;中医养生保健服务(非医疗);医学研究和试验发展。(除依法须经批准的项目外,凭营业执照依法自主开展经营活动)(不得从事国家和本市产业政策禁止和限制类项目的经营活动。)
主营业务
基于MoE混合专家架构大模型,通过软硬件结合方式提供覆盖多病种的智能化健康管理服务,核心包括亚健康干预、慢性病管理等7*24小时AI管家解决方案
北京医者信息科技有限责任公司
有限责任公司(港澳台投资、非独资)
¥1,000万
2023-06-27
刘呈辉
北京市海淀区永澄北路2号院1号楼1层1928号