新榜訊 6月9日訊,小紅書于近日正式開源其首個大模型——dots.llm1。該模型為中等規(guī)模的Mixture of Experts(MoE)文本大模型,由小紅書hi lab(Humane Intelligence Lab,人文智能實驗室)團隊精心研發(fā),總參數(shù)量達142B,激活參數(shù)為14B。
新榜訊 6月9日訊,小紅書于近日正式開源其首個大模型——dots.llm1。該模型為中等規(guī)模的Mixture of Experts(MoE)文本大模型,由小紅書hi lab(Humane Intelligence Lab,人文智能實驗室)團隊精心研發(fā),總參數(shù)量達142B,激活參數(shù)為14B。