環(huán)球熱議:MosaicML發(fā)布大型語言模型 MPT-7B 可商用

來源:DoNews快訊


(資料圖)

MosaicML+的+MPT-7B+是一個(gè)具有近70億個(gè)參數(shù)的大型語言模型,該團(tuán)隊(duì)在自己的近萬億個(gè)標(biāo)記的數(shù)據(jù)集上對(duì)其進(jìn)行了訓(xùn)練。MosaicML+遵循+Meta+的LLaMA模型的訓(xùn)練方案。但即使有65,000個(gè)token,也可以閱讀整部小說并寫一篇結(jié)語。(站長(zhǎng)之家)

標(biāo)簽:

推薦

財(cái)富更多》

動(dòng)態(tài)更多》

熱點(diǎn)