對應80億組參數規模,NVIDIA推出精準度更高的小型自然語言模型Mistral-NeMo-Minitron 8B可以更低成本快速佈署於各個邊緣運算節點

首圖

繼先前推出參數規模在120億組的Mistral NeMo 12B小型自然語言模型後,NVIDIA再次宣布推出參數規模更小、精準度卻更高的小型自然語言模型Mistral-NeMo-Minitron 8B,參數規模控制在80億組,可用於小型工作站,或是快速佈署於各個邊緣運算節點,同時也能用在資料中心及雲端運算叢集。 相比Mistral NeMo 12B,......