Meta公布可對應長文內容、更複雜前後文關聯,並且維持開源的Llama 2 Long大型自然語言模型整體表現優於同樣可處理長文內容的GPT-3.5-Turbo-16K版本

首圖

Meta稍早公布可處理長文內容的Llama 2 Long大型自然語言模型,建立在可對應32768組標記 (token)、700億個參數情況下,並且在整體表現優於同樣可處理長文內容的GPT-3.5-Turbo-16K版本。 Llama 2 Long強項在於處理長文內容,並且對應前後文關聯,藉此對應更複雜、多樣性的人工智慧互動處理需求,其中包含聊天機器人自然互動,或是......