為滿足用戶和開發者的需求,阿里-W(09988.HK)(BABA.US)在Qwen2.5-Turbo 版本,將上下文從之前的128K擴展至100萬tokens,相當於約100萬個英文單詞或150萬個漢字,足以涵蓋10部長篇小說、150小時的演講稿或三萬行代碼,使得模型的整體理解及生成能力獲得大幅度提升。
以理解長篇小說為例,Qwen2.5-Turbo能夠處理包含690k tokens的三部《三體》系列小說,並提供英文的劇情摘要,展示其在深度理解長文本和跨語言摘要方面的強大能力。
在擴展上下文長度的同時,Qwen2.5-Turbo幾乎不影響短文本任務的能力。在短文本基準測試中,在大多數任務上顯著超越之前上下文長度為1M tokens的開源模型,並且與GPT-4o-mini和Qwen2.5-14B-Instruct模型相比,在短文本任務性能接近的同時,支持八倍長度的上下文。(ta/da)~
阿思達克財經新聞
網址: www.aastocks.com
相關股票: 09988,89988