站長之家(ChinaZ.com)9月27日 消息:近日,螞蟻集團(tuán)代碼大模型CodeFuse-CodeLlama-34B4bits量化版本發(fā)布。
CodeFuse-CodeLlama-34B-4bits是CodeFuse-CodeLlama-34B模型的4bits量化版本,后者是通過QLoRA對基座模型CodeLlama-34b-Python進(jìn)行多代碼任務(wù)微調(diào)而得到的代碼大模型,模型輸入長度為4K。
經(jīng)4bits量化后,CodeFuse-CodeLlama-34B-4bits可用單張A10(24GB顯存)或者RTX4090(24GB顯存)加載,同時,量化后的模型在Humaneval pass@1指標(biāo)上仍取得了73.8%的表現(xiàn)。
據(jù)悉,CodeFuse是螞蟻?zhàn)匝械拇a生成專屬大模型,根據(jù)開發(fā)者的輸入提供智能建議和實(shí)時支持,幫助開發(fā)者自動生成代碼、自動增加注釋,自動生成測試用例,修復(fù)和優(yōu)化代碼等,以提升研發(fā)效率。
CodeFuse-CodeLlama-34B4bits項(xiàng)目地址:
https://modelscope.cn/models/codefuse-ai/CodeFuse-CodeLlama-34B-4bits/summary
(舉報)