Gitee AI
模型专题
AI 编程
欢迎大家来社区探索学习及开源分享 AI 编程大模型,本专题我们为大家呈现最新、最强、最典型的开源 AI 编程大模型,旨在帮助大家更深入地了解 AI 编程领域的最新技术进展,希望各位社区的开发者能在这些模型的基础之上做更多的尝试和创新,也欢迎大家贡献更多的 AI 编程大模型,共同推动人工智能技术的发展和应用。
Code Llama
Code Llama
Code Llama
Code Llama 是 Llama 2 的代码专用版本,是通过在其特定于代码的数据集上进一步训练 Llama 2 来创建的,从同一数据集中采样更多数据的时间更长。 从本质上讲,Code Llama 具有增强的编码功能。
codellama/CodeLlama-7b-hf
文本生成
Code Llama 7B基本版本,经过预训练和微调的生成文本模型,参数规模从70亿到340亿不等,专为一般代码综合和理解而设计。
codellama
82
0
codellama/CodeLlama-13b-Instruct-hf
文本生成
Code Llama 13B指令调整版本,经过预训练和微调的生成文本模型,参数规模从70亿到340亿不等,专为一般代码综合和理解而设计。
codellama
80
0
codellama/CodeLlama-7b-Instruct-hf
文本生成
Code Llama 7B指令调整版本,经过预训练和微调的生成文本模型,参数规模从70亿到340亿不等,专为一般代码综合和理解而设计。
codellama
73
0
codellama/CodeLlama-34b-Instruct-hf
文本生成
Code Llama 34B指令调整版本,经过预训练和微调的生成文本模型,参数规模从70亿到340亿不等,专为一般代码综合和理解而设计。
codellama
58
0
codellama/CodeLlama-13b-hf
文本生成
Code Llama 13B基本版本,经过预训练和微调的生成文本模型,参数规模从70亿到340亿不等,专为一般代码综合和理解而设计。
codellama
48
0
codellama/CodeLlama-34b-hf
文本生成
Code Llama 34B基本版本,经过预训练和微调的生成文本模型,参数规模从70亿到340亿不等,专为一般代码综合和理解而设计。
codellama
43
0
codellama/CodeLlama-7b-Python-hf
文本生成
Code Llama 7B Python专业版本,经过预训练和微调的生成文本模型,参数规模从70亿到340亿不等,专为一般代码综合和理解而设计。
codellama
40
0
codellama/CodeLlama-34b-Python-hf
文本生成
PyTorch
Transformers
Safetensors
Code Llama 34B Python专业版本,经过预训练和微调的生成文本模型,参数规模从70亿到340亿不等,专为一般代码综合和理解而设计。
codellama
29
0
codellama/CodeLlama-13b-Python-hf
文本生成
PyTorch
Transformers
Safetensors
Code Llama 13B Python专业版本,经过预训练和微调的生成文本模型,参数规模从70亿到340亿不等,专为一般代码综合和理解而设计。
codellama
27
0
CodeFuse AI
CodeFuse AI
CodeFuse
CodeFuse的使命是开发专门设计用于支持整个软件开发周期的大型语言代码模型(Code LLM),涵盖设计、需求、编码、测试、部署、维护等关键阶段。我们致力于打造创新的生命解决方案,让软件开发者们在研发的过程中如丝顺滑。
DeepSeek
DeepSeek
DeepSeek Code
DeepSeek Coder 由一系列代码语言模型组成,每个模型从零开始训练,使用2T标记,包含87%的代码和13%的自然语言(包括英文和中文)。我们提供各种尺寸的代码模型,范围从1B到33B不等。每个模型通过在项目级代码语料库上预训练,使用16K窗口大小和额外的填空任务,以支持项目级代码完成和填充。 在编码能力方面,DeepSeek Coder 在多种编程语言和各种基准测试中,在开源代码模型中达到了最先进的性能。
Microsoft
Microsoft
WaveCoder
WaveCoder 🌊 是一系列用于编码领域的大型语言模型(LLM),旨在通过指令学习解决代码领域中的相关问题。它的训练数据集是基于我们提出的生成器-鉴别器框架,从code-search-net数据的子集中生成的,涵盖四个通用的代码相关任务:代码生成、代码摘要、代码翻译和代码修复。
Salesforce
Salesforce
CodeGen
CodeT5+
CodeGen 由Salesforce发布的一系列模型,旨在根据开发人员的提示编写代码,并减轻编写代码本身的需要。
CodeT5+ 是代码大语言模型系列,采用编码器-解码器架构,可灵活地以不同模式(即仅编码器、仅解码器和编码器-解码器)运行,以支持各种代码理解和生成任务。
Salesforce/codegen25-7b-instruct
文本生成
PyTorch
Transformers
CodeGen2.5是一系列用于程序综合的自回归语言模型,该模型以CodeGen2为基础,在StarCoderData上针对 1.4T 代币进行训练,与 StarCoderBase-15.5B 相比,其大小不到一半,取得了有竞争力的结果。
Salesforce
32
0
Salesforce/codet5p-220m-bimodal
特征抽取
PyTorch
Transformers
CodeT5+是一个新的开放代码大语言模型家族,具有编码器-解码器架构,可以灵活地在不同模式下运行,以支持广泛的代码理解和生成任务。
Salesforce
32
0
Salesforce/codegen25-7b-multi
文本生成
PyTorch
Transformers
该模型以CodeGen2为基础,在StarCoderData上针对 1.4T tokens进行训练,与 StarCoderBase-15.5B 相比,其大小不到一半,取得了有竞争力的结果。该模型具有填充能力,并且支持多种编程语言。
Salesforce
29
0
Salesforce/codet5-small
端到端文本生成
PyTorch
Transformers
CodeT5是一个统一的预训练编码器-解码器 Transformer 模型,可以更好地利用开发人员分配的标识符传达的代码语义
Salesforce
27
0
Salesforce/codegen25-7b-mono
文本生成
PyTorch
Transformers
该模型以CodeGen2为基础,在StarCoderData上针对 1.4T tokens进行训练,与 StarCoderBase-15.5B 相比,其大小不到一半,取得了有竞争力的结果。该模型具有填充能力,并且支持多种编程语言。
Salesforce
26
0
Salesforce/codet5p-110m-embedding
PyTorch
Transformers
CodeT5+是一个新的开放代码大语言模型家族,具有编码器-解码器架构,可以灵活地在不同模式下运行,以支持广泛的代码理解和生成任务。
Salesforce
25
0
Salesforce/codet5p-6b
端到端文本生成
PyTorch
Transformers
CodeT5+是一个新的开放代码大语言模型家族,具有编码器-解码器架构,可以灵活地在不同模式下运行,以支持广泛的代码理解和生成任务。
Salesforce
25
0
Salesforce/codet5p-2b
端到端文本生成
PyTorch
Transformers
CodeT5+是一个新的开放代码大语言模型家族,具有编码器-解码器架构,可以灵活地在不同模式下运行,以支持广泛的代码理解和生成任务。
Salesforce
25
0
Salesforce/codegen-2B-mono
文本生成
PyTorch
Transformers
CodeGen 是一系列用于程序综合的自回归语言模型
Salesforce
23
0
Salesforce/codet5p-770m
端到端文本生成
PyTorch
Transformers
CodeT5+是一个新的开放代码大语言模型家族,具有编码器-解码器架构,可以灵活地在不同模式下运行,以支持广泛的代码理解和生成任务。
Salesforce
23
0
Salesforce/codegen-6B-nl
文本生成
PyTorch
Transformers
CodeGen 是一系列用于程序综合的自回归语言模型,其中“NL”表示它是在 Pile 上预训练的,“6B”指的是可训练参数的数量
Salesforce
22
0
Salesforce/codet5p-220m-py
端到端文本生成
PyTorch
Transformers
CodeT5+是一个新的开放代码大语言模型家族,具有编码器-解码器架构,可以灵活地在不同模式下运行,以支持广泛的代码理解和生成任务,codet5p-220m-py 是在Python上进一步调优。
Salesforce
22
0
Salesforce/codegen2-3_7B
文本生成
PyTorch
Transformers
CodeGen2是一个用于程序综合的自回归语言模型系列,CodeGen2具有填充能力,并且支持多种编程语言。
Salesforce
21
0
Salesforce/codegen-16B-nl
文本生成
PyTorch
Transformers
CodeGen 是一系列用于程序综合的自回归语言模型,其中“NL”表示它是在 Pile 上预训练的,“16B”指的是可训练参数的数量
Salesforce
21
0
Salesforce/codet5p-16b
端到端文本生成
PyTorch
Transformers
CodeT5+是一个新的开放代码大语言模型家族,具有编码器-解码器架构,可以灵活地在不同模式下运行,以支持广泛的代码理解和生成任务。
Salesforce
21
0
Salesforce/codet5p-770m-py
端到端文本生成
PyTorch
Transformers
CodeT5+是一个新的开放代码大语言模型家族,具有编码器-解码器架构,可以灵活地在不同模式下运行,以支持广泛的代码理解和生成任务,codet5p-770m-py 是在Python上进一步调优。
Salesforce
21
0
Salesforce/codegen2-1B
文本生成
PyTorch
Transformers
CodeGen2是一个用于程序综合的自回归语言模型系列,CodeGen2具有填充能力,并且支持多种编程语言。
Salesforce
20
0
Salesforce/codegen-2B-nl
文本生成
PyTorch
Transformers
CodeGen 是一系列用于程序综合的自回归语言模型,其中“NL”表示它是在 Pile 上预训练的,“2B”指的是可训练参数的数量。
Salesforce
20
0
Salesforce/codegen2-7B
文本生成
PyTorch
Transformers
CodeGen2是一个用于程序综合的自回归语言模型系列,CodeGen2具有填充能力,并且支持多种编程语言。
Salesforce
19
0
Salesforce/codegen-16B-multi
文本生成
PyTorch
Transformers
其中“Multi”表示模型使用CodeGen-NL 16B进行初始化,并在多种编程语言的数据集上进一步进行预训练,“16B”指的是可训练参数的数量。
Salesforce
18
0
Salesforce/codegen2-16B
文本生成
PyTorch
Transformers
CodeGen2是一个用于程序综合的自回归语言模型系列,CodeGen2具有填充能力,并且支持多种编程语言。
Salesforce
16
0
注:此顺序按字母排序仅用于方便查阅,并不代表任何形式的优先级或评价。