昆仑万维-天工AI大模型

7个月前发布 38 00

天工作为一款大型语言模型,拥有强大的自然语言处理和智能交互能力,能够实现智能问答、聊天互动、文本生成等多种应用场景,并且具有丰富的知识储备,涵盖科学、技术、文化、艺术、历史等领域。,天工作为一款大型语言模型,拥有强大的自然语言处理和智能交互能力,能够实现智能问答、聊天互动、文本生成等多种应用场景,并且具有丰富的知识储备,涵盖科学、技术、文...

收录时间:
2024-09-11
昆仑万维-天工AI大模型昆仑万维-天工AI大模型

天工大模型是什么?

此外,「天工」大模型已经非常接近OpenAI ChatGPT的智能水平。ChatGPT是基于GPT3.5大模型,因此昆仑万维把此版本命名为「天工」3.5。

凭借对AGI的热情和信仰,昆仑万维研发团队自2020年起从一亿级模型做起,到十亿级模型,再到百亿级模型,耕耘三年,如今迎来「天工」3.5的诞生。

昆仑万维-天工AI大模型

如何体验天工AI助手?

前往体验:https://tiangong.kunlun.com/

数据统计

相关导航

Yi大模型-零一万物发布的开源大模型

Yi大模型-零一万物发布的开源大模型

Yi系列模型是由来自“零一万物”的开发者研发的大型语言模型。第一个公开版本包含两个双语版(英语/中文)基础模型,参数规模分别为6B和34B。两者都使用4K序列长度进行训练,并在推理时可以扩展到32K。,Yi系列模型是由来自“零一万物”的开发者研发的大型语言模型。第一个公开版本包含两个双语版(英语/中文)基础模型,参数规模分别为6B和34B。两者都使用4K序列长度进行训练,并在推理时可以扩展到32K。
CodeShell-北京大学开源的代码大模型

CodeShell-北京大学开源的代码大模型

CodeShell是北京大学知识计算实验室联合四川天府银行AI团队研发的多语言代码大模型基座。CodeShell具有70亿参数,在五千亿Tokens进行了训练,上下文窗口长度为8192。在权威的代码评估Benchmark(HumanEval与MBPP)上,CodeShell取得同等规模最好的性能。,CodeShell是北京大学知识计算实验室联合四川天府银行AI团队研发的多语言代码大模型基座。CodeShell具有70亿参数,在五千亿Tokens进行了训练,上下文窗口长度为8192。在权威的代码评…
SmolLM-HuggingFace发布的高性能小型语言模型

SmolLM-HuggingFace发布的高性能小型语言模型

SmolLM是由 Huggingface 最新发布的一组高性能的小型语言模型,参数分别为 1.35 亿、3.6 亿和 17 亿,训练数据来自高质量数据集 SmolLM-Corpus,其中包括 Cosmopedia v2、Python-Edu 和 FineWeb-Edu。SmolLM 模型在多种基准测试中表现不错, 适合跑在手机这种终端设备上。,SmolLM是由 Huggingface 最新发布的一组高性能的小型语言模型,参数分别为 1.35 亿、3.6 亿和 17 亿,训练数据来自高质量数据集 SmolLM-Corpus,其中包括 Cosm…