金蝶云·苍穹GPT

AI模型5个月前发布 admin
4 00

金蝶云·苍穹GPT

金蝶云·苍穹GPT是什么?

金蝶云·苍穹GPT是由国内ERP龙头金蝶在2023全球创见者大会上发布的企业级大模型平台。它被定位为最懂管理的企业级大模型平台,也被称作金蝶云的智能新引擎。金蝶云·苍穹GPT拥有多模型能力、多任务编排、知识智能引擎、个性化扩展、安全可信任等特点。

金蝶云官网:https://www.kingdee.com/

金蝶云·苍穹GPT可以做什么?

金蝶云·苍穹GPT在多模型能力方面表现出色,发布了业界首个财务大模型。这个模型融合了金蝶30年财务专业知识积累、数百万家客户实践经验。基于财务大模型的财务AI助手可以提供财务问答、费用报销、合同审批、报告生成、探索分析、预算建议等功能。

适用场景

金蝶云·苍穹GPT适用于需要进行财务管理的企业,尤其是对财务问答、费用报销、合同审批、报告生成、探索分析、预算建议等功能有需求的企业。

© 版权声明

Warning: Trying to access array offset on value of type bool in /www/wwwroot/ainvp.com/wp-content/themes/onenav/inc/clipimage.php on line 34

Warning: Trying to access array offset on value of type bool in /www/wwwroot/ainvp.com/wp-content/themes/onenav/inc/clipimage.php on line 34

Warning: Trying to access array offset on value of type bool in /www/wwwroot/ainvp.com/wp-content/themes/onenav/inc/clipimage.php on line 34

Warning: Trying to access array offset on value of type bool in /www/wwwroot/ainvp.com/wp-content/themes/onenav/inc/clipimage.php on line 34

相关文章

Grok-1是什么? Grok-1是马斯克旗下AI公司xAI发布的开源AI大模型,其参数量达到了3140亿,远超OpenAI GPT-3.5的1750亿。这是迄今参数量最大的开源大语言模型,遵照Apache 2.0协议开放模型权重和架构。 Grok-1是一个混合专家(Mixture-of-Experts,MOE)大模型,这种MOE架构重点在于提高大模型的训练和推理效率,形象地理解,MOE就像把各个领域的“专家”集合到了一起,遇到任务派发给不同领域的专家,最后汇总结论,提升效率。决定每个专家做什么的是被称为“门控网络”的机制。 Grok-1模型的公开发布,为研究人员和开发者提供了一个新的大型语言模型资源。 Grok-1的主要特性 xAI还特别强调了Grok-1的几大特性: 首先,Grok-1是一个未针对特定任务进行微调的基础模型,它基于大量文本数据训练而成; 其次,作为一款基于混合专家技术构建的大语言模型,Grok-1拥有3140亿参数,在处理每个token时有25%的权重处于活跃状态; 最后,Grok-1是xAI团队使用JAX和Rust编程语言自定义训练栈从零开始训练的成果,训练完成于2023年10月。 Grok-1的技术参数 基础信息: 模型大小:3140亿参数,其中混合了8名专家(2名活跃)活动参数:860亿特色技术:使用旋转嵌入(Rotary Embeddings,简称#rope),而非固定位置嵌入 模型结构细节: 分词器词汇量:131,072(与GPT-4相似),即2^17嵌入尺寸:6,144(48*128)架构层数:64层变压器层每层结构:包含一个解码器层,具有多头注意力块和密集块键值大小:128 多头注意力块: 查询头数量:48键/值(KV)头数量:8KV大小:128密集块(Dense Block): 加宽系数:8隐藏层大小:32,768每个代币从8名专家中选择2名 旋转位置嵌入:尺寸:6,144,与模型的输入嵌入大小相同上下文长度:8,192个标记精度:bf16 如何使用Grok-1? xAI已经将Grok-1的权重和架构在GitHub上开源。 GitHub地址:https://github.com/xai-org/grok-1

Grok-1是什么? Grok-1是马斯克旗下AI公司xAI发布的开源AI大模型,其参数量达到了3140亿,远超OpenAI GPT-3.5的1750亿。这是迄今参数量最大的开源大语言模型,遵照Apache 2.0协议开放模型权重和架构。 Grok-1是一个混合专家(Mixture-of-Experts,MOE)大模型,这种MOE架构重点在于提高大模型的训练和推理效率,形象地理解,MOE就像把各个领域的“专家”集合到了一起,遇到任务派发给不同领域的专家,最后汇总结论,提升效率。决定每个专家做什么的是被称为“门控网络”的机制。 Grok-1模型的公开发布,为研究人员和开发者提供了一个新的大型语言模型资源。 Grok-1的主要特性 xAI还特别强调了Grok-1的几大特性: 首先,Grok-1是一个未针对特定任务进行微调的基础模型,它基于大量文本数据训练而成; 其次,作为一款基于混合专家技术构建的大语言模型,Grok-1拥有3140亿参数,在处理每个token时有25%的权重处于活跃状态; 最后,Grok-1是xAI团队使用JAX和Rust编程语言自定义训练栈从零开始训练的成果,训练完成于2023年10月。 Grok-1的技术参数 基础信息: 模型大小:3140亿参数,其中混合了8名专家(2名活跃)活动参数:860亿特色技术:使用旋转嵌入(Rotary Embeddings,简称#rope),而非固定位置嵌入 模型结构细节: 分词器词汇量:131,072(与GPT-4相似),即2^17嵌入尺寸:6,144(48*128)架构层数:64层变压器层每层结构:包含一个解码器层,具有多头注意力块和密集块键值大小:128 多头注意力块: 查询头数量:48键/值(KV)头数量:8KV大小:128密集块(Dense Block): 加宽系数:8隐藏层大小:32,768每个代币从8名专家中选择2名 旋转位置嵌入:尺寸:6,144,与模型的输入嵌入大小相同上下文长度:8,192个标记精度:bf16 如何使用Grok-1? xAI已经将Grok-1的权重和架构在GitHub上开源。 GitHub地址:https://github.com/xai-org/grok-1

近日,B站宣布推出bilibili index大模型,并且为目前正在内测的“搜索AI助手”功能提供技术支持。 据悉,B站“搜索AI助手”是B站在本月初推出的一个内测功能,通过AI助手,用户可以快速准确地搜索到自己需要的内容。 当在搜索框内搜索问句,或在搜索词后输入’?即可体验新功能。体验该功能需要将哗哩哗哩app升级至7.36.0版本及以上。 B站表示,AI助手目前处于内测期,生成内容尚不准确,仅供参考。 申请体验:https://www.bilibili.com/blackboard/activity-hAiFfsOw0V.html
自从 2023 年 11 月 Grok 首次亮相以来,马斯克的 xAI 正在大模型领域不断取得进步,向 OpenAI 等先行者发起进攻。在 Grok-1 开源后不到一个月,xAI 的首个多模态模型Grok-1.5V就问世了。 Grok-1.5V是什么? Grok-1.5V是一个由马斯克旗下公司xAI发布的全新多模态AI大模型,它不仅具备强大的文本处理能力,还可以处理各种视觉信息,如文档、图表、截图和照片。这使得Grok-1.5V能够在多学科推理、理解科学图表、阅读文本和实现真实世界的空间理解等领域与现有的前沿多模态模型竞争。 Grok-1.5V的主要特性 强大的多模态能力:Grok-1.5V不仅在处理文本方面表现出色,还能理解和处理广泛的视觉信息,如文档、图表、截图和照片。这种能力使它能够在多个领域内执行复杂的任务,提供更全面的解决方案。 竞争力强的基准表现:在多个前沿模型的基准测试中,Grok-1.5V展现了卓越的性能。它在多学科推理、数学问题解决、图表解析和文档理解等方面与其他顶尖模型竞争,显示出其广泛的应用潜力。 先进的实世界理解:特别引入的RealWorldQA基准针对真实世界的空间理解进行测评,Grok-1.5V在这一基准中表现优异,超越了多数同类模型。这表明它能有效理解并处理与真实世界互动相关的复杂场景和问题。 零样本学习能力:Grok-1.5V在未经特定训练的情况下,也能展现出良好的性能。这种能力使其能够灵活适应新的任务和挑战,而不需要针对每一种情况进行专门的训练。 多样的输入处理:该模型能够处理来自不同领域和格式的输入,无论是科学图表、复杂文档还是现实世界的图片,都能被有效解析和理解。这使得Grok-1.5V特别适合需要处理大量不同类型数据的应用。 Grok-1.5V 与 GPT-4V、Claude 3Sonnet、Claude 3 Opus 和 Gemini Pro 1.5 的测试对比。 Grok-1.5V 应用场景 xAI在博客中展示了 Grok-1.5V 的几个应用示例: 科学图表理解:Grok-1.5V能够解析复杂的科学图表,并从中提取关键信息。这使得模型可以在学术研究或数据分析中应用,帮助用户理解和解释图表中的数据趋势和关系。 多学科推理:该模型在处理涉及多个学科的复杂问题时表现出色,例如可以同时理解物理、生物和化学的概念,并将这些知识应用于解决跨学科的问题。 真实世界的空间理解:通过RealWorldQA基准测试,Grok-1.5V展示了其对真实世界图像的高度理解能力。例如,它能分析城市街景的图片,识别和解释路标、建筑和其他重要元素。 数学问题解决:Grok-1.5V可以解决复杂的数学问题,包括但不限于代数、几何和统计问题。这一能力使得它可以在教育领域或任何需要精确数学计算的场合中发挥作用。 文档和文字处理:该模型还能处理和生成文本内容,适用于文档摘要、自动报告生成和内容创作等应用。它可以从大量的文本资料中提取关键信息,生成结构化和有洞察力的输出。 Grok-1.5V根据流程图生成代码 如何使用Grok-1.5V? 目前,Grok-1.5V 还没有完全开放,但会很快提供给早期测试者和现有的 Grok 用户。 了解更多详情:https://x.ai/blog/grok-1.5v Grok-1.5V的推出是向理解和生成多模态内容迈出的重要一步,预计在未来几个月内,它在图像、音频和视频等多种模态上的理解和生成能力都将得到显著提升。

自从 2023 年 11 月 Grok 首次亮相以来,马斯克的 xAI 正在大模型领域不断取得进步,向 OpenAI 等先行者发起进攻。在 Grok-1 开源后不到一个月,xAI 的首个多模态模型Grok-1.5V就问世了。 Grok-1.5V是什么? Grok-1.5V是一个由马斯克旗下公司xAI发布的全新多模态AI大模型,它不仅具备强大的文本处理能力,还可以处理各种视觉信息,如文档、图表、截图和照片。这使得Grok-1.5V能够在多学科推理、理解科学图表、阅读文本和实现真实世界的空间理解等领域与现有的前沿多模态模型竞争。 Grok-1.5V的主要特性 强大的多模态能力:Grok-1.5V不仅在处理文本方面表现出色,还能理解和处理广泛的视觉信息,如文档、图表、截图和照片。这种能力使它能够在多个领域内执行复杂的任务,提供更全面的解决方案。 竞争力强的基准表现:在多个前沿模型的基准测试中,Grok-1.5V展现了卓越的性能。它在多学科推理、数学问题解决、图表解析和文档理解等方面与其他顶尖模型竞争,显示出其广泛的应用潜力。 先进的实世界理解:特别引入的RealWorldQA基准针对真实世界的空间理解进行测评,Grok-1.5V在这一基准中表现优异,超越了多数同类模型。这表明它能有效理解并处理与真实世界互动相关的复杂场景和问题。 零样本学习能力:Grok-1.5V在未经特定训练的情况下,也能展现出良好的性能。这种能力使其能够灵活适应新的任务和挑战,而不需要针对每一种情况进行专门的训练。 多样的输入处理:该模型能够处理来自不同领域和格式的输入,无论是科学图表、复杂文档还是现实世界的图片,都能被有效解析和理解。这使得Grok-1.5V特别适合需要处理大量不同类型数据的应用。 Grok-1.5V 与 GPT-4V、Claude 3Sonnet、Claude 3 Opus 和 Gemini Pro 1.5 的测试对比。 Grok-1.5V 应用场景 xAI在博客中展示了 Grok-1.5V 的几个应用示例: 科学图表理解:Grok-1.5V能够解析复杂的科学图表,并从中提取关键信息。这使得模型可以在学术研究或数据分析中应用,帮助用户理解和解释图表中的数据趋势和关系。 多学科推理:该模型在处理涉及多个学科的复杂问题时表现出色,例如可以同时理解物理、生物和化学的概念,并将这些知识应用于解决跨学科的问题。 真实世界的空间理解:通过RealWorldQA基准测试,Grok-1.5V展示了其对真实世界图像的高度理解能力。例如,它能分析城市街景的图片,识别和解释路标、建筑和其他重要元素。 数学问题解决:Grok-1.5V可以解决复杂的数学问题,包括但不限于代数、几何和统计问题。这一能力使得它可以在教育领域或任何需要精确数学计算的场合中发挥作用。 文档和文字处理:该模型还能处理和生成文本内容,适用于文档摘要、自动报告生成和内容创作等应用。它可以从大量的文本资料中提取关键信息,生成结构化和有洞察力的输出。 Grok-1.5V根据流程图生成代码 如何使用Grok-1.5V? 目前,Grok-1.5V 还没有完全开放,但会很快提供给早期测试者和现有的 Grok 用户。 了解更多详情:https://x.ai/blog/grok-1.5v Grok-1.5V的推出是向理解和生成多模态内容迈出的重要一步,预计在未来几个月内,它在图像、音频和视频等多种模态上的理解和生成能力都将得到显著提升。