SiliconCloud – 硅基流动推出的一站式大模型云服务平台

2周前更新 53 00

领先的 AI Infra 平台,助力开发者实现 Token 自由。,领先的 AI Infra 平台,助力开发者实现 Token 自由。

收录时间:
2024-09-11
SiliconCloud – 硅基流动推出的一站式大模型云服务平台SiliconCloud – 硅基流动推出的一站式大模型云服务平台

SiliconCloud 是什么?

SiliconCloud 是由硅基流动推出的一站式大模型云服务平台,通过提供更快、更便宜、更全面的主流开源大模型 API 服务,SiliconCloud 希望能打造“大模型 Token 工厂”,帮助开发者真正实现 “Token 自由” 。目前,平台已上架包括 DeepSeek-V2-Chat、DeepSeek-Coder-V2、Stable Diffusion 3 Medium、Qwen2、GLM-4-9B-Chat、SDXL、InstantID 在内的多种开源大语言模型、图片生成模型与代码生成模型。

其中,Qwen2 (7B)、GLM4 (9B)、Yi1.5(9B)等顶尖开源大模型永久免费

立即体验:https://siliconflow.cn/zh-cn/siliconcloud

SiliconCloud 的产品特点

优质模型服务

  1. 文本生成:SiliconCloud 基于优质的大语言模型提供服务,包括 Llama3、Mixtral、Qwen、Deepseek 等,为用户提供超快的模型访问体验。
  2. 图片生成:SiliconCloud 包含各种文本到图像和文本到视频模型,例如 SDXL、SDXL lightning、photomaker、 instantid 等。

简单易用

只需一行代码,开发者即可快速迁移到SiliconCloud的快速模型服务上。

SiliconCloud - 硅基流动推出的一站式大模型云服务平台

如何使用SiliconCloud?

1. 访问 SiliconCloud 官网 完成注册/登录。

2. 登录后,进入“体验中心”页面,点击右侧的“模型(Model)”可自由切换平台目前支持的任一模型。

SiliconCloud - 硅基流动推出的一站式大模型云服务平台

同时,在体验中心,你还可以直接体验 SiliconCloud 平台提供的各种模型的效果与速度。

比如,可以选择 DeepSeek-V2-Chat,基于平台默认参数或提示词,点击“运行”按钮,即可看到模型生成的结果与输出速度。3. SiliconCloud API 文档3.1 生成 API 密钥点击“API 密钥”,“创建新 API 密钥”并复制密钥,以在你的 API 场景中使用。

SiliconCloud - 硅基流动推出的一站式大模型云服务平台

3.2 跳转到文档中心

点击页面右上角的“文档”,跳转至“文档中心”页面。

SiliconCloud - 硅基流动推出的一站式大模型云服务平台

3.3 进入“API 手册” 选择想接入的模型与语言,填入你的 API 密钥 ,生成对应语言的代码,复制代码到你的使用场景。

SiliconCloud - 硅基流动推出的一站式大模型云服务平台

至此,你就可以在自己的应用场景中享用 SiliconCloud 的 API 服务了。

数据统计

相关导航

Grok-1.5V:xAI发布的多模态AI大模型

Grok-1.5V:xAI发布的多模态AI大模型

Grok-1.5V不仅具备强大的文本处理能力,还可以处理各种视觉信息,如文档、图表、截图和照片。这使得Grok-1.5V能够在多学科推理、理解科学图表、阅读文本和实现真实世界的空间理解等领域与现有的前沿多模态模型竞争。,Grok-1.5V不仅具备强大的文本处理能力,还可以处理各种视觉信息,如文档、图表、截图和照片。这使得Grok-1.5V能够在多学科推理、理解科学图表、阅读文本和实现真实世界的空间理解等领域与现有的前…
云知声-山海大模型

云知声-山海大模型

山海大模型是最新一代认知智能大模型,拥有丰富的知识储备,涵盖科学、技术、文化、艺术、医疗、通识等领域。与她对话即可获取信息、知识和灵感,是人类的良师益友,也是灵动强大的智能助理。,山海大模型是最新一代认知智能大模型,拥有丰富的知识储备,涵盖科学、技术、文化、艺术、医疗、通识等领域。与她对话即可获取信息、知识和灵感,是人类的良师益友,也是灵动强大的智能助理。
Octopus V2-斯坦福推出的可在设备上运行的大模型

Octopus V2-斯坦福推出的可在设备上运行的大模型

Octopus v2是一个拥有20亿参数的模型,能够在智能手机、汽车、个人电脑等设备上运行。它在准确性和延迟方面超越了GPT-4,且将上下文长度减少了95%。与基于RAG的Llama7B模型相比,Octopus v2的速度快了36倍。,Octopus v2是一个拥有20亿参数的模型,能够在智能手机、汽车、个人电脑等设备上运行。它在准确性和延迟方面超越了GPT-4,且将上下文长度减少了95%。与基于RAG的Llama7B模型相比,Oc…