
DeepSeek-V2:深度求索发布的第二代开源MoE模型
DeepSeek-V2 基于 2 千亿 MoE 模型底座,领先性能,超低价格,越级场景体验,已在对话官网和API全面上线。,DeepSeek-V2 基于 2 千亿 MoE 模型底座,领先性能,超低价格,越级场景体验,已在对话官网和API全面上线。
SAM 2(Segment Anything Model 2)是由Meta(原Facebook)推出的新一代AI视觉分割模型,能够在图像和视频中,以最少的输入(如点击、框选),实现高度精确、实时的对象分割。它在不需要定制适配的情况下,能够对任何未曾见过的对象进行分割,适用于各种视觉领域。这一模型在原有的Segment Anything Model (SAM)基础上进行了扩展和改进,支持更广泛的应用场景。
Meta开放了Segment Anything Model 2的论文和源代码,提供了Segment Anything Model 2的在线体验demo: