FlagEvalhttps://flageval.baai.ac.cn,FlagEval(天秤)由智源研究院将联合多个高校团队打造,是一种采用“能力—任务—指标”三维评测框架的大模型评测平台,旨在提供全面、细致的评测...AI模型评测# 智源研究院推出的FlagEval(天秤)大模型评测平台标签:AI模型评测 访问官网7个月前40
C-Evalhttps://cevalbenchmark.com,C-Eval是一个适用于大语言模型的多层次多学科中文评估套件,由上海交通大学、清华大学和爱丁堡大学研究人员在2023年5月份联合推出,包含了139...AI模型评测# 一个全面的中文基础模型评估套件标签:AI模型评测 访问官网7个月前30
MMLUhttps://paperswithcode.com,MMLU 全称 Massive Multitask Language Understanding,是一种针对大模型的语言理解能力的测评,是目前最著...AI模型评测# 大规模多任务语言理解基准标签:AI模型评测 访问官网 相关链接:MMLU论文7个月前20
Open LLM Leaderboardhttps://huggingface.co,Open LLM Leaderboard 是最大的大模型和数据集社区 HuggingFace 推出的开源大模型排行榜单,基于 Eleuther AI La...AI模型评测# Hugging Face推出的开源大模型排行榜单标签:AI模型评测 访问官网7个月前20
OpenCompasshttps://opencompass.org.cn,OpenCompass是由上海人工智能实验室(上海AI实验室)于2023年8月正式推出的大模型开放评测体系,通过完整开源可复现的评测框架,支持大语...AI模型评测# 上海人工智能实验室推出的大模型开放评测体系标签:AI模型评测 访问官网7个月前20
CMMLUhttps://github.com,CMMLU是一个综合性的中文评估基准,专门用于评估语言模型在中文语境下的知识和推理能力,涵盖了从基础学科到高级专业水平的67个主题。它包括:需要计算和推理的自然科...AI模型评测# 一个综合性的大模型中文评估基准标签:AI模型评测 访问官网7个月前20
MMBenchhttps://mmbench.opencompass.org.cn,MMBench是一个多模态基准测试,由上海人工智能实验室、南洋理工大学、香港中文大学、新加坡国立大学和浙江大学的研究人员推出。该体...AI模型评测# 全方位的多模态大模型能力评测体系标签:AI模型评测 访问官网7个月前20
HELMhttps://crfm.stanford.edu,HELM全称Holistic Evaluation of Language Models(语言模型整体评估)是由斯坦福大学推出的大模型评测体系,该评...AI模型评测# 斯坦福大学推出的大模型评测体系标签:AI模型评测 访问官网7个月前20
LLMEval3http://llmeval.com,LLMEval是由复旦大学NLP实验室推出的大模型评测基准,最新的LLMEval-3聚焦于专业知识能力评测,涵盖哲学、经济学、法学、教育学、文学、历史学、理学、工...AI模型评测# 由复旦大学NLP实验室推出的大模型评测基准标签:AI模型评测 访问官网7个月前20
H2O EvalGPThttps://evalgpt.ai,H2O EvalGPT 是 H2O.ai 用于评估和比较 LLM 大模型的开放工具,它提供了一个平台来了解模型在大量任务和基准测试中的性能。无论你是想使用大模型自...AI模型评测# H2O.ai推出的基于Elo评级方法的大模型评估系统标签:AI模型评测 访问官网7个月前20