Gitee 推荐 | 中文小型预训练模型 MiniRBT


MiniRBT 是实用性强、适用面广的中文小型预训练模型,由哈工大讯飞联合实验室推出。

 


相關推薦

2022-09-06

方案,并且在多个典型客户场景里成功落地,服务于智能推荐等应用场景。 RoadMap 基于 EasyNLP 的中文 CLUE/FewCLUE 等的 Benchmark 知识预训练技术: 发布一系列知识预训练模型,致力于提升预训练模型的常识性和知识性 中文预

2023-07-25

聚焦于金融和商业垂直领域的大模型。模型的训练数据以中文数据为主,并且包含大量的金融数据,以提升模型在商业和金融领域的问题处理能力。此外,训练数据中还融合了部分英文与代码数据,以适应模型的通用能力。在训

2022-09-08

练,完成其业务场景工人安装是否合格的智能审核。 某推荐用户使用自监督训练组件,使用其大量的无标注广告图片,训练图像表征模型,进而把图像特征接入推荐模型,结合推荐模型优化,ctr提升10+%。 某面板研发厂商基

2023-07-19

e和chat对齐模型Baichuan-13B-Chat,同时支持商用。 目前为止中文社区已经陆续发布了大量的开源模型,主要集中在6B-13B之间。 那么百川开源的这个模型相对于其他国内外有代表性的模型表现怎么样,比如与ChatGPT3.5有多大差距;与

2023-08-16

势,“书生·万卷”将为学术界及产业界提供更符合主流中文价值对齐的高质量大模型多模态预训练语料。 “书生·万卷”链接:https://opendatalab.org.cn/WanJuan1.0 今年7月6日,上海AI实验室正式发布全新升级的“书生通用大模型体

2023-11-04

智源·悟道大模型的研发,目前已发布产品包括世界首个中文及跨语言反向词典WantWords、名句语义检索系统WantQuotes、智能写作工具深言达意等。 根据介绍,LingoWhale-8B模型是拥有约80亿参数的中英双语大语言模型,在C-Eval、MMLU、

2023-06-16

huan-7B/summary 据介绍,baichuan-7B 在 C-Eval、AGIEval 和 Gaokao 中文权威评测榜单上,超过了 ChatGLM-6B 等其他大模型,并且在 MMLU 英文权威评测榜单上,领先 LLaMA-7B。

2023-08-17

: 将aby3代码从PrimiHub迁移到单独的库 修复PSI结果集中文显示问题 kkrt16 PSI支持MACOS 修复神经网络使用GPU设备训练和预测报错的问题 项目地址 GitHub:https://github.com/primihub/primihub Gitee:https://gitee.com/primihub/primihub

2023-09-05

inkSoul.AI 是一家 AI 初创公司,曾推出过首个开源 Llama 2 的中文语言大模型;零一万物则是李开复旗下的大模型公司。 “多模态大型语言模型近来备受关注。不过,大多数研究都集中在视觉-语言多模态模型上,这些模型在遵循

2023-10-26

大学和中国科学技术大学宣布共同推出 PonderV2 通用 3D 预训练方法与模型。 Ponder系列在通用3D方面实现三个“首次”:首次同时支持室内外使用场景;首次同时支持点云、体素和多视角图像输入;首次在不同语义层级的下游任务

2023-10-10

中途迷失、模型偷懒、上下文越长大模型越笨......如果体验过大语言模型产品,用户多少会对文本输入长度带来的限制有所感触,比如当想和大模型讨论一些稍长的内容,需要拆分输入,而前面输入的要点,很快就会被大模型忘

2023-07-08

通过NL2SQL和AutoGraph智能路由,实现SQL到可视化图表的自动推荐,通过多轮自然语言交互,让人人都能便捷地从数据中洞察业务细节。在云搜索,通过多模态Embedding和NL2API技术,实现视频、文本、图谱等广泛场景搜索,借助强大的

2023-08-10

升级版本。 百川强调了 Baichuan-53B 的三个技术优势:预训练数据、搜索增强和对齐能力,其中前两者与百川团队中丰富的搜索引擎经验有较强相关性。 预训练数据 预训练阶段,王小川表示,此前团队做搜索引擎的经验,让百

2023-04-14

家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。 第七条 提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。 用于生成式人工智能