2GB 内存就能跑 ChatGPT!这个国产「小钢炮」,要让华为 OV 们的 AI 体验突破瓶颈
时间:2024-09-05 23:33:45 来源:<新程序_sjbxin> 责任编辑:谢哈布·侯赛尼,塔拉内·阿里多斯蒂,巴巴克·卡里米,法里德·萨贾蒂·侯赛尼,米娜·沙达蒂

在这波 AI 浪潮中,面壁智能是国内少有选择 All In 端侧模型的头部大模型厂商。

自从面壁智能 2 月份发布性能小钢炮 1.0 后,接连几月陆续迭代升级,其中后续推出的开源模型 MiniCPM-Llama3-V 2.5 更是因为强悍的实力遭到了斯坦福 AI 团队的抄袭。

四月份,面壁智能 CTO 曾国洋还曾预言,GPT-3.5 级别的模型将在一两年内就能在移动设备上运行。

好消息是,不用再等一到两年了,因为今天发布的 MiniCPM 3.0 实现了初代小钢炮发布时立下的 Flag:今年内让 GPT-3.5 水平的模型在端侧跑起来。

仅 4B 参数,以小博大,性能超越 GPT-3.5,MiniCPM 3.0 也标志着「端侧 ChatGPT」时刻的到来。

简单来说就是,MiniCPM 3.0 的面世意味着用户未来能体验到快速、安全、且功能丰富的本地 AI 服务,无需依赖云端处理,以及获得更流畅、更私密的智能交互体验。

从官方分享的基准测试来看,MiniCPM 3.0 在 CMMLU、CEVAL 等考究中文能力的基准测试中一骑绝尘,轻松碾压 Phi-3.5、以及 GPT-3.5 等模型。

而即便是对上了 8B、9B 等国内优秀的大模型,MiniCPM 3.0 的表现同样相当出众。

简单总结一下 MiniCPM 3.0 的特点:

无限长文本,性能超越 Kimi

小而强、小而全,或许是 MiniCPM 3.0 最贴切的形容词。

上下文长度是衡量大模型基础能力的一项重要特性,更长的上下文长度意味着模型能够存储和回忆更多的信息,从而有助于模型更准确地理解和生成语言。

举例来说,更长的上下文长度能够让一个 AI 写作工具根据用户之前写的内容提供更相关的建议,或者根据更多的背景信息创作出更复杂、更引人入胜的故事。

为此,面壁提出了 LLMxMapReduce 长本文分帧处理技术。

这是一种通过将长上下文切分为多个片段,让模型并行处理,并从不同片段中提取关键信息,汇总最终答案,实现无限长文本。

据悉,这一技术普遍增强了模型处理长文本的能力,且在文本不断加长的情况,仍保持稳定性能、减少长文本随加长掉分情况。

▲ LLMxMapReduce 技术框架图

从 32K 到 512K,MiniCPM 3.0 能够打破大模型记忆的限制,将上下文长度无限稳定拓展,用面壁官方的话来说就是「想多长就多长」。

从大模型长文本的基准测试 InfiniteBench 结果来看,随着文本长度的增加,4B 参数的 MiniCPM 3.0 的性能优势反而愈发明显。

InfiniteBench Zh.QA 评测结果显示,4B 参数的 MiniCPM 3.0 整体性能优于 Kimi,在更长的文本上显示出相对更强的稳定性。

端侧最强 Function call,性能比肩 GPT-4o

在接受 APPSO 等媒体的采访时,曾国洋也表示,MiniCPM 3.0 针对用户关注的一些能力进行了提升,比如加入了完整的 system prompt Function Calling 和 code interpreter 等能力。

其中 Function Calling(函数调用)能够将用户模糊化的输入语义转换为机器可以精确理解执行的结构化指令,并让大模型连接外部工具和系统。

具体来说,通过语音在手机上调用日历、天气、邮件、浏览器等 APP 或相册、文件等本地数据库,从而打开终端设备 Agent 应用的无限可能,也让人机交互更加自然和方便。

据介绍,MiniCPM 3.0 宣称拥有端侧最强 Function Calling 性能 ,在 Berkeley Function-Calling Leaderboard 榜单上,其性能接近 GPT-4o,并超越 Llama 3.1-8B、Qwen-2-7B、GLM-4-9B 等众多模型。

曾国洋表示,现有的开源模型在这些能力上的覆盖并不全面,通常只有一些云端的大型模型能够完全覆盖这些能力。现在,MiniCPM 3.0 也实现了一些相应的功能。

以 RAG(检索增强生成)为例,这是一种结合了信息检索(IR)和自然语言生成(NLG)的技术。

它通过从大规模文档库中检索相关信息来指导文本的生成过程,能够提升模型在回答问题、生成文本等任务中的准确性和可靠性,减少大模型的幻觉问题。

对于法律、医疗等依赖专业知识库、对大模型幻觉容忍度极低的垂直行业来说,大模型+RAG 在行业中尤其实用。

MiniCPM 3.0 一口气上线了 RAG 三件套:检索模型,重排序模型和面向 RAG 场景的 LoRA 插件。

MiniCPM-Embedding(检索模型)中英跨语言检索取得 SOTA 性能,在评估模型文本嵌入能力的 MTEB 的检索榜单上中文第一、英文第十三。

MiniCPM-Reranker(重排序模型)在中文、英文、中英跨语言测试上取得 S OTA 性

经过针对 RAG 场景的 LoRA 训练后,MiniCPM 3.0-RAG-LoRA 在开放域问答(NQ、TQA、MARCO)、多跳问答(HotpotQA)、对话(WoW)、事实核查(FEVER)和信息填充(T-REx)等多项任务上的性能表现,超越 Llama3-8B 和 Baichuan2-13B 等业内优秀模型。

模型应用落地,先跑起来再说

在接受 APPSO 等媒体的采访时,面壁智能 CEO 李大海提到,能跑起来和真正流畅地去做应用是两个不同的概念。

而经过优化后的 MiniCPM 3.0 对端侧设备的资源需求很低,量化后仅需 2.2 G 内存,iPad 端侧推理也能达到 18-20 tokens/s。

对于 iPad 这样的移动设备来说,每秒能够处理 18-20 个 token 的速度已经意味着模型能够实时处理自然语言输入。

比如在语音识别或实时翻译应用中,用户基本不会感受到明显的延迟,享受到相对流畅的交互体验。

另外,相较于云端模型,作为端侧模型的面壁小钢炮 MiniCPM 系列模型还天然具有弱网、断网可用、超低时延、数据隐私安全等本地优势。

在贡嘎雪山附近游玩时,想知道欣赏「日照金山」的最佳姿势,网络不佳的你可以向 MiniCPM 3.0 发出提问。

又或者,如果你是「赶海」的新人,站在波涛汹涌的海岸边,却想要满载而归,那不妨可以遵循 MiniCPM 3.0 给出的建议。当你抬头仰望夜空时,萌生了捕捉星轨的念头,MiniCPM 3.0 也能给你将拍摄的细节娓娓道来。

MiniCPM 小钢炮系列飞速进步的背后是一以贯之的高效大模型第一性原理。

面壁智能首席科学家刘知远曾提出一个大模型时代的「摩尔定律」,即大模型的知识密度平均每 8 个月将提升一倍。

知识密度=模型能力/参与计算的模型参数

具体来说,随着模型知识密度的持续增强,2020 年 GPT-3 175B 能力到 2024 年 MiniCPM 2.4B 模型即可达到,2022 年底 ChatGPT 首次亮相内置的 GPT-3.5 到 2024 年 MiniCPM 3.0 模型即可达到。

基于此,如果说 MiniCPM 追求的是极致端侧性能表现,那么 MiniCPM-V 追求的是极致多模态创新表现,面壁小钢炮的进步不是单方面的进步,而是端侧双旗舰的齐头并进。

经过一两年的技术摸索,AI 大模型正逐步进入落地应用的深水区。

李大海认为,大模型具有两个大方向的价值,一个方向的价值叫做升级旧世界,第二个方向的价值则是发现新大陆。

比如苹果整合 ChatGPT 服务到 Apple Intelligence 中便是一个典型的例证。

端侧模型也是如此,通过在手机、汽车还有 PC 这样的场景里面,更适合做的事情是去服务好终端的厂商,然后让终端厂商因为有了端侧模型,整个系统层级的体验也变得更好。

只不过,在技术到产品的惊险一跃中,厂商也需要投入大量时间来融合用户需求与技术。

正如李大海所言,尽管移动互联网自 iPhone 问世以来就已经存在,但真正大规模增长和被验证的应用确实是数年后才开始涌现。

实际上,面壁智能也一直在探索落地应用的场景。

此前,面壁小钢炮 MiniCPM 端侧模型已经在 PC、平板、手机等领域上实际运行。

前不久,面壁智能也在 WAIC 上联手加速进化机器人,打造出完整「具身智能」的先驱方案,这也是业界首个高效端侧模型运行在人形机器人的演示,理解、推理、并与物理世界互动的智能系统。

李大海也向 APPSO 等媒体剧透,预计在年底前将会有配备面壁智能端侧模型的产品上市。

简言之,面壁智能不断将高效高性能大模型放到离用户最近的地方,让大模型的能力像电力一样被随意调用、无处不在、普适且安全。

在这个过程,更多的人也能尽快地享受到大模型的价值和作用。

MiniCPM 3.0 开源地址:

GitHub:

🔗 https://github.com/OpenBMB/MiniCPM

HuggingFace:

🔗 https://huggingface.co/openbmb/MiniCPM3-4B

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

夏雷还清楚地记得,五年前,也就是父亲失踪前的一年,他的身体很弱,他的父亲不知从哪找来一瓶药,这瓶药只有十二粒白色的胶囊,他的父亲让他每一个月吃一颗。这药的效果很好,他吃了第一颗之后身体情况就好了很多。后来,他吃到第十一颗的时候父亲便失踪了,剩下一颗药也不知道跑哪去了。

李青华被立案调查,陈传虎也被抓了。夏雷所拍摄的权色交易的视频只是一条引线,调查组顺着这条线往下挖,李青华和陈传虎的犯罪行为便一一曝光,等待这两人的也将是法律的严惩。

第0026章 原来是个坏小子

“这丫头,她这么好,将来不知道哪个家伙有福气会娶到她,我这个当哥哥的一定要替她把好关。”夏雷笑了笑,他将纸条和药品一起放到了电视柜上的全家福相框后面,然后返回餐桌吃他的早饭和午饭。

看到这里,夏雷顿时明白女贼想偷什么东西了。他跟着从床上爬了起来,连鞋也顾不上穿,赤着脚就冲出了门。2GB 内存就能跑 ChatGPT!这个国产「小钢炮」,要让华为 OV 们的 AI 体验突破瓶颈“嗯,最后一个了。”夏雷说。

2K8mNw87pBRvd
相关报道
    分享到:

    中共中央政法委员会主办

    Copyright 2015 www.chinapeace.gov.cn All Rights Reserved 京ICP备 14028866 号-1中国长安网 © 2017版权所有

    黑人干人妻

    200款禁用网站永久无限大全

    大香蕉精品在线

    <新程序_随机数><新程序_随机数>.<新程序_随机数><新程序_随机数>MB
    版本V<新程序_随机数><新程序_随机数>.<新程序_随机数><新程序_随机数>.<新程序_随机数><新程序_随机数>
    粉色视频app下载安装无限看丝瓜ios苏州晶体美食 安装你想要的应用 更方便 更快捷 发现更多
    快来操逼好爽APP下载
87%好评(<新程序_随机数><新程序_随机数><新程序_随机数>人)
    qqc.vip五年沉淀只做精品pc端 62
    详细信息
    • 软件大小: <新程序_随机数><新程序_随机数>.<新程序_随机数><新程序_随机数>MB
    • 最后更新: 2024-09-05 23:33:45
    • 最新版本: V<新程序_随机数><新程序_随机数>.<新程序_随机数><新程序_随机数>.<新程序_随机数><新程序_随机数>
    • 文件格式: apk
    • 应用分类:ios-Android
    • 使用语言: 中文
    • : 需要联网
    • 系统要求: 5.41以上
    应用介绍
    一,操逼软件APP下载,草莓色板app
    二,jzjzjz
    三,打工处欲求不满的人妻篠田优
    四,黄色淫荡 了
    五,ZZijZZij亚洲日本少妇
    六,不知火舞和三个小孩森林公园
    七,cm污
    【联系我们】
    客服热线:139-2551-646
    加载更多
    版本更新
    V<新程序_随机数><新程序_随机数>.<新程序_随机数><新程序_随机数>.<新程序_随机数><新程序_随机数>
    777色色色

    猜你喜欢

    包含 饿了么 的应用集
    评论
    • 91九色蝌蚪 国产张琼 <新程序_随机数>天前
      草莓ios无限次数看网站
    • 艹白丝在线观看 <新程序_随机数>天前
      51cg0.fun
    • Sm调教圈论坛首页入口 <新程序_随机数>天前
      继女h
    • 黄色软件下载3.0.3免费vivo版破解大全苹果 <新程序_随机数>天前
      15111大但人文艺术欣赏
    • 国产精品a v久久A片无 <新程序_随机数>天前
      黄黄X又又又又又又黄XXXX
    • 3DNagoonimation_HonKai-MBA智库百科 <新程序_随机数>天前
      丁香五月天社区
    • 操逼视频大全下载 <新程序_随机数>天前
      寒one一个就够了致敬韩寒
    • 开心色播五月天 <新程序_随机数>天前
      黄色3.03
    • 爱情岛论坛亚洲品质独家 <新程序_随机数>天前
      4虎入口
    • 爱情岛论坛com <新程序_随机数>天前
      成人APP免费下载七客分享