微软、英伟达纷纷押注小模型,大模型不香了?
时间:2024-08-26 06:33:12 来源:<新程序_sjbxin> 责任编辑:寺川爱美 / 大冢纱英 / 西本里美 / 大桥彩香 / 伊藤彩沙 / 相羽爱奈 / 工藤晴香 / 中岛由贵 / 樱川惠 / 明坂聪美 / 佐仓绫音 / 三泽纱千香 / 加藤英美里 / 日笠阳子 / 金元寿子 / 伊藤美来 / 田所梓 / 吉田有里 / 丰田萌绘 / 黑泽朋世 / 前岛亚美 / 小泽亚李 / 上坂堇 / 中上育实 / 秦佐和子 / 洲崎绫 / 尾崎由香

  每经记者 文巧 实习记者 岳楚鹏    每经编辑 高涵    

  在人工智能发展的道路上,科技巨头们曾经竞相开发规模庞大的语言模型,但如今出现了一种新趋势:小型语言模型(SLM)正逐渐崭露头角,挑战着过去“越大越好”的观念。

  视觉中国

  大模型训练成本攀升

  SLM的崛起并非偶然,而是与大模型(LLM)在性能提升与资源消耗方面的挑战 密切相关。

  AI 初创公司 Vellum 和Hugging Face今年4月份发布的性能比较表明,LLM之间的性能差距正在迅速缩小,特别是在多项选择题、推理和数学问题等特定任务中,顶级模型之间的差异极小。例如,在多项选择题中,Claude 3 Opus、GPT- 4 和Gemini Ultra的准确率均超过83%,而在推理任务中,Claude3 Opus、GPT-4和Gemini 1.5Pro的准确率均超过92%。

  Uber AI 前负责人 Gary Marcus指出:“我想每个人都会说GPT-4比GPT-3.5领先了一步,但此后的一年多没有任何质的飞跃。”

  与有限的性能提升相比,LLM的训练成本却在不断攀升。训练这些模型需要海量数据和数以亿计甚至万亿个参数,导致了极高的资源消耗。训练和运行LLM所需的计算能力和能源消耗令人咋舌,这使得小型组织或个人难以参与核心LLM开发。

  国际能源署估计,数据中心、加密货币和人工智能相关的电力消耗到2026年,会大致相当于日本全国的用电量。

  OpenAI首席执行官阿尔特曼曾在麻省理工学院的一次活动上表示,训练GPT-4的成本至少为1亿美元,而Anthropic首席执行官Dario Amodei预测,未来训练模型的成本可能达到1000亿美元。

  此外,使用LLM所需的工具和技术的复杂性也增加了开发人员的学习曲线。从训练到部署,整个过程耗时漫长,减缓了开发速度。剑桥大学的一项研究显示,公司可能需要90天或更长时间才能部署一个机器学习模型。

  LLM的另一个重大问题是容易产生“幻觉”——即模型生成的输出看似合理,但实际上并不正确。这是由于LLM的训练方式是根据数据中的模式预测下一个最可能的单词,而非真正理解信息。因此,LLM可能会自信地生成虚假陈述、编造事实或以荒谬的方式组合不相关的概念。如何检测和减少这些“幻觉”是开发可靠且可信赖语言模型的持续挑战。

  小模型可降低成本

  对LLM巨大能源需求的担忧,以及为企业提供更多样化AI选项的市场机会,让科技公司将注意力逐渐转向了SLM。

  《每日经济新闻》记者注意到,不管是Arcee、Sakana AI和Hugging Face等AI初创公司,还是科技巨头都在通过SLM和更经济的方式吸引投资者和客户。

  此前,谷歌、Meta、OpenAI和Anthropic都发布了比旗舰LLM更紧凑、更灵活的小模型。这不仅降低了开发和部署的成本,也为商业客户提供了更便宜的解决方案。鉴于投资者越来越担心AI企业的高成本和不确定的回报,更多的科技公司可能会选择这条道路。即便是微软和英伟达,如今也先后推出了自己的小模型(SLM)。

  SLM是LLM的精简版本,具有更少的参数和更简单的设计,它们需要更少的数据和训练时间——只需几分钟或几小时。这使得SLM更高效,更易于在小型设备上部署。例如,它们可以嵌入到手机中,而无需占用超算资源,从而降低成本,并显著提升响应速度。

  SLM的另一个主要优势是其针对特定应用的专业化。SLM专注于特定任务或领域,这使它们在实际应用中更加高效。例如,在情绪分析、命名实体识别或特定领域的问答中,SLM的表现往往优于通用模型。这种定制化使得企业能够创建高效满足其特定需求的模型。

  SLM在特定领域内也不易出现“幻觉”,因为它们通常在更窄、更有针对性的数据集上训练,这有助于模型学习与其任务最相关的模式和信息。SLM的专注性降低了生成不相关、意外或不一致输出的可能性。

  尽管规模较小,SLM在某些方面的性能并不逊色于大模型。微软最新推出的Phi-3.5-mini-instruct仅拥有38亿个参数,但其性能优于Llama3.18B和Mistral7B等参数远高于它的模型。美国东北大学(位于美国马萨诸塞州波士顿,是一所顶尖的私立研究型大学)语言模型研究专家Aaron Mueller指出,扩展参数数量并非提高模型性能的唯一途径,使用更高质量的数据训练也可以产生类似效果。

  OpenAI首席执行官阿尔特曼在4月的一次活动中表示,他相信当前正处于巨型模型时代的末期,“我们将通过其他方式来提升它们的表现。”

  不过,需要注意的是,虽然SLM的专业化是一大优势,但也有局限性。这些模型可能在其特定训练领域之外表现不佳,缺乏广泛的知识库,和LLM相比无法生成广泛主题的相关内容。这一限制要求用户可能需要部署多个SLM来覆盖不同的需求领域,从而使AI基础设施复杂化。

  随着AI领域的快速发展,小模型的标准可能会不断变化。东京小模型初创公司Sakana的联合创始人兼首席执行官David Ha表示,几年前看似庞大的AI模型,现在看来已经显得“适中”。“大小总是相对的。”David Ha说道。

  翻译

  搜索

  复制

  封面图片来源:视觉中国

责任编辑:王许宁

“等等。”夏雷又叫住了尹浩。

阿妮娜收了一下香肩,黑色长裙的吊带从她的肩头无声地滑落。她的身上仅有一条黑色的小丁,布料少得可怜,可怜到了甚至不能遮丑的地步。她的性感能让种子发芽,也能让弯的变成直的,瞬间被她征服。

龙冰的电话没来,申屠天音却来了。

“啊?”夏雪很惊讶的样子。在西方,女人跟着男人姓就只有一种情况,那就是嫁个那个男人了。这个洋妞跟着她哥姓夏,那不就是她的嫂子了吗?

却还没等胡厚把话说完,阿妮娜忽然两步跑来,一把抱住了夏雷。微软、英伟达纷纷押注小模型,大模型不香了?末了,记住我最好的一面吧……

77I0SE0WscjeAr
相关报道
    分享到:

    中共中央政法委员会主办

    Copyright 2015 www.chinapeace.gov.cn All Rights Reserved 京ICP备 14028866 号-1中国长安网 © 2017版权所有

    亚洲精品一区二区三区播放

    欧美午夜精品理论片a

    婷婷五月综合激情

    <新程序_随机数><新程序_随机数>.<新程序_随机数><新程序_随机数>MB
    版本V<新程序_随机数><新程序_随机数>.<新程序_随机数><新程序_随机数>.<新程序_随机数><新程序_随机数>
    十八禁软件 安装你想要的应用 更方便 更快捷 发现更多
    三级片下载软件
87%好评(<新程序_随机数><新程序_随机数><新程序_随机数>人)
    亚洲矿砖码2023 62
    详细信息
    • 软件大小: <新程序_随机数><新程序_随机数>.<新程序_随机数><新程序_随机数>MB
    • 最后更新: 2024-08-26 06:33:12
    • 最新版本: V<新程序_随机数><新程序_随机数>.<新程序_随机数><新程序_随机数>.<新程序_随机数><新程序_随机数>
    • 文件格式: apk
    • 应用分类:ios-Android
    • 使用语言: 中文
    • : 需要联网
    • 系统要求: 5.41以上
    应用介绍
    一,淑英好爽 好紧 宝贝别夹小说,美女让男人朗诵的视频
    二,欧美人与动物ccccc
    三,伊园甸二三三四区
    四,亚欧洲高清砖码砖专区 了
    五,免费精品一区二区三区第35二区
    六,污污污污黄黄黄app
    七,污软件免费下载
    【联系我们】
    客服热线:139-2551-646
    加载更多
    版本更新
    V<新程序_随机数><新程序_随机数>.<新程序_随机数><新程序_随机数>.<新程序_随机数><新程序_随机数>
    亚洲丝袜一区

    猜你喜欢

    包含 饿了么 的应用集
    评论
    • 羞羞漫画免费阅读 <新程序_随机数>天前
      雷神腿法娴熟
    • 色天堂永久免费 <新程序_随机数>天前
      男女性爱毛片
    • 男生用机机捅女生机机 <新程序_随机数>天前
      男生摸女生肌肌
    • 欧美人妻兽交vⅰdeO <新程序_随机数>天前
      肉文动图
    • 绿巨人黄 <新程序_随机数>天前
      美女奶头秘 无遮挡免费
    • 色图偷拍 <新程序_随机数>天前
      趣夜传媒
    • 体育生gay网站 <新程序_随机数>天前
      人人做人人摸人人爱
    • 破处软件 <新程序_随机数>天前
      污91
    • 香港最近十五期开奖记录图片大全 <新程序_随机数>天前
      小粉逼
    • 男生和女生APP <新程序_随机数>天前
      午夜理论