人工智能初创公司Cerebras今日宣布推出Cerebras Inference,据称是世界上最快的人工智能推理解决方案。该公司表示:“Cerebras Inference为Llama 3.18B每秒提供1800个token,为Llama 3.170B每秒提供450个token,比基于英伟达(NVDA.US)GPU的超大规模云快20倍。”
Cerebras Inference由第三代晶圆级引擎(WaferScaleEngine)提供动力,同时由于消除了内存带宽障碍,速度更快。Cerebras称其GPU解决方案的推理成本是微软Azure云计算平台的三分之一,而使用的功率是微软Azure云计算平台的六分之一。
该公司表示:“Cerebras通过制造世界上最大的芯片,并将整个模型存储在芯片上,解决了内存带宽瓶颈。”“凭借我们独特的晶圆级设计,我们能够在单个芯片上集成44GB的SRAM,从而消除了对外部存储器和连接外部存储器和计算机的慢速通道的需求。”
提供人工智能模型独立分析的人工智能分析公司(Artificial Analysis)联合创始人兼首席执行官MicahHill-Smith表示:“Cerebras在人工智能推理基准方面处于领先地位。Cerebras为Meta的Llama3.18B和70BAI模型提供的速度比基于GPU的解 决方案快一个数量级。我们在Llama3.18B上测量的速度超过每秒1800个输出token,在Llama3.170B上测量的速度超过每秒446个输出token,这是这些基准测试中的新记录。
他称,“凭借推至性能前沿的速度和具有竞争力的价格,Cerebras Inference对具有实时或大容量需求的人工智能应用程序的开发人员特别有吸引力。”
值得一提的是,这可能会在整个人工智能生态系统中产生连锁反应。随着推理变得更快、更高效,开发人员将能够突破人工智能的极限。曾经因硬件限制而受阻的应用程序现在可能会蓬勃发展,并激发出此前被判定为不可能的创新。不过, J. Gold Associates 分析师杰克·戈尔德 (Jack Gold) 也提出,“但在我们获得更具体的现实基准和大规模运营之前,现在估计它到底有多优越还为时过早。”
本月早些时候,Cerebras提交了首次公开募股(IPO)申请,预计将于今年下半年上市。该公司最近还任命了两名新的董事会成员:曾在IBM(IBM.US)、英特尔(INTC.US)和西班牙电信(TEF.US)担任高管的格伦达•多查克;以及VMware和Proofpoint前首席财务官保罗·奥维尔(Paul Auvil)。
这家初创公司还向上市迈出了重要的一步,本月早些时候聘请鲍勃•科明(Bob Komin)担任首席财务官。Komin曾在Sunrun担任首席财务官,领导了该公司的IPO流程。他还曾在被雅虎收购的Flurry和被微软(MSFT,US)收购的TellmeNetworks担任CFO。
Cerebras首席执行官兼联合创始人AndrewFeldman说,“鲍勃在他的职业生涯中一直是一个关键的运营领导者,在几家公司担任创业高管,这些公司发明了重大的技术和商业模式创新,并迅速成长为行业领导者。他在成长期和上市公司的财务领导方面的丰富经验对Cerebras来说是非常宝贵的。”
可夏雷不同,一个个数字和图形进入他的大脑,他的大脑就像是电脑一样飞快地运转了起来,寻找隐藏在图形和数字里面的痕迹……
这个答案让所有人都感到意外,可细想,却又觉得合乎情理。毕竟,夏长河曾经是FA组织的人,他从什么渠道获得这样的情报并不是不可能的事情。
夏雷笑了一下,“在博奥,那个美国女人不是说我是走在全人类前面的人吗?她的意思大概是说我是超人吧,我当然知道。”
“白鹿镇,你没看见镇口那个卖煎饼果子的大娘吗?她是白鹿镇的形象代言人。”夏雷笑着说。
“那好,我就直说了。”梁正春说道:“你和别的女人决心什么婚礼我不管,可你和思瑶的婚姻得按照老传统来。媒婆聘礼一个都不能少,衣服也要传统的,不要西服婚纱。”比英伟达(NVDA.US)GPU快20倍! Cerebras“出炉”全球最快AI推理解决方案“我们这样拒绝他好不好?”凡凡有些担心的样子。
aJNwZ6Uu967