开云(中国)kaiyun网页版登录入口

体育游戏app平台完成一轮价值2.5亿好意思元的早期融资-开云(中国)kaiyun网页版登录入口


发布日期:2024-12-31 05:48    点击次数:182

  起头:华尔街见闻

  在一项基准测试中,Liquid AI建立的LFM模子跑赢了Meta和微软的流行模子,同期需要的内存更少。该公司推出的STAR新框架在与搀杂模子比较竣事了高达37%的缓存大小减少,与Transformers比较则减少了90%。

  刚刚,一家名为Liquid AI(液态AI)的生成式东谈主工智能初创公司告示,完成一轮价值2.5亿好意思元的早期融资,由芯片巨头AMD领投。

  这项投资将救助Liquid AI进一步建立其Liquid Foundation模子(LFM),这是一种面向企业的轻量级、通用AI模子,旨在挑战传统的基于云霄的AI模子,如OpenAI、亚马逊AWS和谷歌云。

  液态神经网罗:受大脑启发的改进

  Liquid AI的LFM与传统基于变换器的模子架构不同,它们基于“液态神经网罗”,这是一种受大脑启发的系统,即使在熟谙后也能保握适当性和鲁棒性(沉稳力)。

  这些模子相配得当处理大王人律例多模态数据,包括视频、音频、文本、时刻序列和信号。在MMLU-Pro基准测试中,Liquid AI的LFM模子跑赢了Meta和微软的流行模子,同期需要的内存更少。

  LFM具备多言语才气,包括西班牙语、法语、德语、汉文、阿拉伯语、日语和韩语。此外,这些模子正在为英伟达、AMD、高通和苹果的硬件进行优化。

  LFM有三个模子可供选拔:LFM-1B得当伙源受限的环境,LFM-3B优化了边际部署,而LFM-40B群众搀杂模子(MoE)则野心用于复杂任务。 这些模子在学问容量、多步推理、长陡立文回忆、推理后果和熟谙后果方面阐扬出色。

  STAR,专注性能与后果的均衡

  Liquid AI还推出了一种概况自动生成和优化AI模子架构的新框架(STAR,定制架构合成)。STAR 框架诈欺进化算法和数字编码系统来处置深度学习模子中均衡质料和后果的复杂挑战。

  凭证Liquid AI的询查团队(包括 Armin W. Thomas、Rom Parnichkun、Alexander Amini、Stefano Massaroli 和 Michael Poli)的说法,STAR的枢纽代表着传统建筑野心枢纽的转机。

  STAR不依赖于手动转换或预界说模板,而是使用分层编码手艺(称为“STAR 基因组”)来探索架构的广大野心空间。这些基因组救助重组和突变等迭代优化历程,使得STAR概况合成和雠校针对特定所在和硬件要求的架构。

  Liquid AI对STAR的当先暖热门是自追思言语建模,而传统的Transformer架构持久以来一直占据主导地位。

  在询查时间进行的测试中,Liquid AI询查团队展示了STAR生成架构的才气,其性能弥远优于高度优化的 Transformer++架构和搀杂模子。

  举例,在优化质料慈祥存大小时,STAR演化架构与搀杂模子比较竣事了高达37%的缓存大小减少,与Transformers比较则减少了90%。尽管后果有所晋升,但STAR生成的模子仍保握致使跳跃了同类模子的权衡性能。

  同样地,在优化模子质料和大小时,STAR将参数数目减少了多达13%,同期仍晋升了模范基准测试的性能。

  该询查还强调了STAR彭胀其野心的才气。STAR演化模子的参数从1.25亿彭胀到10亿,其收尾与现存的 Transformer++和搀杂模子很是致使更优,同期权贵裁减了推理缓存要求。

  Liquid AI暗示,STAR植根于一种交融了能源系统、信号处理和数值线性代数旨趣的野激情论。

  这种基础枢纽使团队概况为测度单位建立一个多功能的搜索空间,涵盖在意力机制、递归和卷积等组件。

  STAR的一大特点是其模块化,这使得该框架概况跨多个档次对架构进行编码和优化。此功能可深切了解调换出现的野心主题,并使询查东谈主员概况细目架构组件的有用组合。

  风险请示及免责条件

  阛阓有风险,投资需严慎。本文不组成个东谈主投资提出,也未讨论到个别用户独特的投资所在、财务景况或需要。用户应试虑本文中的任何想法、不雅点或论断是否适当其特定景况。据此投资,背负自夸。

海量资讯、精确解读,尽在新浪财经APP

背负剪辑:刘亮堂 体育游戏app平台