“行业观察者”是我们针对人工智能、XR、元宇宙和 Web3 等前沿科技而设立的专栏,主要分享这些领域中的新兴企业或者创业者们的故事。这家公司成立不到两年便完成了 2.5 亿美元的 A 轮融资,现估值超 20 亿美元,其首个生成式 AI 模型甚至一度超越传统的 Transformer 大模型。以下是我们的第 43 期内容,以下 Enjoy。
近年来,Transformer 架构已成为引领生成式 AI 进步的核心力量,并推动了 ChatGPT、Sora、Gemini 等大语言模型的成功。然而,随着模型体积的不断膨胀,计算数据也随之变得庞大起来,这导致训练成本急剧上升。此外,传统的 Transformer 模型在长序列建模、实时响应需求及设备部署的灵活性上也暴露出了明显短板。为了解决现有模型在长序列处理、高计算成本等方面的局限性,创始团队于 2023 年成立了 Liquid AI。
最近,Liquid AI 完成了由芯片制造商超微半导体公司(AMD)领投的 2.5 亿美元融资,这笔资金将用来扩展其计算基础设施并加快边缘和本地产品的准备。Liquid AI 专注于为企业和开发者提供数据分析和决策的 AI 解决方案。
- 联合创始人:Daniela Rus,MIT CSAIL 主任
- 2023 年 5 月 5 日,完成了由 OSS Capital L.P.领投的 560 万美元种子轮融资;
- 2023 年 12 月 1 日,完成了由 OSS Capital L.P.、Stephen Pagliuca、The Pags Group 领投的 3760 万美元的种子轮融资;
- 2024 年 12 月 13 日,完成了由 AMD Ventures 领投的 2.5 亿美元的 A 轮融资。
Liquid AI 创始团队的四名成员来自麻省理工学院(MIT)计算机科学与人工智能实验室(CSAIL)。其中,Daniela Rus 是 CSAIL 的主任,Ramin Hasani 在加入 MIT CSAIL 之前曾是先锋集团的首席人工智能科学家,均有着丰富的科研和行业经验。Liquid AI 的成立初衷是通过创新的 AI 技术,为企业提供高效、可解释且适应性强的 AI 解决方案,推动 AI 技术在各个行业的广泛应用。
凭借其核心技术液态神经网络(LNN)和基于 LNN 的液体基础模型(LFM),Liquid AI 在 AI 领域具有强大的竞争力。LFM 系列包括 LFM-1.3B、LFM-3B 和 LFM-40.3B 三个不同的版本,它们的共同特点是高效、低内存占用,并在多个基准测试中超越了同等规模的 Transformer 模型。
Liquid AI 的成功也离不开其独特的商业模式。
公司致力于为企业提供定制化的 AI 解决方案,可以帮助企业根据自身需求选择适合的 LFM 模型版本。这种灵活的商业模式使其能够更好地满足不同行业和企业的多样化需求。
同时,LFM 模型在资源受限的环境中表现出色,能够显著降低企业的计算成本和对云计算资源的依赖,这对于许多中小企业和初创公司来说具有很大的吸引力。
因此,该公司凭借其创新的技术、高效的性能和灵活的商业模式,成功与 NVIDIA、AMD、Apple、Qualcomm 和 Cerebras 等多家硬件制造商合作,以优化其模型的硬件部署。
液态神经网络(LNN,Liquid Neural Network)是一种时间连续的递归神经网络(RNN),能够按顺序处理数据,保留过去输入的记忆,并根据新输入调整其行为。
其灵感来源于秀丽隐杆线虫的神经系统,该生物虽然只有 302 个神经元,但具备了感知、觅食等复杂的智能行为。Liquid AI 的研究人员通过模拟这种线虫神经系统中相互连接的电信号,来预测网络随时间的行为。
LNN 通过引入创新的动态权重更新机制以及基于非线性微分方程的连续时间建模策略,成功地打破了传统 Transformer 模型的固有局限,展现了其在处理复杂任务时的显著优势。
在传统 Transformer 架构中,一旦模型完成训练,其权重便被固定下来,这意味着模型在处理后续数据时,其适应性受到了一定程度的限制。它难以根据数据的变化实时调整内部结构,从而在处理那些动态性强、模式多变的数据集时可能会遇到挑战。相比之下,LNN 则展现出了更高的灵活性和适应性。它能够根据输入数据的实时特征动态地调整网络参数,这种能力使得 LNN 在面对复杂多变的数据环境时能够表现得更加出色和稳健。无论是数据的分布变化还是特征模式的转换,LNN 都能迅速响应并作出相应的调整,从而确保模型始终能够保持较高的预测准确性和泛化能力。此外,LNN 还巧妙地融入了基于非线性微分方程的神经建模方法。这种方法通过模拟神经元的连续时间动态行为,为模型赋予了捕捉更加细腻和复杂特征的能力。它不仅能够帮助 LNN 有效地捕捉短期内的数据特征变化,还能够在长序列建模中展现出卓越的性能。这意味着 LNN 在处理那些需要长期记忆和复杂模式识别的任务时,能够比传统 Transformer 模型表现得更加优异。
Liquid AI 基于 LNN 技术开发了液体基础模型(LFM,Liquid Foundation Models),旨在处理各种类型的顺序数据,包括视频、音频、文本、时间序列和信号。
LFM 的非 Transformer 架构使得其在内容使用和计算效率方面表现出色。
近年来,边缘人工智能(Edge AI)技术日益受到业界的广泛关注。
其独特优势在于能够依托安装在设备上的计算能力,即时处理来自摄像头、物联网传感器等边缘设备的数据。通过将 AI 算法部署至设备附近,边缘 AI 实现了实时数据分析与决策,有效降低了与远程服务器的通信开销。
这一技术潜力巨大,有望在自动驾驶的地面及空中交通工具、店内顾客行为分析的摄像头监控、以及工厂生产线的异常检测等多个领域发挥重要作用。
伊藤忠テクノソリューションズ株式会社(CTC)是位于日本领先信息技术服务的总部,将利用 Liquid AI 的机器学习技术开发边缘 AI 解决方案,在边缘端实时处理海量数据,以实现地面与空中交通工具的稳健自主导航。
值得注意的是,Liquid AI 的 LNN 凭借其卓越的灵活性与适应性,能够在未知环境及面对未预见情况时表现出色,尤其适用于无人机和自动驾驶车辆的自主导航。
相较于传统大型神经网络模型(往往需要数百万个参数以处理高维视觉数据),LNN 仅需少至 1 至 3 个数量级的参数即可完成同等任务。
其小巧的体积与高效的算法使得 LNN 能够在靠近用户的边缘设备或小型计算机上流畅运行,从而大幅降低 AI 基础设施的成本,同时减少能源消耗与二氧化碳排放。
此次合作是 CTC 于 2023 年 4 月启动的北美合作伙伴计划(NAPP)的一部分,该计划旨在加强与海外初创企业的合作关系,共同探索创新机遇。
展望未来,Liquid AI 将继续与 CTC 等企业进行深化合作,不仅进行 LNN 技术的概念验证(PoC),还将探索数据分析、电力节约以支持大型 AI 系统运行等服务的技术验证,共同推动边缘 AI 技术的边界,引领行业前行。1.https://finance.yahoo.com/news/liquid-ai-secures-250m-funding-125412813.html2.https://pulse2.com/liquid-ai-250-million-series-a-raised-for-scaling-capable-general-purpose-ai/【声明】:未经允许严禁转载,如需转载请联系我们,文章版权和最终解释权归元宇宙之心所有。 最新行业深度研究报告发放中! 资本实验室全新发布 37 页量化报告《 2023 全球区块链应用市场暨产业图谱报告(2023) 》,收录 1000+ 应用案例 ,探索区块链应用趋势 , 入群即可免费领取 。
OpenAI 首席执行官最新博文:第一批 AI 代理将在 2025 年“加入劳动力大军”
谷歌前 CEO 创立的 AI 量子公司估值已达 56 亿美元,Meta 首席科学家 Yann LeCun 力挺
2025 年塑造未来的 12 个预测:人类将迈向超级人工智能