最低调神秘的“阿里系”具身智能创企[ELU.AI],完成数亿元Pre-A轮融资!

部署运行你感兴趣的模型镜像

国内领先通用具身智能公司【ELU.AI】完成数亿元Pre-A轮融资

 2025年3月25日,通用具身智能技术研发公司[ELU.AI](原力无限机器人)宣布完成数亿元Pre-A轮融资,投资方包括力鼎资本、杭实产投、兴泰资本等,老股东创世伙伴创投追投。 

图片

至此,公司累计完成两轮融资,曾于2024年3月5日获创世伙伴创独投天使轮融资;随着最新一轮融资完成,将进一步巩固ELU.AI在具身智能、AI Agent和机器人大脑的核心竞争力;据官方介绍,本轮融资资金将重点用于三大方向:强化AI决策系统、推进下一代智能机器人研发和加速全球市场布局。

随着新一轮融资敲定,ELU.AI正式宣布品牌升级,作为全球领先的人工智能科技集团,ELU.AI聚焦AI智能机器人、行业AI Agent和类脑智能三大核心领域,旗下包括原力无限(INFIFORCE)、原力光年(LIGHTFORCE)、原力万象(UNIFORCE)三大子品牌,分别专注于智能机器人、行业AI应用和机器人大脑,构建全球领先的具身智能生态体系。

图片

ELU.AI品牌全面升级

ELU.AI由阿里巴巴前副总裁白惠源博士创立,她在人工智能、互联网、云计算等领域深耕多年,兼具深厚的技术研发能力与丰富的产业落地经验。作为一位极具科学家特质的企业家,在创立ELU.AI前已经拥有极其成功的创业经验,她提出“AI Agent EPOCH进化论”,系统性描绘了AI从涌现(Emergent)到和谐(Harmonious)的演进路径,并推动具身智能在多个核心行业的深度落地。

ELU.AI的核心团队汇聚全球顶尖AI科学家,硕博比例高达70%,成员来自清华、浙大、北航、哈工大、斯坦福等顶尖学府,并曾就职于阿里巴巴、华为、百度、腾讯、吉利、蔚来等科技巨头。团队在计算机视觉、深度学习、多模态大模型、机器人控制系统、VLA等前沿领域积累深厚,已申请核心技术专利100余项,构建了坚实的技术壁垒。

ELU.AI的技术实力已在实战中验证:自主研发的分布式多Agent协同决策系统响应速度提升87%神经符号混合推理引擎在不确定环境下的适应能力超行业平均3倍依托完整的全栈技术体系,ELU.AI构建软硬一体的具身智能架构,让AI智能体具备更强的感知、决策与执行能力,实现从数字世界到物理世界的深度融合,加速AI全面落地。

图片

“AI+机器人+Agent”的具身智能生态系统

公司介绍:

[ELU.AI]原力无限机器人)于2023年8月16日杭州注册成立,公司以具身智能为核心,聚焦AI智能机器人、行业AI Agent和类脑智能三大核心领域,旗下包括原力无限(INFIFORCE)、原力光年(LIGHTFORCE)、原力万象(UNIFORCE)三大子品牌,分别专注于智能机器人、行业AI应用和机器人大脑;其中,原力无限是技术与商业化落地的关键支点,而原力光年和原力万象则分别赋能具身智能的行业应用和大脑,共同构建完整的AI智能生态体系。

三大核心业务并驾齐驱,具身智能生态加速成型:

原力无限(INFIFORCE)领先的具身智能机器人品牌,依托“一脑多身”全栈自研技术,实现AI在物理世界的感知—决策—执行闭环。

图片

“一脑多身”具身智能产品矩阵

2024年10月,公司发布全球首创的智能全自动充电机器人FORCE-01,打通“自动驾驶、自动泊车、自动充电”全链路,推动自动驾驶商业化进程;当前,已在北京、广州等核心城市落地,服务于千家万户,与中石化、中国铁塔、万达集团、恒源能源等头部企业达成战略合作,同时已与国电投、国家能源、浙江能源、浙江省交投、山东高速、宁波城投等多家达成战略合作意向,并累计签约近亿元商业订单,展现了从技术突破到商业落地的强大转化能力。

原力光年:基于具身智能的行业应用需求,打造行业AI大模型,已在电力调度等领域落地,可提升电网调度效率32%,缩短故障响应时间47%。

图片

原力光年全栈自研行业大模型架构

原力万象:作为AI决策系统,集成了神经符号推理、因果推断、元学习等前沿技术,为具身智能提供更强的认知和自主决策能力,从而助力工业自动化、智能物流、智慧医疗等多种场景的落地。

ELU.AI创始人白惠源(博士)曾在TEDx2025的演讲中提到:“AI真正的价值在于与物理世界的深度融合,具身智能的崛起是AI从“云端”到“大地”的觉醒。原力无限的使命,是打造「会思考、善学习的机器人」,让具身智能不仅具备认知能力,更能通过具身智能实现自主行动、自我学习和自然交流,从而彻底改变智能体的存在形式,为人机共生的未来奠定基石。”

小编往期文章有提到大模型决定了人形机器人泛化能力,是现阶段人形机器人商业化核心壁垒;区别于其他具身智能机器人企业,[ELU.AI]在AI智能机器人、行业AI Agent和类脑智能三大领域全面布局,构建全球最强的具身智能基础设施旗下具身智能机器人品牌原力无限(INFIFORCE)依托“一脑多身”全栈自研技术累计签约近亿元商业订单

... ... ...

[ELU.AI]是具身智能大模型领域代表企业之一,接下里小编继续盘点具身智能大模型领域,全球初创公司(PI、Skild AI、Covariant、穹彻智能、若愚科技、X Square等)介绍及产品进展、全球科技巨头/大厂(谷歌、英伟达、微软、OpenAI、华为、阿里、腾讯、字节等)现阶段产品进展、人形机机器人本体厂家与科技巨头/大厂合作现状以及科技巨头入局人形机器人本体赛道现状。

... ... ...

本文内容仅展示一部分,更多详细解读,加入知识星球“机器人头条”,查看完整版文章:[原创]具身智能大模型赛道:科技巨头技术进展、初创公司盘点,第一款“机器人通用大脑”花落谁家(文字6W+)并深度了解“具身智能&人形机器人”赛道

您可能感兴趣的与本文相关的镜像

PyTorch 2.9

PyTorch 2.9

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

--------------------------------------------------------------------------- ModuleNotFoundError Traceback (most recent call last) Cell In[1], line 1 ----> 1 from keras.datasets import imdb 3 # 加载IMDB数据集(保留常见的20,000词) 4 max_features = 20000 File A:\anaconda\Lib\site-packages\keras\__init__.py:7 1 """DO NOT EDIT. 2 3 This file was autogenerated. Do not edit it by hand, 4 since your modifications would be overwritten. 5 """ ----> 7 from keras import _tf_keras as _tf_keras 8 from keras import activations as activations 9 from keras import applications as applications File A:\anaconda\Lib\site-packages\keras\_tf_keras\__init__.py:1 ----> 1 from keras._tf_keras import keras File A:\anaconda\Lib\site-packages\keras\_tf_keras\keras\__init__.py:7 1 """DO NOT EDIT. 2 3 This file was autogenerated. Do not edit it by hand, 4 since your modifications would be overwritten. 5 """ ----> 7 from keras import activations as activations 8 from keras import applications as applications 9 from keras import callbacks as callbacks File A:\anaconda\Lib\site-packages\keras\activations\__init__.py:7 1 """DO NOT EDIT. 2 3 This file was autogenerated. Do not edit it by hand, 4 since your modifications would be overwritten. 5 """ ----> 7 from keras.src.activations import deserialize as deserialize 8 from keras.src.activations import get as get 9 from keras.src.activations import serialize as serialize File A:\anaconda\Lib\site-packages\keras\src\__init__.py:1 ----> 1 from keras.src import activations 2 from keras.src import applications 3 from keras.src import backend File A:\anaconda\Lib\site-packages\keras\src\activations\__init__.py:3 1 import types ----> 3 from keras.src.activations.activations import celu 4 from keras.src.activations.activations import elu 5 from keras.src.activations.activations import exponential File A:\anaconda\Lib\site-packages\keras\src\activations\activations.py:1 ----> 1 from keras.src import backend 2 from keras.src import ops 3 from keras.src.api_export import keras_export File A:\anaconda\Lib\site-packages\keras\src\backend\__init__.py:10 7 import torch 9 from keras.src.api_export import keras_export ---> 10 from keras.src.backend.common.dtypes import result_type 11 from keras.src.backend.common.keras_tensor import KerasTensor 12 from keras.src.backend.common.keras_tensor import any_symbolic_tensors File A:\anaconda\Lib\site-packages\keras\src\backend\common\__init__.py:2 1 from keras.src.backend.common import backend_utils ----> 2 from keras.src.backend.common.dtypes import result_type 3 from keras.src.backend.common.variables import AutocastScope 4 from keras.src.backend.common.variables import Variable as KerasVariable File A:\anaconda\Lib\site-packages\keras\src\backend\common\dtypes.py:5 3 from keras.src.api_export import keras_export 4 from keras.src.backend import config ----> 5 from keras.src.backend.common.variables import standardize_dtype 7 BOOL_TYPES = ("bool",) 8 INT_TYPES = ( 9 "uint8", 10 "uint16", (...) 16 "int64", 17 ) File A:\anaconda\Lib\site-packages\keras\src\backend\common\variables.py:11 9 from keras.src.backend.common.stateless_scope import get_stateless_scope 10 from keras.src.backend.common.stateless_scope import in_stateless_scope ---> 11 from keras.src.utils.module_utils import tensorflow as tf 12 from keras.src.utils.naming import auto_name 15 class Variable: File A:\anaconda\Lib\site-packages\keras\src\utils\__init__.py:1 ----> 1 from keras.src.utils.audio_dataset_utils import audio_dataset_from_directory 2 from keras.src.utils.dataset_utils import split_dataset 3 from keras.src.utils.file_utils import get_file File A:\anaconda\Lib\site-packages\keras\src\utils\audio_dataset_utils.py:4 1 import numpy as np 3 from keras.src.api_export import keras_export ----> 4 from keras.src.utils import dataset_utils 5 from keras.src.utils.module_utils import tensorflow as tf 6 from keras.src.utils.module_utils import tensorflow_io as tfio File A:\anaconda\Lib\site-packages\keras\src\utils\dataset_utils.py:9 5 from multiprocessing.pool import ThreadPool 7 import numpy as np ----> 9 from keras.src import tree 10 from keras.src.api_export import keras_export 11 from keras.src.utils import io_utils File A:\anaconda\Lib\site-packages\keras\src\tree\__init__.py:1 ----> 1 from keras.src.tree.tree_api import assert_same_paths 2 from keras.src.tree.tree_api import assert_same_structure 3 from keras.src.tree.tree_api import flatten File A:\anaconda\Lib\site-packages\keras\src\tree\tree_api.py:8 5 from keras.src.utils.module_utils import optree 7 if optree.available: ----> 8 from keras.src.tree import optree_impl as tree_impl 9 elif dmtree.available: 10 from keras.src.tree import dmtree_impl as tree_impl File A:\anaconda\Lib\site-packages\keras\src\tree\optree_impl.py:13 11 # Register backend-specific node classes 12 if backend() == "tensorflow": ---> 13 from tensorflow.python.trackable.data_structures import ListWrapper 14 from tensorflow.python.trackable.data_structures import _DictWrapper 16 try: File A:\anaconda\Lib\site-packages\tensorflow\__init__.py:55 53 from tensorflow._api.v2 import autograph 54 from tensorflow._api.v2 import bitwise ---> 55 from tensorflow._api.v2 import compat 56 from tensorflow._api.v2 import config 57 from tensorflow._api.v2 import data File A:\anaconda\Lib\site-packages\tensorflow\_api\v2\compat\__init__.py:8 3 """Public API for tf._api.v2.compat namespace 4 """ 6 import sys as _sys ----> 8 from tensorflow._api.v2.compat import v1 9 from tensorflow._api.v2.compat import v2 10 from tensorflow.python.compat.compat import forward_compatibility_horizon # line: 125 File A:\anaconda\Lib\site-packages\tensorflow\_api\v2\compat\v1\__init__.py:30 28 from tensorflow._api.v2.compat.v1 import autograph 29 from tensorflow._api.v2.compat.v1 import bitwise ---> 30 from tensorflow._api.v2.compat.v1 import compat 31 from tensorflow._api.v2.compat.v1 import config 32 from tensorflow._api.v2.compat.v1 import data File A:\anaconda\Lib\site-packages\tensorflow\_api\v2\compat\v1\compat\__init__.py:8 3 """Public API for tf._api.v2.compat namespace 4 """ 6 import sys as _sys ----> 8 from tensorflow._api.v2.compat.v1.compat import v1 9 from tensorflow._api.v2.compat.v1.compat import v2 10 from tensorflow.python.compat.compat import forward_compatibility_horizon # line: 125 File A:\anaconda\Lib\site-packages\tensorflow\_api\v2\compat\v1\compat\v1\__init__.py:32 30 from tensorflow._api.v2.compat.v1 import compat 31 from tensorflow._api.v2.compat.v1 import config ---> 32 from tensorflow._api.v2.compat.v1 import data 33 from tensorflow._api.v2.compat.v1 import debugging 34 from tensorflow._api.v2.compat.v1 import distribute File A:\anaconda\Lib\site-packages\tensorflow\_api\v2\compat\v1\data\__init__.py:8 3 """Public API for tf._api.v2.data namespace 4 """ 6 import sys as _sys ----> 8 from tensorflow._api.v2.compat.v1.data import experimental 9 from tensorflow.python.data.ops.dataset_ops import AUTOTUNE # line: 103 10 from tensorflow.python.data.ops.dataset_ops import DatasetV1 as Dataset # line: 3710 File A:\anaconda\Lib\site-packages\tensorflow\_api\v2\compat\v1\data\experimental\__init__.py:32 30 from tensorflow.python.data.experimental.ops.interleave_ops import parallel_interleave # line: 29 31 from tensorflow.python.data.experimental.ops.interleave_ops import sample_from_datasets_v1 as sample_from_datasets # line: 158 ---> 32 from tensorflow.python.data.experimental.ops.iterator_model_ops import get_model_proto # line: 25 33 from tensorflow.python.data.experimental.ops.iterator_ops import make_saveable_from_iterator # line: 38 34 from tensorflow.python.data.experimental.ops.lookup_ops import DatasetInitializer # line: 54 ModuleNotFoundError: No module named 'tensorflow.python.data.experimental.ops.iterator_model_ops' 运行加载Keras中的IMDB数据集的代码报错
06-05
<think>我们面对的问题是:在JupyterNotebook中导入Keras的IMDB数据集时,出现了ModuleNotFoundError,提示缺少'tensorflow.python.data.experimental.ops.iterator_model_ops'模块。根据引用[1]中的信息,类似ModuleNotFoundError的问题通常是由于环境配置不正确或库版本不兼容引起的。此外,引用[2]和[4]涉及到tensorflow内部模块的路径,这暗示可能是TensorFlow版本问题。解决方案:1.首先确保已正确安装TensorFlow和Keras。考虑到IMDB数据集是Keras内置的,我们通常通过`keras.datasets.imdb`加载,但现在的TensorFlow(>=2.0)通常将Keras集成在`tf.keras`中。2.因此,建议使用TensorFlow2.x中的`tf.keras`来加载数据集,而不是使用独立的Keras库(因为独立Keras库与TensorFlow的版本可能存在兼容性问题)。3.如果已经使用独立Keras库安装,且出现此错误,可能需要升级TensorFlow版本,或者使用`tf.keras`代替独立的Keras。具体步骤:步骤1:检查TensorFlow版本并升级在JupyterNotebook中运行以下代码来检查TensorFlow版本:```pythonimporttensorflowastfprint(tf.__version__)```如果版本低于2.0,则需要升级。在Notebook中可以使用以下命令升级(注意:升级后可能需要重启内核):```python!pipinstall--upgradetensorflow```或者,如果你使用GPU版本,则升级tensorflow-gpu。步骤2:使用tf.keras加载数据集修改导入语句,使用TensorFlow内部的Keras模块:```pythonfromtensorflow.keras.datasetsimportimdb```如果问题仍然存在,可能是由于TensorFlow的安装不完整或损坏。这时可以尝试重新安装TensorFlow。步骤3:重新安装TensorFlow在Notebook中运行:```python!pipuninstalltensorflow!pipinstalltensorflow```如果使用GPU,则安装tensorflow-gpu。步骤4:验证问题是否解决再次尝试加载数据集:```python(X_train,y_train),(X_test,y_test)=imdb.load_data(num_words=10000)```另外,根据引用[5],TFRecord是TensorFlow中一种高效的数据存储格式,但我们的问题并不涉及,所以可以忽略。如果以上步骤不能解决问题,考虑可能是环境问题,可以尝试建新的虚拟环境并安装TensorFlow。相关问题:1.如何在不同版本的TensorFlow中使用Keras?2.在使用tf.keras时遇到兼容性问题怎么办?3.如何安装特定版本的TensorFlow以避免兼容性错误?</think> ### 解决Jupyter Notebook中Keras加载IMDB数据集的ModuleNotFoundError错误 这个错误通常是由TensorFlow版本不兼容或环境配置问题引起的。以下是逐步解决方案: --- #### 步骤1:验证TensorFlow安装情况 在Jupyter Notebook单元格中运行: ```python import tensorflow as tf print(tf.__version__) ``` * 预期输出:`2.x.x`版本 * 若报错`ModuleNotFoundError`,需要安装TensorFlow --- #### 步骤2:正确安装TensorFlow 在Jupyter Notebook中运行: ```ipython # 安装新稳定版TensorFlow !pip install --upgrade tensorflow # 或者安装指定版本(推荐2.6+) !pip install tensorflow==2.9.1 ``` --- #### 步骤3:改用tf.keras加载数据集 错误原因:`keras.datasets.imdb`在TensorFlow 2.x中已被集成到`tf.keras`命名空间: ```python from tensorflow.keras.datasets import imdb # 正确导入方式 # 加载数据集(替代旧版keras.datasets.imdb) (X_train, y_train), (X_test, y_test) = imdb.load_data(num_words=10000) ``` --- #### 步骤4:验证安装和导入 ```python import tensorflow as tf from tensorflow.keras.datasets import imdb # 测试加载数据 (X_train, y_train), (X_test, y_test) = imdb.load_data(num_words=10000) print(f"训练样本: {len(X_train)},测试样本: {len(X_test)}") ``` 预期输出: ``` 训练样本: 25000,测试样本: 25000 ``` --- #### 步骤5:环境检查与配置建议 1. **Python版本要求**: - TensorFlow 2.x需要Python 3.7-3.10 - 检查版本:`!python --version` 2. **虚拟环境建**: ```ipython !pip install virtualenv !virtualenv tf_env !source tf_env/bin/activate # Linux/Mac # 或 !tf_env\Scripts\activate # Windows ``` 3. **依赖冲突解决**: ```ipython !pip install --upgrade numpy pandas h5py # 常见兼容依赖 ``` --- #### 错误原因分析 1. `iterator_model_ops`是TensorFlow内部模块,错误通常由: - TensorFlow版本<2.0 (引用[1]) - 混用独立Keras库和tf.keras (引用[2]) - 依赖版本冲突 (引用[3]) 2. **佳实践**: ```python # 推荐使用tf.keras统一API from tensorflow.keras import layers, models from tensorflow.keras.datasets import imdb ``` ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值