蚂蚁数科发布能源电力时序大模型 EnergyTS,预测精度超谷歌、亚马逊


蚂蚁数科在苏州举办的新能源数字资产社区春季峰会上,宣布正式推出能源电力时序大模型EnergyTS。

EnergyTS专为新能源行业定制,在光伏场景测评中,其发电量预测准确率显著超越谷歌(TimesFM-V2.0)和亚马逊(Chronos-Large)等国际主流通用时序模型。在T+1天预测中,模型的平均绝对误差仅为0.0233,较谷歌模型提升约22.4%;在T+3天预测中,性能提升更是达到46.8%。

EnergyTS通过AI技术,可精准预测发电量、电力供需情况,有效缓解电价波动、储能调度收益低等关联风险,为行业提供更智能的经营决策支持。

该模型具备多尺度训练、多模态融合、多任务学习和零样本冷启等优势,可广泛应用于光伏发电、风力发电、储能、微电网、电力交易等多个场景,实现"开箱即用"。

蚂蚁数科CEO赵闻飙表示,公司致力于解决各行业在AI时代的智能化转型问题,未来将在更多领域探索大模型技术与行业实际问题的结合。


相關推薦

2025-04-11

争。微软也计划利用 “三里岛” 核电站的新反应堆,而亚马逊则选择签约使用核电为其数据中心供电。 据 IEA 预测,若保持当前增长速度,到2030年,数据中心的电力消费将达到约945太瓦时(TWh),这相当于今天日本的总电力

2024-10-22

量可能会比没有开发生成式 AI 时高出三倍。 包括微软、亚马逊、谷歌和甲骨文在内的几家全球最大的数据中心运营商已宣布投资核能,以抵消其日益增长的不可再生能源消耗,但这些投资可能需要数年时间才能见效。 对生成

2025-05-20

的“AI概览”。 我们的确推出了独立的Gemini应用,并在发布 Gemini 2.5 Pro后显著提升了用户参与度和使用频率。近期,我们陆续推出了Deep Research、升级版 Canvas、音频概览(Audio Overviews),用户现在还可以在Gemini App中生成视频。

2025-05-31

币的电力消耗及其环境影响,并在他的网站 Digiconomist 上发布了相关数据。 目前,人工智能已经占据了数据中心电力消耗的高达五分之一。尽管这一数据难以精确确定,因为大型科技公司并未具体披露其人工智能模型所消耗的

2025-03-29

:       1. 集成AI算法实现负荷预测(预计Q2发布)       2. 扩展建筑能耗空调与空压机节能模块       3. 构建开发者生态,推出插件市场支持第三方功能扩展 ▶ 即刻行动      访问

2024-07-02

蚂蚁区块链科技(上海)有限公司发生工商变更,注册资本由1亿人民币增至15亿人民币。该公司成立于2018年12月,由蚂蚁链(上海)数字科技有限公司全资持股。 此前,蚂蚁链(上海)数字科技有限公司也完成了一轮增资,

2023-09-29

力行业人工智能创新平台及自主可控电力大模型正式公开发布。 电力行业人工智能创新平台提供模型即服务(MaaS),支持模型快速迭代开发,并支撑电力人工智能资源面向全社会开放共享。百度提供了昆仑芯AI芯片、飞桨框架

2025-04-15

蚂蚁集团副总裁、前基础大模型负责人徐鹏已离职。徐鹏一直从事人工智能领域技术研究,曾在谷歌工作11年,负责和领导了谷歌翻译的核心技术研发,并参与了谷歌显示广告系统的算法研发。 此前蚂蚁成立AI创新研发与应用部

2024-06-29

解和试用! 来源:github.com/greenplum-db PostgreSQL 17 Beta1 发布 5月23日,PostgreSQL 17 的首个 Beta 版本发布,在查询和写入性能、分区和分布式工作负载、开发者体验、安全功能、备份与导出管理以及监控等多个方面进行了改进与

2025-04-15

量子计算芯片 微软发布首款量子计算芯片“Majorana 1” 亚马逊发布首款量子计算芯片 “Ocelot”

2025-03-29

参加 NVDIA GTC 2025 RWKV 社区项目动态 RWKV 端侧 APP 发布并开源 新项目:WorldRWKV(RWKV 多模态) 新项目:RWKV-TTS(RWKV 文本转音频) RWKV 学术研究动态 RWKV 学术研究包括 基于 RWKV 架构的新论文 或 RWKV 社区参加的学术研

2025-03-25

彭博社援引知情人士报道称,蚂蚁集团使用中国制造的半导体开发训练人工智能模型的技术,可将成本降低20%。对此,蚂蚁方面回应称:蚂蚁针对不同芯片持续调优,以降低AI应用成本,目前取得了一定的进展,也会逐步通过开

2023-08-24

立于 2016 年,是一家开源模型库公司,其客户包括微软、亚马逊、IBM 等等。分析人士推算 Hugging Face 今年的 ARR 大致在 4000 万美金区间,与此前外界预测持平。 据悉,Hugging Face 当前托管了至少几十万个人工智能模型,包括流

2025-05-16

KV 缓存大小显著减少到每个 token 仅需 70 KB,远低于其他模型(如 Qwen-2.5 72B 的 327 KB 和 LLaMA-3.1 405B 的 516 KB)。这使得模型更适合处理长文本和资源受限的环境。 成本效益:MoE 架构允许在训练时仅激活部分参数,从而显著降低