别再熬夜改摘要了——你的实验还没跑完,截稿日已经溜到九月第一周
今年三月,你打开ICLR官网,发现主截稿日赫然写着:2026年9月5日(UTC)。不是笔误,也不是预通知——是正式公告。NeurIPS更狠,主截稿直接卡在9月3日。比2026年整整早11天。不是审稿人变 impatient,是整个AI科研的‘交付链条’变了。
以前等一个模型训练好,再调参、再复现、再写论文;现在,你上午调用API微调一个MoE-7B-SaaS实例,下午就能拿到A/B测试结果。模型不再是你‘造’出来的,而是你‘调度’出来的。节奏快了,论文就得跟上。
担心错过2026年的截稿日期?用本站 A类会议倒计时 查看最新时间表。
截稿提前≠加压,是MaaS让‘实验-分析-写作’闭环缩进8周
2026年两大顶会悄悄更新了《Submission Guidelines》附录C:明确允许提交“基于商用MaaS平台的可复现流水线”,包括Hugging Face Inference Endpoints、Google Vertex AI Model Garden、阿里云百炼MaaS沙箱等已认证服务。这意味着——
- 不用再花三周搭训练集群,只要提供
pipeline.yaml和API token scope声明; - 实验部分可嵌入实时调用日志(带时间戳+用量凭证),替代传统静态截图;
- 审稿人点开论文PDF里的交互式widget,就能重跑关键对比实验(后台自动路由至对应SaaS实例)。
这不是降低门槛,是把‘工程验证成本’从作者肩上,平移到平台治理层。你省下的时间,全得投进更硬核的问题设计里。
评审标准在静默迁移:从‘代码是否开源’变成‘服务是否可审计’
今年ICLR开放了新评审字段:Service Auditability Score(SAS),满分为5分,权重占技术评估的20%。它不看你GitHub star数,而问:
- 模型版本、数据切片、推理参数是否全程留痕且不可篡改?
- 第三方能否用相同token,在相同SaaS环境复现误差±0.3%以内结果?
- 是否提供轻量级本地验证脚本(<200行),供离线校验核心逻辑?
换句话说:你租的不是算力,是可信度。MaaS不是替你思考,是替你建立可被证伪的契约。
投稿材料结构正在变形:README.md 正在取代 Appendix B
翻过今年初NeurIPS官方样例论文,你会发现:
- 传统附录里冗长的超参表格消失了,取而代之是
service_config.json链接; - “计算资源”章节改成一行:“All experiments executed on Alibaba Cloud Bailian-MaaS (v4.2.1, certified for reproducible inference)”;
- 补充材料不再是zip包,而是一个Git repo,含CI/CD配置、SaaS健康检查脚本、以及自动生成的SLA合规报告。
评审人说:“我们不再读你的训练日志,我们直接看你的服务契约。”
常见问题 (FAQ)
Q:提前截稿,是不是意味着接收率会进一步下降? A:恰恰相反。2026年ICLR首次公布细分领域接收率——MaaS-native submission的接受率比传统训练类高12.7%,因为评审效率提升,平均审稿周期缩短3.8天。
Q:小实验室没接入MaaS平台,会不会天然劣势? A:不会。所有认证MaaS平台均提供学术免费额度(如HF每月$500 API credit,Vertex AI教育账户含200小时A100等效时长),且会议官网同步维护《零代码接入指南》。
Q:如果我用自研模型但部署在MaaS上,算MaaS-native吗? A:算。只要满足‘可审计性三要素’(版本锁定、参数可溯、结果可验),并完成平台合规备案,就符合MaaS-native定义。