欢迎来到 PaperHub!这是 Lab4AI 社区的论文复现库,致力于提供高质量的论文复现。
我们热烈欢迎每一位对AI充满热情的你,加入我们的论文复现贡献者行列!我们为您设计了一套清晰的贡献路径,并准备了丰厚的算力奖励,期待您的参与能点亮社区。
【关于提交流程的重要说明】:我们正在持续优化贡献者体验,未来将上线平台内的一站式创作与提交功能。在此之前,请暂时按照以下流程进行成果提交。
|
|
前置要求:请先为本项目点亮一颗 Star ⭐!
|
|
|
申请通过后,您将获得启动算力。请根据《复现者指南》中的文件结构要求,在您自己的Lab4AI平台工作空间内开始复现。 |
|
|
复现完成后,请按照《成果提交说明》,准备好所有材料,特别是填写完整的《论文上架信息表》。
|
|
|
审核通过后,您的成果将被官方收录和展示,同时您将根据《创作者激励计划》获得丰厚奖励! |
在开始您的贡献之旅前,请务必仔细阅读以下核心指南,并下载所需的表格模板。所有详细信息和申请入口都在这里。
|
行动手册(SOP):详细介绍从申请到提交的每一步。 |
交付物清单:清晰列出您需要准备的文件和信息。 |
|
选题准则:定义了一篇论文是否值得被复现的前置条件。 |
权益手册:详细说明不同贡献所能获得的丰厚算力奖励。 |
我们已经筛选并整理了一份详细的待复现论文清单。这不仅是我们的工作计划,更是我们邀请您参与共建的蓝图。
| 论文名称 & 作者 | 会议来源 & 年份 | 论文链接 | 前往平台体验 |
|---|---|---|---|
| Attention Is All You Need Ashish Vaswani, et al. |
NeurIPS 2017 | 📄 arXiv | ➡️ 立即体验 |
| Can We Get Rid of Handcrafted Feature Extractors? Lei Su, et al. |
AAAI 2025 | 📄 arXiv | ➡️ 立即体验 |
| MOMENT: A Family of Open Time-series Foundation Models Mononito Goswami, et al. |
ICML 2025 | 📄 arXiv | ➡️ 立即体验 |
| Automatic Prompt Augmentation and Selection with Chain-of-Thought from Labeled Data Kashun Shum,et al. |
EMNLP 2023 | 📄 arXiv | ➡️ 立即体验 |
| Chronos: Learning the Language of Time Series Abdul Fatir Ansari, et al. |
other 2024 | 📄 arXiv | ➡️ 立即体验 |
| Generative Photography: Scene-Consistent Camera Control for Realistic Text-to-Image Synthesis Yu Yuan, et al. |
CVPR 2025 | 📄 arXiv | ➡️ 立即体验 |
| PhotoDoodle: Learning Artistic Image Editing from Few-Shot Pairwise Data Shijie Huang, et al. |
ICCV 2025 | 📄 arXiv | ➡️ 立即体验 |
| Self-Instruct: Aligning Language Models with Self-Generated Instructions Yizhong Wang, et al. |
ACL 2023 | 📄 arXiv | ➡️ 立即体验 |
| RobustSAM: Segment Anything Robustly on Degraded Images Wei-Ting Chen, et al. |
CVPR 2024 | 📄 arXiv | ➡️ 立即体验 |
| Side Adapter Network for Open-Vocabulary Semantic Segmentation Mengde Xu, et al. |
CVPR 2023 | 📄 arXiv | ➡️ 立即体验 |
| Improving day-ahead Solar Irradiance Time Series Forecasting by Leveraging Spatio-Temporal Context Oussama Boussif, et al. |
NIPS 2023 | 📄 arXiv | ➡️ 立即体验 |
| Lag-Llama: Towards Foundation Models for Probabilistic Time Series Forecasting Kashif Rasul, et al. |
other 2023 | 📄 arXiv | ➡️ 立即体验 |
| CoTracker3: Simpler and Better Point Tracking by Pseudo-Labelling Real Videos Lei Nikita Karaev, et al. |
CVPR 2024 | 📄 arXiv | ➡️ 立即体验 |
| Unified Training of Universal Time Series Forecasting Transformers Gerald Woo, et al. |
ICML 2024 | 📄 arXiv | ➡️ 立即体验 |
| A decoder-only foundation model for time-series forecasting Abhimanyu Das, et al. |
ICML 2024 | 📄 arXiv | ➡️ 立即体验 |
| Timer: Generative Pre-trained Transformers Are Large Time Series Models Yong Liu, et al. |
ICML 2024 | 📄 arXiv | ➡️ 立即体验 |
| LamRA: Large Multimodal Model as Your Advanced Retrieval Assistant Yikun Liu, et al. |
other 2024 | 📄 arXiv | ➡️ 立即体验 |
想要体验更多前沿论文的一键复现与在线开发?请访问我们的官方平台: