
IEEE Transactions on Image Processing(简称《TIP》)是图像处理与计算机视觉领域的期刊,聚焦图像与视频处理、分析、增强、压缩及相关算法,涵盖深度学习、图像分割、目标检测、图像重建及3D视觉,读者群为信号处理专家、计算机视觉研究者及图像处理工程师。
IEEE推荐AJE的论文润色等服务,您在向IEEE旗下期刊提交稿件时,可以将AJE的润色证明一并提交给期刊。

期刊主页:https://ieeexplore.ieee.org/xpl/topics.jsp?punumber=83
期刊简介
《TIP》由IEEE Signal Processing Society主办,创刊于1992年,致力于发表图像处理与计算机视觉领域的高质量研究,主题包括图像增强、压缩、分割、特征提取、目标检测与跟踪、视频处理、深度学习及3D重建。文章需具创新性、科学严谨性及对图像处理算法或应用的实际价值,适合信号处理、计算机视觉及人工智能领域的专业人士。期刊采用严格的同行评审,初审平均8-12周(官网数据)。作为混合出版期刊,作者可选择传统订阅模式或开放获取(OA)。
期刊相关信息:
- 影响因子:13.7(2024年)
- 中科院分区:1区(工程技术-工程:电子与电气;计算机:人工智能)
- 出版费用:开放获取费用(APC)为2,645美元(2025年IEEE标准,官网数据);订阅模式无APC。
- 出版频率:月刊(每年12期)。
投稿注意事项
- 文章长度:建议8-12页(双栏),含图表和参考文献;超过12页需支付超页费(220美元/页)。
- Cover letter:需提交,说明研究的创新性、技术贡献及适合《TIP》的理由,突出对图像处理算法或应用的理论或实践贡献。
- 初始投稿格式:需使用IEEE双栏模板(Word或LaTeX),初稿提交PDF,图表嵌入正文。
- 数据可用性:鼓励公开数据,建议存放在IEEE DataPort或公共存储库(如figshare、Zenodo)并提供DOI。
- 代码可用性:涉及算法或模型的需提供代码(如GitHub链接)或补充材料,强烈建议开源以便复现。
- 预印本政策:接受在arXiv等预印本服务器发布的稿件,需在投稿时声明。
- 审稿周期:初审约8-12周,采用单盲评审,至少三位审稿人。
- 出版费用减免:开放获取文章的无资助研究可申请APC减免,投稿后联系IEEE出版办公室(openaccess@ieee.org)。
- 开放获取选项:作者可选择开放获取(需支付APC)或订阅模式(无APC)。
- 彩图费用:订阅模式下,彩图每页175美元;开放获取文章无彩图费用。
- 投稿限制:允许一轮主要修订和一轮次要修订,拒绝后需编辑许可方可重新提交。
- 语言润色:建议使用IEEE推荐的AJE(American Journal Experts)服务,润色证明可随稿件提交。
- 扩展论文:如基于会议论文扩展,需新增至少30%内容,并提交原会议论文供审查。
- 伦理要求:涉及人类数据的需提供伦理委员会批准编号,遵循《赫尔辛基宣言》。
文章类型
《TIP》主要发表以下类型文章:
- Regular Paper:完整研究文章(8-12页),报告图像处理与计算机视觉的原创研究。
- Short Paper:简短研究报告(≤6页),聚焦新颖算法或初步结果。
- Survey Paper:综述某一专题(8-12页),需具广泛参考价值,通常由编辑邀请。
- Comment:对已发表文章的评论或更正(≤2页),需编辑批准。
- Correction:更正已发表文章,需编辑批准。
投稿需通过Manuscript Central提交,Survey Paper需先联系编辑(tip-eic@ieee.org)。
文章结构
一篇典型的Regular Paper包括以下部分,每部分附简短英文示例:
- 标题:简洁、描述性,突出图像处理主题,最大15字。
示例:
Deep Learning Image Enhancement - 作者信息:列出所有作者的姓名、单位、电子邮件及ORCID。
示例:
Department of Computer Science, University of Toronto, Toronto, ON, Canada
Wei Zhang, Sarah Liu
Vision Lab, ETH Zurich, Zurich, Switzerland
Hans Müller - 贡献声明:明确每位共同作者的贡献,遵循IEEE标准。
示例:
W.Z. developed the algorithm; S.L. conducted experiments; H.M. wrote the manuscript. - 通信作者:指定通信作者,提供电子邮件及ORCID。
示例:
Correspondence to: Hans Müller (hans.mueller@ethz.ch) - 摘要:概述研究背景、方法、结果和意义,最大250字,无参考文献。
示例:
A deep learning model improves image contrast by 30%. Tests on 1000 images show 95% quality gain. Code at GitHub (https://github.com/ImageEnhance). Data at Zenodo (10.5281/zenodo.123456). This advances visual analysis. - 关键词:提供3-8个关键词,便于检索。
示例:
deep learning, image enhancement, computer vision, image quality - 引言:介绍研究背景、问题及目标,需包含参考文献。
示例:
Image enhancement is critical for vision tasks [1]. Current methods lack robustness [2]. This paper proposes a deep learning model. - 正文:分节描述方法、实验、结果和讨论,使用子标题。
示例:
Model Architecture
The model uses a CNN with attention (figure 1) [3]. - 结论:总结关键发现,提出应用或未来方向。
示例:
Conclusion
The model boosts image quality. Future work will address video processing. - 参考文献:列出所有引用文献(详见第6节)。
示例:
[1] J. Doe et al., “Image processing trends,” IEEE Trans. Image Process., vol. 33, no. 5, pp. 123-134, May 2024. - 致谢(可选):感谢资助机构或个人,包含资助编号。
示例:
Funded by NSERC grant RGPIN-123456. We thank the Toronto Vision Lab. - 作者简介:简述作者背景、教育经历及研究兴趣,附照片(可选)。
示例:
Wei Zhang received the Ph.D. degree from Toronto in 2022. His research focuses on computer vision. - 伦理声明:包括利益冲突声明及伦理合规(如适用)。
示例:
Competing interests: The authors declare no competing interests.
Ethics approval: Approved by UofT IRB (IRB-123456). - 数据可用性:提供数据存储库名称和访问编号。
示例:
Data at Zenodo: https://doi.org/10.5281/zenodo.123456 - 补充材料(可选):提供额外数据、代码或视频。
示例:
Supplementary Video S1: Enhancement demo.
Supplementary Data S1: Test datasets.
格式要求
《TIP》要求初稿使用IEEE双栏模板(Word or LaTeX),建议8-12页,修订稿需符合出版规范。以下是具体要求:
字体和字号
- 正文:Times New Roman,10号字,单倍行距。
- 一级标题:粗体,11号字,首字母大写。
- 二级标题:粗体,10号字,首字母大写。
- 图表标题:粗体,8号字。
页面布局
- 使用 A4或Letter纸张,双栏排版。
- 页边距:上2.5厘米,下1.9厘米,左右1.6厘米。
- 行距:单倍行距,段前段后0点间距。
图表格式
- 图表嵌入正文,初稿为PDF,修订稿需单独上传高分辨率文件。
- 图表标题置于下方,Times New Roman,8号字,居中。
- 图表文字:8号字,确保清晰。
- 图表分辨率:至少300 DPI,推荐格式为TIFF、EPS或高分辨率JPEG。
- 颜色选择:支持彩色,建议高对比度(如蓝/黄),避免红绿。
- 图例:每幅图说明不超过300字,置于图下方。
- 版权:需获得受版权保护的图表许可,提交许可文件.
- 示例:
Figure 1: Enhancement results.
a Contrast vs. time (blue: proposed; red: baseline). b PSNR scores.
公式与术语
- 公式居中,右对齐编号,如 (1),文中称为“equation (1)”.
- 术语遵循IEEE及图像处理标准(如“image enhancement”而非 “image improvement”)。
- 示例:
(1) I = f(x) + g(t)
表格
- 表格嵌入正文,包含标题和图例,置于页面顶部或底部。
- 大型表格作为补充材料(如Excel)。
参考文献格式
《TIP》要求使用IEEE引用风格,按文中出现顺序编号,文中以方括号引用(如 [1])。参考文献需准确,优先引用期刊文章。以下是示例:
- 期刊文章:
[1] J. Doe, K. Smith, et al., “Image processing trends,” IEEE Trans. Image Process., vol. 33, no. 5, pp. 123-134, May 2024. - 会议论文:
[2] W. Zhang and S. Liu, “Deep image enhancement,” in Proc. IEEE Conf. Comput. Vis. Pattern Recognit., Seattle, WA, USA, Jun. 2024, pp. 45-46. - 书籍:
[3] R. Gonzalez, Digital Image Processing, 4th ed., Boston, MA, USA: Pearson, 2018. - 数据集:
[4] W. Zhang and H. Müller, “Image enhancement dataset,” Zenodo, 2024. [Online]. Available: https://doi.org/10.5281/zenodo.123456 - 预印本:
[5] S. Liu and H. Müller, “Vision advances,” arXiv:2401.12345, Jan. 2024. [Online]. Available: https://arxiv.org/abs/2401.12345
伦理声明
- 利益冲突:需声明所有作者的利益冲突(如“无利益冲突”)。
- 伦理合规:涉及人类数据的需提供伦理委员会批准编号,遵循《赫尔辛基宣言》。
- 数据可用性:需声明数据存储库及访问方式。
- 代码可用性:需提供代码存储库或补充材料,强烈建议开源以便复现.
- 示例:
Competing interests: The authors declare no competing interests.
Ethics approval: Approved by UofT IRB (IRB-123456).
Data availability: Data at Zenodo: https://doi.org/10.5281/zenodo.123456.
Code availability: Code at GitHub: https://github.com/ImageEnhance.
补充材料
- 补充材料作为单独文件提交,格式为PDF、Excel、MP4(H.264编码,16:9)或ZIP.
- 包含大型数据集、代码或视频,无额外费用.
- 示例:
Supplementary Video S1: Enhancement demo.
Supplementary Data S1: Test datasets.
投稿流程
作者需通过Manuscript Central提交论文。流程如下:
- 注册并关联ORCID,指定通信作者(需符合IEEE作者标准)。
- 上传IEEE模板稿件(PDF)、cover letter、图表(嵌入PDF)及补充材料。
- 提供利益冲突声明、数据/代码可用性声明及伦理声明。
- 提交推荐审稿人(可选,3-5人,需提供姓名、邮箱及理由)。
- 在Manuscript Central跟踪审稿状态,初审约8-12周。
- 修订稿需提交:修改稿(Word/LaTeX)、审稿回复(逐点回应)、高分辨率图表。
- 可联系编辑部(tip-eic@ieee.org)查询状态或申请APC减免(开放获取文章).
最后
IEEE Transactions on Image Processing作为图像处理与计算机视觉领域的期刊,一直比较受中国作者青睐,我们基于官网指南,系统解析了从标题到补充材料的规范,配以英文示例,希望为您的投稿提供坚实支持。