现在的位置: 首页 > 综合 > 正文

为什么不去读顶级会议上的论文?适应于机器学习、计算机视觉和人工智能

2018年02月19日 ⁄ 综合 ⁄ 共 1423字 ⁄ 字号 评论关闭


http://emuch.net/html/201012/2659795.html

看了版上很多贴子,发现很多版友都在问“热门研究方向”、“最新方法”等。有同学建议国内某教授的教材、或者CNKI、或者某些SCI期刊。每当看到这种问题,我都有点纳闷,为什么不去读顶级会议上的论文?
我无意否认以上文献的价值,但是在机器学习、计算机视觉和人工智能领域,顶级会议才是王道。国内教材和CNKI上的基本是N年前老掉牙的东西。有人会质疑这些会议都只是EI。是的,这的确非常特殊:在许多其它领域,会议都是盛会,比如society of neuroscience的会议,每次都有上万人参加,带个abstract和poster就可以去。但在所讨论的几个领域,顶级会议的重要性无论怎么强调都不为过。
可以从以下几点说明:(1)因为机器学习、计算机视觉和人工智能领域发展非常迅速,新的工作层出不穷,如果把论文投到期刊上,一两年后刊出时就有点out了。因此大部分最新的工作都首先发表在顶级会议上,这些顶级会议完全能反映“热门研究方向”、“最新方法”。(2)很多经典工作大家可能引的是某顶级期刊上的论文,这是因为期刊论文表述得比较完整、实验充分。但实际上很多都是在顶级会议上首发。比如PLSA, Latent Dirichlet Allocation等。(3)如果注意这些领域大牛的pulications,不难发现他们很非常看重这些顶级会议,很多人是80%的会议+20%的期刊。即然大牛们把最新工作发在顶级会议上,有什么理由不去读顶级会议?
(1)
以下是不完整的列表,但基本覆盖。
机器学习顶级会议:NIPS, ICML, UAI, AISTATS;  (期刊:JMLR, ML, Trends in ML, IEEE T-NN)
计算机视觉和图像识别:ICCV, CVPR, ECCV;  (期刊:IEEE T-PAMI, IJCV, IEEE T-IP)
人工智能:IJCAI, AAAI; (期刊AI)
另外相关的还有SIGRAPH, KDD, ACL, SIGIR, WWW等。
特别是,如果做机器学习,必须地,把近4年的NIPS, ICML翻几遍;如果做计算机视觉,要把近4年的ICCV, CVPR, NIPS, ICML翻几遍。
(2)
另外补充一下:大部分顶级会议的论文都能从网上免费下载到,比如CV方面:http://www.cvpapers.com/index.html; NIPS:
http://books.nips.cc/;  JMLR(期刊): http://jmlr.csail.mit.edu/papers/;  COLT和ICML(每年度的官网):
http://www.cs.mcgill.ca/~colt2009/proceedings.html。希望这些信息对大家有点帮助。
(3)
说些自己的感受。我的研究方向主要是统计学习和概率图模型,但对计算机视觉和计算神经科学都有涉及,对Data mining和IR也有些了解。这些领域,从方法和模型的角度看,统计模型(包括probabilistic graphical model和statistical learning theory)是主流也是非常有影响力的方法。有个非常明显的趋势:重要的方法和模型最先在NIPS或ICML出现,然后应用到CV,IR和MM。虽然具体问题和应用也很重要,但多关注和结合这些方法也很有意义。
对于这个领域的牛人们,以上全是浅显的废话,完全可以无视。欢迎讨论。

抱歉!评论已关闭.