人工智能-推免中国科学院

AI入门这件事,很多人搞复杂了。

核心就一个:动手。

别整虚的,看十篇科普文章不如自己写十行代码。


我是怎么入门的

2018年,AlphaGo击败柯洁那会儿,我刚高考完。

那时候满屏都是”AI取代人类”的新闻,我看着既兴奋又焦虑。兴奋的是这玩意儿好像很厉害,焦虑的是我啥也不懂。

后来我想明白了:与其被AI取代,不如去学AI。

结果上了大学我才知道——人工智能,比想象的要难得多。

你们知道AI专业要学什么吗?机器学习、深度学习、计算机视觉、自然语言处理……每一门课都需要扎实的数学基础。高数、线代、概率论、最优化……这些是地基,地基不稳,后面学什么都浮着。

但我后来发现,更大的问题不是数学,是大多数人从一开始就搞错了方向。


数学是地基,但别沉迷其中

很多人问我:学AI要不要把数学学得非常扎实?

我的判断是:要,但不是在本科阶段就把数学学透。

什么意思?

你学高数的时候,不需要把所有定理的证明都搞得明明白白。你需要的是理解导数、积分、梯度这些概念怎么用到机器学习里。学线代的时候,不需要啃完一本矩阵论,你需要知道矩阵乘法、特征值、奇异值分解在算法里是什么意思。

核心是:带着问题去学数学。

比如你学梯度下降,就去搞懂它的数学原理——为什么要沿着负梯度方向走?学习率为什么不能太大也不能太小?

别整虚的,直接上代码。调通一个模型,比看十章数学推导有用得多。


第一次跑通模型

大一的时候,我参加了一个预测房价的比赛。

我什么都不懂,只能从零开始学:Python、pandas、sklearn……

那段时间,我每天泡在图书馆,看教程、敲代码、调参数。

第一次跑通模型的时候,我激动得差点叫出来。

虽然预测结果很差,但那种”让机器学会东西”的感觉,让我上瘾了。

我记得那天晚上回宿舍,跟室友分享了我的成果。他听完后说:“你这不就是调库侠吗?用的都是sklearn封装好的算法,有什么厉害的。”

我一时语塞,不知道怎么反驳。

但后来我想明白了:不管是调库还是自己写算法,能让模型跑起来、解决问题,就是本事。等有了基础,再去追求更底层的东西也不迟。


进实验室:第一次发论文

大二的时候,我进了实验室,跟着导师做科研。

研究方向是计算机视觉——让机器能够”看懂”图像和视频。

具体来说,我做的是”目标检测”——在图像中找出我们关心的物体,并标出它们的位置。

我的第一个课题是”基于YOLO的目标检测算法优化”。

YOLO是一种实时的目标检测算法,速度快但精度一般。我的任务是改进它的精度。

我读了几十篇相关论文,试了十几种方法,最后提出了一种新的特征融合策略。实验结果表明,新方法在COCO数据集上提升了2.3%的mAP。

这个成果让我发表了一篇会议论文。

说实话,科研没有想象中那么高大上。大部分时间是在读论文、调代码、等实验结果。很枯燥,但出成果的那一刻很爽。


推免:我的策略

大三下学期,我开始准备推免。

我的绩点排专业前5%,英语六级通过,有科研经历和竞赛获奖……这些条件,让我有了推免的资格。

我申请了几所学校:中科院自动化所、清华、北大、浙大……

中科院自动化所是国内AI领域的顶级研究��构,研究方向跟我很契合。

面试那天,我穿了件白衬衫,打了领带。结果到了面试地点,发现其他同学都穿得很随意,有的甚至穿着T恤牛仔裤。

我心想:完蛋了,我是不是太正式了,显得格格不入。

后来面试的时候,面试官看到我,还夸了一句:“这位同学很重视今天的面试嘛。”

我尴尬地笑了笑。

面试那天,我讲了自己的科研经历和未来规划。面试官问了我一些技术问题,我都回答了。

有一个问题我印象很深:“你认为深度学习目前面临的最大挑战是什么?”

我想了想,回答说:“我觉得有两个挑战。一是可解释性,深度学习是个黑箱,我们不知道模型为什么做出这样的决策。二是数据依赖,深度学习需要大量标注数据,获取成本很高。”

面试官点了点头,没说好也没说不好。

一周后,我收到了offer。

我被中科院自动化所录取了。


读研之后的感受

读研之后,我才真正理解了什么叫”科研”。

以前本科的项目只是”照着做”,现在要做的是”自己发现问题、提出方案、验证假设”。

我的研究方向还是计算机视觉——具体来说,是”图像分割”。

图像分割的任务是:把图像中的每个像素都标上类别。这个任务比目标检测更难,但也更有意思。

每天的生活是:读论文、做实验、写代码……

压力很大,但成长也很快。

我记得刚进组的时候,导师给我一个课题:“基于Transformer的医学图像分割”。

我查了大量文献,发现这个方向目前还没有人做太多的工作。这既意味着机会,也意味着风险——没人做过的东西,谁也不知道能不能成功。

我花了三个月时间搭框架、做实验,结果发现效果并不好。那段时间我很焦虑,头发都掉了不少。

后来我跟导师讨论,他建议我换一个思路:在现有的Transformer基础上,加入一些attention机制来增强特征表达。

按照这个思路又做了两个月,效果终于提上来了。虽然不是state-of-the-art,但也有一定的创新性。

后来这篇工作发表在了Medical Image Analysis上,是本领域的一个顶刊。


几点核心建议

1. 数学要扎实,但别沉迷

高数、线代、概率论……这些是AI的地基。别整虚的,把核心概念理解透就够了。剩下的在实际项目中补。

2. 编程要熟练

Python是AI的标配,越早学会越好。我大一就开始学Python了,当时还花了200块钱买了个网课。现在想想挺值的,至少比后来花几万块报培训班强。

3. 多做项目

光理论不够,要有实际的项目经验。本科四年,我做了大大小小十几个项目。虽然很多都是”玩具项目”,但积累了不少经验。这些项目经历在我推免面试时帮了大忙。

4. 持续学习

AI技术更新很快,要不断学习新知识。我现在每天都会看arxiv上最新的论文,了解业界动态。周末还会刷刷GitHub,看看有没有新的开源项目。

5. 选对方向

计算机视觉、自然语言处理、语音识别……每个方向都不一样。选方向很重要。我建议大一的时候就多尝试,看看自己对哪个方向感兴趣。等确定了方向,再深入学习。

6. 英语不能丢

AI领域的前沿论文大部分是英文的。英语不好,你看不懂最新研究。我六级考了550分,算是比较高的。但现在每天还在用扇贝背单词,就是怕把英语丢了。


关于2026年AI就业

2026届毕业生规模1270万人,考研报名人数343万,较峰值下降27.6%。出国人数回暖,约75万人。

国考报名人数371.8万人,首次超过考研。考公持续升温。

但AI方向不太一样。这个行业缺人,缺的是真正有本事的人。不是你会调两个参数就叫AI工程师,是你能解决实际问题、能看懂论文、能复现实验的人。

工资方面,头部企业的算法岗年薪30万起步,优秀的能到50万甚至更高。

我的规划是:硕士期间发2到3篇论文,继续读博深造,以后进高校或者研究院。

AI这条路,需要持续学习。我导师常说:“做AI这行,就是活到老学到老。你要是停止学习,三个月后就跟不上时代了。”

我觉得他说得很对。


关联阅读