关于2021入学的核算机视觉研讨生,研讨生如何学才干结业找到一份好…(2021年毕业入学时间是多少)

2 minutes, 9 seconds Read


作者:湃森(深圳大学 核算机与软件工程)
联接:
https://www.zhihu.com/question/396811409/answer/1252521120
来历:知乎
这篇文章仅作学术共享,作品权归属作者,如有侵权请联络删文!

研一:
过一遍吴恩达/李宏毅的机器学习和深度学习课程,强推fast ai课程【这儿主张把图像分类、语义切割、方针检测、实例检测、天然言语处置都过一遍,看似不有关的领域,一般一联系就是惊天动地的oral文章】;

泛读《python从入门到实战》、《python机器学习实战》、《计算机器学习》、《深度学习》-花书(这本书有点不合适阅览,能消化的就看,消化不良就算)、周志华《机器学习》(配备《南瓜书》手推公式不是梦);晓得一些常规的传统视觉算法(图像过滤、形状学操作、几许改换、颜色变换、图像制造、直方图、形状分析、运动分析、特征检测等)和专用库(opencv),实习几个小项目,比方可以用霍夫圆改换检测高尔夫球的数量等;实战沐神的《着手学深度学习》,原版是mxnet规划,现有pytorch、tensorflow版别;【假定现已具有根柢的概率与数理计算常识(常见的分布)、线性代数(矩阵论、范数与间隔等)、凸优化等根柢数学常识还有一些信息论的根柢常识】

寻找有关论文领域总述晓得该领域打开现状,并晓得cv界的顶会有哪些:iccv、eccv、cvpr、nips(一档),ijcai、iclr、aaai(二档);
医学领域的首要有:miccai、medical image analysis、ieee transactions on medical imaging、midl、ipmi;
数据发掘领域:kdd;

天然言语处置:acl、emnlp、naacl-hlt和coling;其他领域;【access——保结业神器】

重视多几个出名大众号或博客晓得最新的作业动态或前沿论文解读(俗称干货):机器之心、量子位、新智元(这几个公号一般重视一两个即可,这些公号的内容根柢都重复的)、极市平台、知乎(注册后亲自领会了几个月,感触上知乎大大都时刻是在吃瓜)、quora(世界版知乎)、datawhale(首要是面向数据分析的,学习空气不错)等等(这些根据本身需要可自行重视一波),

选择1-2个深度学习规划:tensorflow 2.0和pytorch1.0+(当前来看优先选这两个,不是说其他规划不好,首要是这两家的社区大,不会说遇到bug找半天没材料)。

掌控必备东西:overleaf(在线latex)、pycharm(健壮的修改器)、vscode(简练舒畅)、mendeley(文献打点东西必备)、jupyter notebook(便利数据可视化)、teamviwer(远程东西标配,外加一个向日葵备用)、mathpix snipping tool(latex公式截图)、snipaste(桌面截图利器)、谷歌阅读器(常用插件有:grammar 用于检测语法;沙拉查词:用于翻译;octotree:用于生成github目录)、office全家桶(word、ppt、excel)、sublime text(快捷文本编译器,或许选择notepad++,萝卜青菜各有所爱)、 云笔记/形象笔记/语雀/石墨文档(记笔记专用)、xmind/幕布(思维导图东西)、free download manager 5/迅雷(下载神器)、renamer(批量文件名操作)、mobaxterm(联接效能器的神器)、endnote(这个首要是用在word文档的参阅文献打点)、matlab(有时分会用来画图),大约够用了。

自备一些常用的网站:
github(多找一些优良的规划,学习如何组织代码,如何编写阐明文档等;不要盲意图造轮子,非中心的东西就不要浪费时刻去完成,纯属浪费表情)、
papers with code(竞赛排行版,如同根柢代码都有开源)、
arxiv(还没宣告的论文大多会挂上面,可以抢先重视,不过都是没经过同行评定的文章,仅供参阅)、
sci-hub(首要是下载一些最新宣告的期刊或文章,下载速度慢)、https://booksc.xyz/ (这个首要下载一些不是最新的论文,一个ip一天上限10篇,下载速度快)、
medium(这个网站是全英的,找到跟自个主题有关去阅览,文章质量相对很高)、
csdn(这个一般用来查找一些常规的bug)、
stackoverflow(这个包括的bug处置方案就多多了,质量也非常高,根柢csdn许多issue都是在这上面搬的答案)、rgb配色表、代码黏贴、在线ps、文档格局变换东西、latex表格生成器、不限速网盘东西、文件格局变换东西、json to xml、腾讯文档、谷歌翻译,差不多就这些。

晓得有哪些出名的竞赛网站可以参加,参加一两个有关竞赛项目训练自个的代码才能(要点是学会如何做数据清洗和特征工程,不该过火寻求排名):kaggle【重视:鱼遇雨欲语与余等出名选手的博客或其他动态,学习竞赛经历】、天池、grand challenge(这个是医学有关的竞赛)、datacastle、kdd-cup(世界常识发现和数据发掘竞赛)。

悉知一下领域内的大佬,没事多刷刷最新研讨发展:
何凯明(cv之星,代表作有resnet、maskrcnn、non-local、srcnn、resnext、sppnet、faster rcnn、fpn、pointrend等,两根手指头都数不过来)、
陈天奇(机器之星,代表作有xgboost,以及规划tvm等)、
朱俊彦(gan方面的资深玩家,cyclegan、conditionalgan、…gan)、汤晓鸥(人脸辨认)、
李飞飞(imagenet一把梭哈)、
贾佳亚(图像滤波)等等,另外还有一波国外大神就不打上去了。

研二:
1- 宣告1-2篇顶会或顶刊的paper;
2- 参加一下大型竞赛并拿得必定名次:腾讯广告算法大赛冠军、华为云大赛平台、kaggle上的有关竞赛等等,最佳能把代码收拾成一个pipeline维护成一个github项目;

3- 刷leetcode、《剑指offer》等,掌控基础的linux和数据库有关操作、温习一些基础机器学习常识(强推《百面机器学习》这本书)和深度学习常识。
机器学习:

(1)十大经典算法:linear regression、logistic regression、lda、lvq、naive bayes、knn、random forest、decision tree、svm、boosting&adaboost;能手推的加分

(2)常见的降维技能:pca(最常用)、lda、locally li

near embedding、laplacian eigenmaps等;

(3)如何初步一个数据竞赛?

<1> exploratory data analysis:导入数据-》数据计算-》变量有关性分析-》缺失值和异常值处置-》数据分布改换-》特征分析(数值型和品种型特征)-》【这儿可以熟练掌控pandas、matplotlib、seaborn、numpy、scipy几大常用数值分析库】

<2> feature engineering:异常值处置(长尾堵截、箱型图调查等)-》缺失值处置(非随机缺失:binary、gsimp,、qrilc等;随机缺失:可用rf、svd、mean、median、knn、median、nn填充)-》特征离散化-》数据类型变换(常见的比方one-hot编码)-》特征组合(这个需要具有必定的布景常识)-》数据降维(pca)-》

<3> modeling:选定模型(两大杀器:lightgbm和xgboost,其他一些可自行测验)-》穿插验证-》调整参数(常用的有sklearn中的网格查找gridsearch,另外还有一些比方bayes调参以及贪心调参等)

<4> ensemble:可以说一个数据竞赛首要取决于两点:特征工程以及模型交融。一般选定3个支配的强模型+多个有关性较小的弱模型进行voting/stacking/boosting。

(…)啥是误差和方差,别离会呈现啥表象?
啥是生成模型和区别模型?
有监督和无监督的差异?
knn和k-means中的k各有啥意义?
啥是核技巧,有啥用?
l1和l2正则化别离选用啥间隔衡量,各自运用于啥情况?
如何选择最佳超参数,有哪些常用的查找办法?
时刻序列数据如何使用穿插验证?
数据归一化常用的有哪几种,为啥要进行归一化?
xgboost运用泰勒打开的优势在哪?lstm比rnn好在哪里?
朴素贝叶斯中朴素如何体现?为啥roc曲线对样本分布不活络?
如何选择适合的衡量函数?
聊聊最小二乘法?
gbdt 、xgboost 、rf这三者都根据示范型,有啥差异?
gbdt的原理和练习进程是啥?
oob又是啥,在rf中是如何核算的?
如何了解熵这个界说以及各种熵的差异是啥?
crf相关于hmm有啥优势?
似然和概率是不是一个东西?
特征值还会求否?
mle并不老是存在,那假定存在的话,它时分必定特异?
两个变量之间的 p值为零,那么这两个变量的值是不是必定不有关?
谈谈奥卡姆剃刀、丑小鸭定理和没有免费午饭?
为啥说boosting降误差bagging降方差?

深度学习:
(1)各种评价方针的界说和使用场景:accuracy、recall(等价于sensitivity)、precision、dice(等价于f1-score)、jaccard、roc auc曲线、p-r曲线、miou等等;【熟练使用tp、fp、tn、fn四大原则根柢就能了解以上基础方针】

(2)常见丢掉函数公式的书写及界说:
方针检测:
<1>focal loss、balanced l1 loss(首要是样本不均衡疑问,以focal为要点了解);
<2>dr loss、kl loss(首要是关于数据之间的分布,像kl散度就是一个很基础的概念);
<3>iou loss、giou loss、dlou loss(dlou loss作用使用在项目上实测作用然不错);
<4>dr loss、ap loss等;

语义切割:
dice loss、hausdorff distance(hd) loss、lovász-softmax loss、bce loss、topk loss这几个比照常用,其他一些比方counter loss、boundary loss、wetight loss、sensitivity-specificity loss、distance penalized ce loss 等其他loss有精力再去晓得;

(3)有哪些常见的归一化技能,其异同点是啥:bn、gn、ln、gn,较新颖的有frn等;

已bn为例,根柢晓得bn的作用(避免梯度弥散、加速收敛速度,添加泛化才能——根柢可以不必dropout了)、bn的流程(对一个batch中对应的channel求均值、方差,然后进行偏移和缩放,改换为初始数据的分布)、bn的捆绑性(对batch活络等)这些就差不多了;(bn大法好啊)

(4)sgd、adam、rmsprop这三个优化算法的梯度更新规则是啥,存在啥缺陷?一般使用的话图便利就直接用自习气的adam算法,有点工程经历的一般会选择sgd,协作多项式学习率衰减进行training;

(5)常见的数据添加有哪些,给定一个场景,如何选择适合的数据增强技能?
几许增强:水平、笔直翻转、旋转、缩放、平移、裁剪、透视改换、仿射改换等;
颜色增强:比照度、亮度、饱满度,颜色空间变换、颜色颤动,通道混洗、随机擦除、填充,叠加噪声等;

其他一些增强技能:gan、mixup、label smooth、randaugment、mosaic、dropout、cutout、cutmix、augmix、moex等;

常用的三个数据增强库:imgaug、albumentations以及torchvision自带的;
(6)有哪些常用的学?ゼ跽铰裕?br>
一般以下五个足以:steplr、multisteplr、 exponentiallr、cosineannealinglr、reducelronplateau;其他一些根据具体使命自行lambda去自界说,比方不一样层设置不一样的学习率;

(7)有哪些常用的backbone:
lenet:5层轻量级网络,一般用来验证小型数据;
alexnet/vggnet:把网络层数加深;
谷歌net/inception:联系1×1卷积并选用带有不一样kernel和池化的多分支战略进行特征获取;
resnet:residual block,使练习更深层的网络变得可以;
rexnext:引入组卷积,在精度根柢不降的情况下速度跨越resnet;
densenet:首要是特征复用的思维,参数量虽小核算量不敢恭维;
res2net:根据resnet引入多标准;
senet:根据通道纠正,强化重要特征,抑制非重要特征,要点是简练可以随意嵌入;
sknet:引入特征图留心力,使卷积核的感触野可以自习气
dcnet:引入可变性卷积,前进了泛化才能;
squeezenet、shufflenet、mobilenet:轻量级网络;
cspnet:使用跨期间特征交融战略和堵截梯度流来增强不一样层次特征的可变性处置冗余梯度信息,前进推理速度;
efficientnet:e0-e7的进化之路声称无人能敌,协作谷歌刚出的lite,完成精度、推迟两不误的移动端新sota;
regnet:fbai力作,声称跨越efficientnet,gpu上提速5倍的神作;
resnest:刚出来的backbone,乍眼一看是一个resnext和sknet的联系体,论文写着刷爆各大榜单;具体作用还未运用不从得知,直观感触是个好的神器,留下时刻去考证;

(8)模型不收敛的缘由一般有哪些:
<1>数据和标签是不是对应?(标示的对不对?分布是不是合理?)
<2>学习率的巨细设置是不是合理?(过大会怎么样过小又怎样?)
<3>网络规划使用是不是合理?(少量数据搞个resnet152是几个意思?)
<4>有没有运用归一化或许适合的学习率衰减战略等。

(…)如何避免过拟合?
数据的长尾效应如何有用的处置?
超参数和一般参数的差异是啥?
模型剪枝技能有哪些?
为啥需要运用relu等激活函数?(有哪些激活函数,它们之间的差异是啥,有啥优缺陷)batchsize大约如何选择?(过大过小有啥影响)
卷积的参数量、核算量、感触野如何核算?
分布式练习中,batchsize和learningrate之间的联络?
(参阅)gcn相关于cnn的优势在哪里?论说一下gan的思维?
为啥练习gan会存在mode collapse的表象?
论说下vae和gan的差异?
留心力机制的原理是啥,有哪些常用的am,它们之间的差异和联络?
fine-tune触及到哪些超参数?
图像检测和切割中, 如何在不显着添加参数量的一起更有用的获取出多标准的信息?
如何处置few-shot learning的困难?
多分类中假定某一类品种练习作用欠安如何方案loss函数?
tensorflow和pytorch两个规划的差异和优缺陷是啥?
简述下unet的中心思维?有哪些常用的后处置操作?(分水岭、crf、tta、堆叠猜测、nms等)concat和add操作哪个更优,为啥?等等
4- 能实习的必定要去实习;

研三:
1- 预备开题辩论和几十页的中文结业论文;
2- 坐等offer收割;
3- 结业辩论、拍结业照、吃拆伙饭;
总结:
(1)能实习的必定要去实习,否则秋招就是千军万马过独木桥;不能实习的争夺做一个可以落地的cv项目;再不济一篇顶刊顶会的paper也要争夺拿下;
(2)以上大致一个四非学校非科班学生一年学习期的一点浅陋常识贮藏,题主偏重是某中上985硕士,应在此基础上扩增4倍的常识量,否则连渣本都竞赛不过。像我等实力不可的同学,学算法的一起有必要时刻提示自个自备开发技能栈,否则大约率结业则赋闲;
(3)985本硕学历+项目+竞赛+顶会顶刊+厚实的开发技能 = batjm 算法offer。

最终祝标题三年学有所成,提前收割心仪的offer,当上ceo,迎娶白富美,走上人生巅峰。

Similar Posts

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注

|京ICP备2022015867号-3