百度算法提前批 面试复盘

浪尽此生 提交于 2021-02-09 15:35:18

作者  | liu_sy
来源  | 见文末『阅读原文』处
整理  | NewBeeNLP公众号


面试锦囊之面经分享系列,持续更新中 

欢迎后台回复"面试"加入讨论组交流噢 

文末也有内推,需要的同学自取哈

写在前面

之前通过非定向内推提前批,简历一直处于筛选状态中,然后大概在8.18在牛客看到一个前辈所在部门(推荐搜索)招人,就把简历发给了前辈,然后隔了两三天就通知了面试。

一面 (8.21  46分钟)

  • 自我介绍
  • 在广告算法比赛中,是如何构建特征的,以及如何识别哪些特征是重要的
  • word2vector 原理
  • lstm中的attention是怎么操作的
  • 梯度消失及解决方法
  • BN的作用
  • 手撕代码:链表相加(leetcode第二题)。需要注意的是最好提前练习如何写链表的示例,因为我们刷题只用写个函数

二面(8.24 60分钟左右)

  • 自我介绍
  • 提问项目和广告比赛,问了一些深度学习基础和机器学习基础
  • 神经网络初始化方法。我回答了随机初始化和He初始化。面试官问我随机初始化有什么问题,He初始化解决了什么问题
  • BN的原理和作用。这里我的回答面试官提出了很多很多疑问,因为网上关于BN的解释也是说法不一,比如说一种常见说法是BN解决了 Internal Covariate Shift,但是他用sigmoid举例,那现在基本都用relu,relu大于0的时候,梯度都为1,也有这种问题吗,我感觉我也没说清楚
  • softmax层的label 是什么,我回答one-hot向量。
  • 学会了哪些网络训练调参技巧
  • word2vector原理说一下,我从one-hot说起,最后说了skip gram 和cbow,这一块回答不好。
  • lstm结构,输入门,输出门,遗忘门怎么计算的(没让我说),问了我他们的作用分别是什么,我也没怎么说出来。
  • 树模型,ID3,C4.5,CART怎么计算分割点的,信息增益和信息增益率的区别,GBDT和RF区别。
  • 代码说思路
  • 有效括号用了什么数据结构(栈)
  • TOPK (堆),我说反了,最大堆说成最小堆,面试官疯狂暗示,最后弱弱地回答说反了。
  • 一个长度为n的list,元素不重复,从中取出m个数,问这m个数中某一个元素被取出的概率是多少,我没说对。

这一面我感觉我很多都回答的不好,到那时面试官最后仍然花了很多时间介绍部门,感谢给我三面机会。

三面(8.25 35分钟左右)

  • 面试官上来先介绍部门,问我有没有什么疑问,然后问了简历的东西,技术问题没有深挖。
  • 然后问了我科研,生活,学习上都遇到了哪些问题,哪些方面得到了改变或者提升。
  • 还问我用过哪些百度APP,分析一下抖音短视频为什么那么火,对百度的印象看法,我提到了百度的自动驾驶。
  • 总之技术问题,非技术问题问的一半一半吧,最主要的是面试官问我能不能实习,还问了我两次,我最后说我可以远程实习,感觉我应该回答能实习的,有点后悔。

总之,我很感谢百度公司给了我三次面试机会,这让我增加了秋招的信心和勇气。

一起交流

重磅推荐!NewBeeNLP目前已经建立了多个不同方向交流群(机器学习 / 深度学习 / 自然语言处理 / 面试交流 / 大厂内推 等),赶紧添加下方微信加入一起讨论学习吧!

- END -



聊聊『白板面试』 2020-08-30
机器学习路线图整理 2020-08-28
字节跳动算法 提前批offer复盘 2020-08-25





记得把NewBeeNLP设为星标哦




等你在看

本文分享自微信公众号 - NewBeeNLP(NewBeeNLP)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!