找回密码
 立即注册

QQ登录

只需一步,快速开始

扫一扫,访问微社区

查看: 62051|回复: 25
收起左侧

[Uber] Uber-NY Onsite “噢你很懂design?”

  [复制链接]
发表于 12-12-2017 06:08 AM | 显示全部楼层 |阅读模式

亲!马上注册或者登录会查看更多内容!

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
本帖最后由 堕落的猴子 于 10-1-2015 12:35 PM 编辑
1 B' p1 E5 }+ x( d9 }5 i: L: {) H. |9 C& k, s1 |
实习求职终于uber offer,全职求职始于uber rej,what a life。带着唯一的return offer继续骑驴找马找全职了。1 e6 F' f2 s( J, V: H

+ ~: [. W" d4 g" z====感想====
; q+ b. [: e4 A- ~# ?0,千万不要看点科技博客,小文章就觉得懂design了,千万不要!常见design题有什么用,还是被大牛们按在地上摩擦了!所以下面都是我自己总结出来的合适答案,可能还是会导致你被按在地上摩擦,大家随便看看。
1 `5 ]! q0 k& K1,Uber NY的Bar很高,尤其是design bar,不想浪费机会的小伙伴还是申Uber SF吧。刷算法基本对Uber NY没用的,目前Uber NY就没有new grad,第一批new grad的要求必然是overflow的。! S9 A# c7 x' Y3 L7 J
2,几乎纯Design面试,new grad永远的痛,狠狠一巴掌打在自以为design很熟的我脸上。面我的四个人都干过小公司CTO甚至大公司的技术核心,“你们这些说名词的new grad,根本不懂design的境界”。
" o+ \/ c+ L( k: S, M4 k3,真机IDE测试,能bug free就bug free,对方的笑容不代表他认可你先run再debug。大家都是专业的,笑容什么都不代表。" _: \4 q3 Y/ f2 c
4,Uber NY的压力明显也比Uber SF要大,大家都很匆匆忙忙,留学生同学们尤其要注意,要考虑好你适合不适合这里。业绩压力绝对是很大的。
( _. L' G, O1 ^+ e  ^5,面试里很明显的表现不好的地方,就是我说了一些buzzword(kafka,riak,thrift)之后,并不能很好地解释具体理由和这些技术的核心优势。再来一次一定不乱丢buzz word了。宁愿说原理和raw model,也不随便丢名字。3 ~8 y8 S6 r" j0 A1 \
6,Hiring Manager和面试官的热情,Uber NY在做的事依然让我很向往,不过只能下次再来过了。I'll be back!
9 P! r& k7 Q  f0 [7,我主要看的复习design的东西:http://www.meetqun.com/thread-767-1-1.htmlhttps://github.com/checkcheckzz/system-design-interview,然后就是每一个技术名词都去看下文档,大概的应用场景,他们主开发者的演讲。接下来的准备估计会看更深了。
. L9 N1 G/ a- B  s1 c1 j1 L" U: Y: z+ c& \% Q% s: s
====Onsite====
6 Q2 f$ k. C( |- R' i! G1 R7 m一轮:我暑假的mentor的CMU同学,一开始聊了5分钟家常和我mentor如何逗比很开心。然,并,卵。
( {6 P/ i; j% T8 [/ y* N
/ D( n# b: B" k3 K7 d  k1,常见题-Design spotify,主要在问playlist和shuffle list功能。
) N- Q7 j# g+ y>player,playlist,song这些类要怎么搭配比较合适,自由发挥。常见的OOD设计% M" L+ V0 T/ [6 R6 G5 Y
>如何让用户之间分享playlist做到最快,让用户之间通信而不是找中央服务器拿,进程间通信(IPC)和线程间通信(ITC)的常见实现(这里wiki一下,总有几个你熟的名词)。- U; k& m8 F) u) ?9 F4 r: e
>想增加一个shuffle功能,自动随机排序当前list里的歌,这个shuffle怎么写。经典的knuth洗牌算法,写在白板上。
3 F8 r0 U+ }! k" r. |/ ~6 g>用户想shuffle之后回到之前那个版本,如何处理。要把每一次shuffle的结果存起来。用map或者链表存可以快速存取。用户还想删除当前shuffle的版本的话,写个简单的双链表删除当前node并且更新位置即可。
# x1 I- m9 M  G, C* _' v( @>设计一个函数goto(int step),让用户可以返回到某个shuffle次数之后的结果(比如用户在100万次shuffle后的版本,想回到50万次shuffle的版本,吓得我当时尾巴都掉了)。我先提到继续用map,用consistency hashing来减少rehash的麻烦。对方说不太可行,因为复杂度还是太高,但是consistency hashing的方向是对的。
. I' @- G$ o0 X  g2 R9 |$ T) o4 D>>然后totally lost,开始丢buzzword,说amazon的dynamo有个ring结构可以进一步压缩rehashing的工作量或者linkedin的voldemort可以加速大数据的读取和存储,redis的跳表结构可以压缩空间使用,可以用多级cache或者LRU cache来增加读取速度。全部都不满意,而且scale越来越大,用户shuffle的次数可以billion级,用户的歌单可以billion级等等。最后跪求提示,在暗示下意识到可以改造随机数生成器,在洗牌算法里用我提供的seed进行随机数生成,这样只需要存对应次数的seed。对方表示认可,但是依然可以优化,时间不够了。丢名词的那几分钟,简直就是被慢慢摩擦的过程。( [/ S+ D& U+ i9 e7 @/ C
, G. Y" _, b( ?  [
二轮:一个做前端的小哥,而且是很前端的前端。
2 P2 W, {) Z* l4 \* k  X& J) N) A. p" T
1,count and say。6 h4 n( U0 M( b. R
>我直接作死说我做过(其实是太过自信了),让小哥卡了几分钟,好像是他唯一的用来考非前端的题。然后说改设计吧。也许不应该让他这么没面子,毕竟也是做过CTO的人啊,也许吧。& D5 E! x5 A4 R/ h% B
! V/ y" M% p  s& S$ y: Q! P
2,常见题-facebook friends recommendation。
5 i  t, |' G1 Z+ n# Q+ P/ E>首先朋友之间的关系如何存储。常规的sql乃至常规的nosql(比如mongodb)为什么不适合这个模型(因为关系会互相嵌套,为了处理这些嵌套,开发过程也会很繁琐),如何解决-使用graph db。因为我在fb做过了解他们的TAO架构,所以稍微说了下,可以把朋友关系存在边上,这样本身node就只是用户就足够了,提取关系时也可以很轻松的batch 操作。常见的开源的就是neo4j,可以看看他们的自我介绍和应用场景。也可以看看fb的engineering blog对于tao的介绍。
5 \& I- K. A! O! |6 e! ?+ n2 I( h: i>然后如何进行推荐,从最基本的bfs开始说,每个用户为起点,bfs出去到距离2的时候停下,这个bfs不记录visited,单纯看有有多少用户和当前用户距离为2(就是有一个共同好友),所以把结果打印出来,重复出现最多的几个用户就是最适合推荐的。9 N# j& [3 y6 @& R/ M4 V1 Z1 d: f
>>follow up,如何提高效率,当用户数大到一定程度时?这里就是典型的MR应用,因为每次记录都是(用户名,1)这样,把所有的加起来就是典型的reduce步骤。如何提高反复处理的效率,可以缓存结果,也可以用spark这种基于运算而非基于数据的模型,把运算传递给数据。说简单了就是传统的Hadoop的优缺点分析。8 C% m; O; ^1 L: r6 r4 A; w! m
>>>再follow up,如何对新增的用户进行快速的处理,如何对距离3甚至关系更远的用户进行分析?这里开始就要谈到collaborative filtering和相关的开源库比如Apache Mahout了,然后瞎扯了可以用spark streaming来进行流式处理,对方来兴趣了,问我spark streaming的discretized stream如何适用到这个题目,卒。
$ J; x. C2 N+ Y/ y( E, n! Q, z1 m
3,问完设计,上机写个简单的类似字典搜索。给你代表字典的list<string>和代表输入的list<string>,把输入字符串里所有出现在字典里的部分大写(对,就是breaking bad的片尾staff表那样)。
. p7 H' F' c3 e& `9 U>现在想起来,估计是有陷阱的。我当时太开心,就说好吧我们来写吧。几分钟写完,还装逼地说我们来写个JUnit test吧。其实这些都是intern面试之后积累的,因为他们家面试经常让你开自己的ide,写完了自己写个junit test来assert equal。7 Q- X( a& a8 Q/ M' a! q, P
>test写完,准备run之前,问了一句,你是想我按了run看错误去debug,还是先我肉眼debug一下再run呢。对方笑了笑说都行。。。现在想起来,我选错答案了。( l0 p9 U0 M" w1 D4 g6 \$ w* r+ `) i
>然后跑出错,debug,又出错,再debug,两轮快速迭代,增加了2个边界检查,通过。对方要求我发代码给他看看,开心发完之后就聊天了。现在想起来,我应该主动要求把代码再优化下的,傻逼兮兮又被按在地上摩擦了吧,自己还不知道。
$ T" S3 Y; M7 ^) o3 y8 P) z: d: ~& `, g
三轮:一个前Google大牛,上来就把我简历丢开说我们聊聊uber吧。/ L' ^( }# F$ v9 B7 B
! _" g. i; P! i: I- g* K
1,常见常见题-Design Uber。
' E' U% k: C& e4 j/ y>https://cnodejs.org/topic/557b9cff16839d2d53936242,建议各位先把这个里面的那张图看下,它大概描述了早先的Uber模型(最新的应该很不一样了),有个概念就好,千万不要去硬记那些名词。
* N/ S( F6 r- }: E1 l$ K9 J6 G>上面模型里的mongodb是错的,千万别说mongodb,可以去搜下为什么初创公司发展之后都要脱离mongodb。最新最正确的架构看下面这条。
0 r8 T6 _+ f% _  Y>http://highscalability.com/blog/ ... arket-platform.html,这里是关于目前的架构的介绍,基于他们架构师的一个7月份的talk。然并卵,别死记硬背。这个网站本身有很多不同大网站的architecture的分析,都可以看,对名词最好能多深入了解一下应用场景和实现方式。
  B, {7 f' t( {/ k! o
, c. u7 k. o5 V4 e' h% P>先从最基本的用户验证开始问,我看太多科技博客以为上来就问我大架构的东西。结果一开始迷惑了一阵子直奔dispatching service,傻到回答别人说http是stateless,tcp是stateful这种奇怪的答案。其实就回答一个POST请求就好了。网络层7栈结构我都能背了,还在这里犯这种傻,我对不起老师。
; Y) i  ]. w# U4 x6 s) T. `% ~: x>验证之后,如何不需要进行后续验证,这里可以说cache下用户的登录状态,也可以让用户在post请求里加入生成的密匙,就像OAuth那样。对方似乎对OAuth类的做法不是很满意,“可以是可以,算一种办法吧”。
9 p: _. S) x5 {6 O. L+ v% Y/ n' D>用户要给服务器发送什么信息。物理地址,请求的车型,当地时间。可以JSON也可以CSV,序列化后加密发送。问我CSV和JSON的优缺点。/ [* ?( c# r. ]& u7 F! R
>>follow up,问我知道不知道RPC,我说了解一点比如thrift但是基本没用过。然后问我这里如何应用,我说可以用JSON-RPC类的库来进行序列化以及加密,这样可以提高用户模块和服务器模块的协作性。对方不是很满意我说不出thrift的一些优缺点或者细节。. G  m. {" ?' G# H
>用户点下请求后,服务器如何选择最合适的司机并且通知他们。根据trip time,wait time还有trip fare以及司机availability(car pool的话,现在在载人的司机也是可以的)进行判断。司机数据可以按照城市进行Sharding,考虑到有大小城市,可以多个小城市的shard放在一起,一个大城市的shard使用一个节点。让我聊这样shard的问题,提到跨城市的trip可能会导致切换shard,这种很低效。' K; s- f' ^# d% [& }+ L
>>follow up,在大量用户请求和大量司机可用的情况下,如何提高效率。这里我又犯傻,直接说他们目前在用的那个supply demand模型。根本不懂还卖弄就是被按在地上摩擦。其实这就是个基本的生产者消费者的模型,分布式+message queue谈到了就好了。他们家的supply demand的主要作用其是和price有关。6 L0 z- I9 T( ^. I5 r5 [
>如何保证一个司机不会发给两个不同的用户。这里可以上锁,但是要考虑怎么用锁,是处理这个请求的thread拿个锁,还是记录在用户相关的缓存数据里,然后要如何锁,是锁住数据库里的一个object,还是修改一个变量。这里我又傻逼地说了几句就开始说,哎呀你们家之前用php,因为php的多线程,线程间通讯不够好所以出过一个司机给两个用户的事,后来不是改成single thread的nodejs,然后用ringpop来轮排操作保证ITC以及IPC了还有原子性了嘛。其实人家想听到的是更本质的东西,而不是这些花哨的名词吧。2 ~  ^# f" N7 k1 x% U# M8 \
>data center爆了怎么办。一直有一台config server,爆了就把请求转移到backup server。backup server可以定期复制数据过来。爆的那段时间里丢失的in flight data,可以通过在司机和用户手机上预存一部分数据,重新连接后验证两边的数据,如果不一致就从用户和司机手机上请求最新的数据。这就是uber的做法,他可能意识到了我复习过,”噢很有意思嘛,我们的做法很类似呢“。
( K' b' E% x! I# X>旅途开始了之后,怎么把用户和司机的状态更新好。这里一台update server和司机通信,另外一台和用户通信就可以。
$ c4 u5 [$ f1 l4 l) U' n>旅途结束后,如何搞定payment。这里要用RPC类的办法去调用其他micro service(比如business service),然后这个请求发过去之后,如何保证付款一定能成功。这里我说可以用个简单的message queue,并且带有consume at least once的特性,比如kafka这样。3 l1 A0 f: c) J* q3 @( r! t( E6 U
>>follow up,kafka是怎么实现的,怎么存的。我只想起来kafka是producer, broker, consumer分离,使用linux的page cache进行存储和page swap,并且consumer会guarantee consume once。对方似乎不是很满意。没实际用过kafka,大概不能明白核心科技吧。3 l: e/ I( L! \; v  \$ X% r

0 ~. H# G9 s2 P. z* ]# E四轮:hiring manager,大大牛,纯culture fit。: V" g7 A! z/ w  i+ R0 C4 ]2 {8 `
1,why uber。常见问题,自己想吧,谈钱也没事,大家都懂。
7 B2 q3 d0 H7 [. k, B& R: G8 q2,why uber want you。继续常见问题,自己想吧,答实在点,大家都忙。
8 K! n9 r4 p# S; g: t3,自己做过的最喜欢的项目,自己的三个缺点,三个优点,这都是常见的了。* d: T" @, R. c* k  [
3,自由提问。我问了why I want to join uber,what can I expect to be in 5 years if at Uber,what can I get here in 2 years。看反应应该不是烂问题,不过我自己回想是觉得有些装逼了,还好这里人人逼格都非常高。8 ^1 p  ~6 ~0 J, O5 O

& b" d8 b# Z" W- i+ M4 {" O因为不能编辑,所以如果有什么说错的地方欢迎各位交流。) l, ]% x/ z* |* t, O: j

- c' u8 w/ u/ j) z7 K0 r

评分

参与人数 1金钱 +30 收起 理由
Sophia + 30 很给力!

查看全部评分

本帖被以下淘专辑推荐:

4

主题

1

精华

113

积分

资深会员

Rank: 2

积分
113
发表于 12-12-2017 11:27 AM | 显示全部楼层
谢猴哥分享!Google加油面!
回复 支持 反对

使用道具 举报

发表于 12-12-2017 01:59 PM | 显示全部楼层
感谢美国米群网超版猴子的面经分享~~~精华积分满满送上~~~正在仔细拜读~~~
我们始终相信IT会持续改造甚至创新传统行业,我们始终全面看好咱们的CS专业!
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

快速回复 返回顶部 返回列表