一个 本科生 直面 PhD 的碰壁人生 (长期UPD)

Media Tab 会列出所有你引入到当前文档中的图片、附件等等。比如要增加一张某期的播客的封面图片,文章里用不到,但是 Extension

申请上的想法,和 Shu 聊过以后,了解到了国内读研的可能性,同时感觉到我作为本科生的无力。可是我却有拼一拼,没有博士,就工作的想法,因为我个人觉得国内三年的研究生设置过长,对于培养一个有给定问题解决一个问题能力的研究者太长,对于探索更大领域中 vision 的博士又太短。同时我觉得去美国的机会不太多,看了看 乔神 的处境,我觉得我不会比他好过多。

有关方向

我的预判是 Computer System (with Arch) 是比较好的方向,无论是从现在的趋势,还是未来的 funding 。DBMS 一定是大热的方向,毕竟现在数据为王。和 Arch 相关的有最近出的 NVDimm, 有很多可拓展的方向。而 ML system 的大热注定了这个方向是一个泡沫。

GPA 拉胯

个人感觉从能力上和看问题的 vision 上我是属于比较有好的统括性能力的人,但缺乏马上复线的坚持能力。自从我对超算比赛魔改代码的兴趣有所丧失以后,对带同学和教他们改代码还是很有兴趣的。我个人有挺多高考遗留下来的后遗症,简单来说就是考试失能,实在不想在这种maybe “高分低能”的人堆当中卷致死了。

有关成才

和父母稍稍聊过,觉得我说服不了他们,他们也说服不了我,他们一直觉得我没什么用,从很多意义上来讲,长时间的生活费不足,直到最一年才稍稍变好。我的敢想,很大程度上来自我爸的自信,但又有点不同,我看到的,和身居高位的人看到的不太一样,而革命从来都是自下而上的。

暑研或许是 Ph.D. 的唯一机会

这个集散地 nsf fund 的工作只招美国居民或者绿卡。之前看到一亩三分地上有个关于为什么美国和中国同工不同酬,有个解释很有趣,visa 就好似一种半透膜,不是所有人都付得起硕士 OPT 的钱。不过这钱有点Overpay了。而码农这种工作确实吃青春饭,只有在学的最快的时候多学一点才有用。感觉只有加州、UIUC、剩下三大的暑研或者未来PhD 适合我去念。

以下是最近开的暑研机会。

General Requirement

  1. Online Application
  2. One-page Personal Statement: why this teacher? why this program
  3. Official Transcript
  4. Curriculum Vitae (CV)
  5. Your Top Faculty Choices – If no faculty matches your interest, please indicate your preferred. Preferably the professor with similar aim.
  6. professor whose research area best aligns with your interest. You can learn about each faculty member’s research area by referring to the Samueli School of Engineering website.
  7. Two References – Required email and the

UCI onsite ranking 1.30

看了下他们的 CA 课,可以说没王老师上的优秀。

prof
  1. https://www.ics.uci.edu/~harris/
    1. Electronic Design Automation from Natural Language
    2. Embedded Systems
    3. Social Engineering Attack
    4. Functional Verification
  2. https://faculty.sites.uci.edu/zhouli/
    1. IoT
    2. Embedded System
  3. Fadi Kurdahi digital system
  4. mohammad AL Faruque
  5. https://www.ics.uci.edu/~mlevorat/
    1. Real-Time distributed computing in wireless systems
    2. Wireless systems for AI and AI for wireless systems
    3. IoT and Healthcare
  6. https://chenli.ics.uci.edu/research/
    1. database
  7. https://www.ics.uci.edu/~xhx/
    1. AI data mining

最终选定 Zhou Li (张一帆在这)和 另两个 system 的。

UIUC Online ranking undecided

Applications for Summer 2021 will open in the Spring.

Caltech 2.22

Harvard undecided

CMU 2.2

Fuzzing & Arch & DBMS 啥都有,如果能去这的话 MCS 也可。
Screen Shot 2021-02-01 at 3.58.42 PM

WUSTL 2.17

https://sites.wustl.edu/csereu/apply/

  • Awaiting Recommendation

HPC 写 CPP

UCR

Gu yan & Sun 并行算法

CERN

HPC 体系结构 部署与优化。

暑研面经

以下来自网络:

CS PhD的录取分三种:
弱committee,如JHU,教授很大程度上可以决定你的offer;
强committee A型,如UCSD,committee先申完所有申请,然后把pass的人放进pool里,教授去捞,如果match,则有offer;
强committee B型,如UIUC,申请的人太多,committee看不过来,于是教授看,觉得可以的就vote,集齐了3票vote,你的application就被拎去panel讨论,觉得可以就给offer;
由此看来,合理的套磁/面基/套近乎对于每一种都似乎是有用的。
申请背景

我的申请背景属于同年级本科生里比较强的,GPA90+,Rank 1/105,2篇一作论文,两段MIT老板的暑研,3封强推(两封本校,一封MIT暑研老板)。所以当年由于觉得自己背景比较硬,申请得很激进。在这里还是劝学弟学妹该申的保底校还是要申请的,不然可能会有持续一个多月的失学恐慌。

这里介绍一下如何提高申请背景,就我今年的申请形式来看,对于我申请学校的PhD或者研究型硕士的申请,背景的排序可以看成:科研成果≈推荐信>GPA>经历>英语。值得关注的是GPA的比重有所降低,当然一些基础科学方向的申请GPA就比较重要,这里主要说的是工科。这样的话做暑研就变得非常必要了,因为可以同时提高科研成果和推荐信的质量。

清华有闯世界项目,如果有机会一定要出去试试。一般来说暑研地点的选择上,Dream School和业界大佬这两者不可兼得,选择其一去主申就好。这里就不详细介绍暑研的申请攻略,学校讲座或者本专业学长学姐都可以很好的帮助自己提高暑研申请成功率。暑研之前做好充足的准备,甚至提前开始做项目,暑假2个月玩命的干,积极与老师发邮件交流成果,留下个好印象,很可能拿到强推甚至投出论文。一次好的暑研能够极大的提高你的申请背景。我的两次暑研(大二暑假和大三暑假)都跟同一个老师,从最开始大二纯打工干活,到大三有自己的课题投出一篇一作论文,整个过程得到了老板的高度认可。最后MIT的申请,竞争非常激烈,全靠我老板在committee里力荐,才把我留下来。

科研的话,个人觉得经历的数量不重要,关键是成果,一个项目无论做成什么样子,最好都能有一篇英文的报告或者总结poster,投不出去可以放到arXiv上。推荐信的话,一般自己申请学校的老师的推荐信是最好的,其次是业界大佬的强推(当然大佬一定要了解你)。

GPA虽然排在科研和推荐信之后,但还是需要注意不要让它拖后腿,对于某些非常关心GPA的学校,GPA则会非常重要(很多硕士的申请甚至主要看GPA)。所以大一到大三还是不能放松学习。如何兼顾学习和科研则是时间管理的问题,相信大家会有各自的方法。

选校

好的选校对于申请至关重要。在选校方面,再来人会给予不少指导,给你推荐不同层次的学校。不过最终选什么还是会尊重你自己的决定。我的申请选校比较激进,也是因为我觉得自己背景还行,交通方向的同学可以参考我的选校,再加上一些更低一些的学校。

我最终申请的6个项目如下:

MIT Master of Science in Transportation;
MIT Master in City Planning;
UCB Transportation Engineering PhD;
Stanford Sustainable Urban System PhD;
Cornell Transportation System Engineering PhD;
CMU Advanced Infrastructure Systems PhD.
基本都是Tier1的学校。我个人比较看中学校的综排,所以一些只是交通专业很强的学校我就没有申请。实际上还可以申请的学校有:UIUC、UW、GaTech、UT Austin、Purdue、UMD、东北大学、Umich。英国剑桥和皇家理工也有做交通的,但是个人比较喜欢美国的学校,而且英国托福口语最低25,我并没有达标,所以也没有申请。 在选校方面,个人觉得综排和专业排名是最先需要考虑的,每个人都希望能去比较好的学校,名校就业也会比较容易。很多人会说方向和兴趣match的问题,但是本科生其实很难决定未来的兴趣点,不过可以根据兴趣选教授。

我当时选校没有犹豫太多,定了几个综排高的学校,去问学长学姐里面有没有做交通或者类似方向的老师,有的话就去申请,幸运的是里面的老师做的方向我都比较感兴趣(可能主要是交通的方向太小了)。选校时问问学长学姐,有时可以发现一些非常好的项目,可以避免自己盲目的去找。
还有硕士和博士的问题,一个很直接的区别是博士给钱,硕士很少给钱(不过MIT的交通硕士属于研究型的,一直都是给钱的),不过美帝的博士毕业要求比较硬,如果不是对科研很有兴趣,的确没必要申PhD。一般而言硕士会比博士更容易录取,所以硕博混申也能更大概率最后有个书读。对于一些很不错的学校,比如UCB和Stanford,硕士和博士的录取难度差别就很大了,Master似乎今年发的比较多,但是PhD发的很少,这可能与科研经费减少相关。所以大家可以试试申一些名校的硕士,说不定中彩票了。 如果想读PhD但是录了Master又没给钱,也不要慌张,可以给学校教授套磁,说自己想读PhD,希望做他的RA,一般而言可以通过自己的努力第二个学期或者第二年当上RA,这样就只用付一年的学费,减小很大负担。实在不行还有国家留学基金(CSC)的项目,但是硕士给钱比较少,不过试试总是没错的。

文书与申请

申请文书里最重要的PS和CV,大部分学校都只会让你上传一个PS,当然也有学校PS的形式是问答(如CMU),还有学校在PS之外还会让你上传一个Personal History Statement(比如UCB)。

先讲讲PS,我写PS时候首先找几个学长拿了他们当年申请时候写的PS,主要是为了看看他们如何着墨一些重点内容,我觉得这是一个很好的刚开始写PS时候的方法,先进行第一轮的模仿写作。PS的写作不外乎以下几点:1.介绍自己有多厉害;2.介绍自己为什么适合这个学校;3.写这个学校为什么适合自己。一般而言2、3点比较重要,最好能针对不同学校写不同内容。然后1、2两点要形成逻辑联系,让人看出自己成长和思考的过程。1、2两点的写作还有需要注意的是“客观成绩”和“主观思考”的分配。我在最开始写PS的时候,几乎都在罗列自己干了什么,自己有多厉害。后来与我的再来人Mentor讨论时候,她告诉我PS应该主要表现个人思考,客观成绩的罗列在CV上已经很明显,不需要再重复一遍。我觉得非常有道理,后来在Mentor的指导下进行了PS的两三轮修改。

CV的套路也是先找学长的资料,看看他们会写哪些内容,然后再来人会给你一个模板,照着先写。我第一版CV内容很多,而且语言不简练,后来给导师修改之后,整体的排版和语言都变得非常精炼,个人非常满意!

申请填表时候最好认真一点阅读要求,比如UCB让填导师名字的时候,会先让你写Last Name,后写First Name,如果这个没认真读填反了想想也挺尴尬的。

申请过程中套磁一直是一个有争议的话题。很多人靠套磁获得心怡的offer,也有人觉得套磁没啥用。这其实取决于你要申请的学校是committee制还是导师定人,如果是committee制度,那么除非套磁老师在committee里,不然作用真的不大。我发的套磁邮件主要内容是问问导师明年是否招博士(这个其实还是有必要的,最好提前问一下),然后说对他的研究感兴趣。收到的回复大概都是,我们招学生,欢迎你来申请,没有接到什么面试的邀请。大概是因为我申的学校几乎都是committee说了算,UCB的老师甚至明确说他们入学之后一年才选导师,让我先申请。所以我对套磁的态度是:申PhD问招不招学生还是有必要的,不要寄希望于发个邮件就能帮助你录取,话不要说死,不然放鸽子会很没礼貌。

申请提交结束后,很可能会有面试环节。我整个申请只收到2个面试,两个老板都是之前清华土木的校友,所以我面试时候比较随意。还是希望大家认真准备一下。第一步是好好调试自己的Skype设备,我第一场面试就skype语音声音极小,后来可能因为这样效果不太好CMU给降了硕士。第二步是准备一些高频的提问回答,比如:自我介绍、为什么选择某个项目、介绍自己的某段科研经历。科研提前准备一个Research Summary的ppt,这样到时候讲起来还可以拿出ppt来讲。

申请结果与感悟

申请结果如下

Project Results
MIT M.S.T.  Offer with RA fellowship
Cornell Trans. Sys. PhD Offer with RA fellowship
CMU CEE-AIS M.S.    Ad with $10,000/year
MIT M.C.P.  Reject
UCB Trans. Eng. PhD Reject
Standford CEE-SDC PhD   Reject
等待申请结果的过程真的很漫长,第一个offer是CMU给的硕士,5000美金不免学费其实和没钱没啥区别。当时不是很理解为什么CMU给降了硕士,想想可能是面试表现太差了,所以这个offer对我来说和拒信没多少区别。后来收到了MIT MCP的拒信,可能是我的背景和城规不匹配吧,然后一度陷入失学的恐慌,相当于先出的两个结果都是拒信。一直从三月初等到三月末,收到了Cornell的面试邀请,面试后第二周顺利拿到全奖offer,告别失学恐慌。不过内心依旧在等MIT的结果。 后来有一天早上起床,收到MIT老板的邮件,内容非常短,大概是“我有你申请的消息,明天skype聊一下”。那时候真心感觉要凉了,想想如果被录了,老板应该会先发:congratulation,然后再聊之类的,所以很担心是被拒了老板来安慰我。后来发现是我想多了,我老板就是这样一个神秘的人,专门要skype给我说congratulation,然后说skype是为了跟我说有奖学金,不用担心钱,专心科研就可以。那天早上聊完之后巨开心,后来收到正式offer,开心到了现在。MIT的交通申请今年尤其激烈,以前招20-30人,今年只招10个,录我其实非常悬,几乎全靠我老板强烈推荐,所以感觉去了之后一定要好好干活才行啊!
In-Memory Compute Architecture for One-Shot Learning Applications
Deep learning workloads have been moving from cloud to edge, due to real-time requirements, bandwidth challenges, and privacy concerns. Today’s edge computing solutions mainly provide inference capabilities. Yet, more complicated and realistic scenarios require ‘learning’ capabilities to meet the fast-changing environments at the user’s end. To realize this goal of delivering machine intelligence at edge, we plan to explore one-shot and few-shot learning, which essentially represent an online learning scenario with rapid acquisition of few unseen examples.
State-of-the-art memory-augmented neural networks (NNs) combine the best characteristics of parametric models (e.g., CNN/LSTM) and non-parametric models (e.g., nearest neighbors). The idea is that features extracted by front-end NNs can be stored in an associative memory, inspired by human’s working memory, where similarity measurement is the key to enabling rapid recall and reasoning for one/few-shot learning.
With the increasing complexity in feature space from multi-media data, hardware acceleration opportunities arise for efficient implementations of associative memories. Our approach is to explore in-memory computing architectures enabled by emerging non-volatile memory (NVM) technologies (e.g., resistive RAM). The unique capability is doing in-situ distance comparison in a non-volatile fashion. At the architecture level, we’re exploring the design spaces of the front-end feature extractor and the associative memories with realistic NVM characteristics, aimed at providing energy efficiency benefits for large-scale datasets.

Reference

  1. 南科大飞跃手册@wjc‘s recommendation
  2. 孙明瑞@n+e’s recommendation
  3. [email protected]

How to make a good perfing of pcie latency

The module is uploaded to the .ko

The script is

rmmod pcie-lat
ruby measure.rb -p 02:00.0 -l 10000 -b 0 -o 0x0
ruby measure.rb -p 02:00.0 -l 100000 -b 0 -o 0x0
ruby measure.rb -p 02:00.0 -l 1000000 -b 0 -o 0x0
insmod ./pcie-lat.ko ids=8086:1533
rmmod pcie-lat
echo 0000:02:00.0 > /sys/bus/pci/devices/0000:02:00.0/driver/unbind
ruby -v
ruby
lspci -nn -s 2:00.0
insmod ./pcie-lat.ko ids=8086
lspci|grep Eth
./measure.rb
make
ls
cd pcie-lat/
git clone https://github.com/andre-richter/pcie-lat

The result is

writing 3σ values (in ns) to file...
[email protected] ~/pcie-lat (master)# ruby measure.rb -p 02:00.0 -l 10000 -b 0 -o 0x0�����������������������������������������������������������������������������������������������������(base) TSC freq:     2294609000.0 Hz
TSC overhead: 28 cycles
Device:       02:00.0
BAR:          0
Offset:       0x0
Loops:        10000

       | Results (10000 samples)
------------------------------------------------------
Mean   |   3764.24 cycles |   1640.47 ns
Stdd   |    314.56 cycles |    137.08 ns


       | 3σ Results (9995 samples, 0.001% discarded)
------------------------------------------------------
Mean   |   3759.46 cycles |   1638.39 ns
Stdd   |     64.10 cycles |     27.93 ns

如何在Python logging.Formatter 格式化

我目前正在尝试居中与👉Python记录器中的日志记录级别字段,输出如下:

[    test_log    ][    DEBUG]  test (color_logger.py:66)
[    test_log    ][     INFO]  test (color_logger.py:67)
[    test_log    ][  WARNING]  test (color_logger.py:68)
[    test_log    ][    ERROR]  test (color_logger.py:69)
[    test_log    ][ CRITICAL]  test (color_logger.py:70)

但看起来像:

[__main__][DEBUG]  test (color_logger.py:67)
[__main__][INFO]  test (color_logger.py:68)
[__main__][WARNING]  test (color_logger.py:69)
[__main__][ERROR]  test (color_logger.py:70)
[__main__][CRITICAL]  test (color_logger.py:71)

有两个问题,

  • funcName 而不是 name

  • 得考虑右对齐和居中

解决方法

import logging

BLACK, RED, GREEN, YELLOW, BLUE, MAGENTA, CYAN, WHITE = range(8)

#The background is set with 40 plus the number of the color, and the foreground with 30
#These are the sequences need to get colored ouput
RESET_SEQ = "\033[0m"
COLOR_SEQ = "\033[1;%dm"
BOLD_SEQ = "\033[1m"

def formatter_message(message, use_color = True):
    if use_color:
        message = message.replace("$RESET", RESET_SEQ).replace("$BOLD", BOLD_SEQ)
    else:
        message = message.replace("$RESET", "").replace("$BOLD", "")
    return message

COLORS = {
    'WARNING': YELLOW,
    'INFO': WHITE,
    'DEBUG': BLUE,
    'CRITICAL': YELLOW,
    'ERROR': RED
}

class ColoredFormatter(logging.Formatter):
    def __init__(self, msg, use_color = True):
        logging.Formatter.__init__(self, msg)
        self.use_color = use_color

    def format(self, record):
        levelname = record.levelname
        if self.use_color and levelname in COLORS:
            levelname_color = COLOR_SEQ % (30 + COLORS[levelname]) + levelname + RESET_SEQ
            record.levelname = levelname_color
        return logging.Formatter.format(self, record)



# Custom logger class with multiple destinations
class ColoredLogger(logging.Logger):
    FORMAT = "[$BOLD" + "%(funcName)s".center(20," ")+"$RESET]["+ "%(levelname)20s" +"]  %(message)s ($BOLD%(filename)s$RESET:%(lineno)d)"
    COLOR_FORMAT = formatter_message(FORMAT, True)
    def __init__(self, name):
        logging.Logger.__init__(self, name, logging.DEBUG)                

        color_formatter = ColoredFormatter(self.COLOR_FORMAT)

        console = logging.StreamHandler()
        console.setFormatter(color_formatter)

        self.addHandler(console)
        return

关于这个世界上的 idea 是否都被 Berkeley 垄断了

听同事在讨论这个牛逼的数据库哪家强的问题。我稍稍搜了下放在内存上的实现。不过感觉受限于内存在46bit的机器VM上最多1T的内存。群里有人说PM是内核4以后的最多内存计算方式。甚至intel发了ddr4接口的 nvdimm 。我上次知道这个东西还是在王春东的课上。所以王老师是个好老师。

这是一个用 nvram 做储存设备的数据库,0202年 Amp lab 年度项目 Redis over nvram. 还有pmdk 这种开箱即用的 API。总之 intel 是下了大功夫的。

相当于重写一遍pmem的底层库,让上层建筑能很好的看不到底下的婆罗门。 pmemkv 有直接 key value 操作的 remove()/get()/remove()

话说我是怎么知道这些东西的。因为王老师讲过,殷老师在做。大概在CA问问题的时候问到了,然后我的boss也同时对这个有需求,我就拿过来用了。

libpmem2写的是真的好, memmove 重写了,甚至用到了avx512的寄存器(其实挺多的,有xmm ymm zmm 16*512*3)。加之现在tiiger lake据说在这个带宽下并不降频,这可以说很优秀了。

顺便之前在睡觉前当助眠曲的东西,一个b站牛逼的c++ up🐖, 我加了他的群以后,很快就有会cpp的人回答我相关问题,比stackoverflow好很多。

感觉中文搜很多东西,会有一个人讲的很优秀。相比来说,英文内容更实际一点,但测试案例这种东西还是比较需要思考的,至少需要看会源码,会动静结合调试代码。如果能从github上搜到就不要自己调,如果搜不到就赶紧自己写一个然后开源。(虽然如果work 佛for companies 还是不要,但还是能以博客的形式发出来,或者以论坛的模式。)

若未来去美国读 nvram 相关的 PhD 也未尝不可。

德扑总结

赌博的艺术

作为一个还没学会概率论的妓院学生,我可能是找死军团。孙老板和Toby 都是Jane Street 大师培训过的任务,就有点瑟瑟发抖的感觉。

还好之前看过GTO的实现,并抄写了一遍强化学习德州Agent,DeepStack: Expert-level artificial intelligence in heads-up no-limitpoker, by Moravcik et al, Science, 2017 。 主体都是先博弈论盲猜一波,再MCTS。

再稍稍学了下后就开始跟各位大脑决战了。 下午5点开始,大概过了半点之后就大概知道各位是什么套路了。卢老板很会bluff,但总会盲猜胜利。雷(然苒)挺女生学霸范的,确实牛逼.

我在明知道赔率大很多的情况下还是输给了邓hz 100 一盘。

什么是无所匹敌的牛逼

终于在朋友圈里能找到几个数学竞赛的一等奖了。一个是2016 福建省集训队的,还有一个是高考上的北大数院。可是quick math 不是很好,现在屈居做了一个optiver 的quant intern。 我感觉在这里的所有知识都是为了更好的赚钱而不是为了世界产生更好的影响做的。但如果无路可走,一定要在这个领域深耕也不是不行。只是感觉未来某一天就就被科技超越。不过如果市场还在,这种职业就不会

之前的比赛让我对高频交易有了比较naive的了解,无论是看book pressure 还是market making。 可以说是有一套没有成为显学的技术在。孙老板就是那种学这个学了数年的经验老狗,可是如果有实践经验的话,也确实感觉孙老板挺有前途的。孙老板是个挺会做人的人,确实是我人生失败的部分。

交友篇

女生的评价体系

对于我最近碰到的四个女生,可以很清晰的看出哪些是乖乖女与世无争感觉的,哪些是有强烈个人意志的。或许是英美基因当中那种冲劲和国内的风气不太一样吧。这和当年的“上海学生圈“很不一样。她们都是有权有势的人,而她们确实是靠自己的聪明才智。至少都能混上北大,牛津,复旦。芒果虽然号称富婆,可是生活脾性感觉不像大富大贵,可至少看上去大家闺秀,还是杭州的,确实不错。如果找不到好男人,没有想法在quant 继续,我觉得很难在上海买房。事实就是这么残酷。

女生在申请上有很大的优势,尤其是那种娇小的女生,可能迎合美国身份政治的想法,我觉得无可厚非,谁不想组里面有个漂亮的,每天认真打扮的,可是要看做什么了,我感觉她们事业线拉不长。

就申请来说,复旦的管院女生就是比清华数学系申请的MFE好很多,一个是UCB的Hauss,还有是哥大的,高下立判,可是卢老板确实看上去很强。就我在B站关注的扁脸猫与午后红茶withLaura. 大概就是两校所在地区的区别。

男士能有多强

虽然quant 给的多,但我觉得给的还不算多,而且确实竞争挺大的,一个数学竞赛金牌进jump这种公司多学个几年,做个好QR不是问题。但他们的薪水能否支持他们在上海买房,大概需要十到二十年吧。人也不傻,为什么不出国混呢。

在一个人所擅长的地方和一个人喜欢的地方努力是有意义的,可是也容易被蒙蔽,为何我爸当时的大学同学打工的现在基本比不过他的原因也在此。

对我的兴趣

我挺菜的,在别人的饭局上都属于最菜的,鄙视链的最底端,被大多数人当成无关紧要的人,我现在在做的事大概就是为这个学校争点名气,可是被又龙哥当成”对自己无用的事“了。大家都不想浪费青春好好学习的时间。确实,我有的时候挺自卑的,也很久没有和女生说话超过十句话,但这种也不算是宅。就是一种对自己菜的表现,我需要认证对我的技术护城河拥有数10w小时的刻意训练。

可是感觉现在的女生眼界都有点高,也许是我表现的不太明显,确实脑残。不过我带的女生第二天就被偷师被三个男的约去cj了,牛逼。有的时候我确实不太近人情吧,不过我已经确定要一生努力奋斗了,不然也不会像小扎一样更新博客了。

work work study study life balance

作为一个超级对学习有持续激情的人,想搞点事情,不满于现状,你也可以说是革命。至少若无return,还是在HPC和sybolic execution 上深耕下去。

不知道在国外的人在show什么

看到之前国外的人show 自己的见闻还是有点小羡慕的,毕竟我已经20年在这个破城市了。我内心还是有想在新地方多走走的想法,可是能力不足以我这么干。

可是疫情开始后的show 就有点作秀了,口罩不带,还在封城的阶段,知道你又要送钱,又要付出生命代价了。

不知道我的知识有多封闭

我之前对欧美文学的观察太少了,连漫威这种描绘美国历史的剧本都没好好看,认真看解读,我觉得是我太闭塞了,还有孟德斯鸠,哈耶克,犹太共产党人的一系列东西,我觉着是自己太傻逼。有点自以为是了。

Approaching GRE

我好像一点都不紧张。

for 芒果

如果还有缘分,我会追上的,可是我还没有钱和资本,也不知道他看不看得上我。也许是我想要有艺术气息,顾家,且被富养的人吧,真没觉得他对我这种中产有什么压力,可是我确实感受到了向上的动力,让身边的人变得更精致,这大概就是我家国情怀的体现。

在我心里有一个更大的picture,只是现在尚不明朗,”待到山花烂漫时,她在丛中笑。“

for 学神

她和我专业有点相近,她有点母胎单身,但却想奋斗的感觉,有点过于激进的表达自己的想法,却总是有点不成熟,这种小局carry不来,可能是年纪比较小吧。

我倒觉得家常便饭,只是有个人在说话的时候我只会在一旁,觉得dhz说的很多时候有点太没有大脑思考了,感觉有点思考的东西,其实是看别人的想法,其实孙老板也是。可能人缘好的人都有这种想法。

所有的关系不过就是利益交换

我还是少参加点这种sb聚会了,浅尝辄止。现在还不是显形的时候,还没有任意增长完我呢。

如果人生也是德扑,需要基本面判断,需要博弈论,需要赌博。我还没有到翻盘的瞬间。如果脑袋好使,比较鸡贼,运气比较好,拿到的再差的牌也能多拿很多钱。

工作以后的作为

打了一个量化交易的比赛,说实话感受到了自己的无能,虽然写代码的能力不错,可是数学比别人上学太多了。果然一个不是拿IMO的物竞大佬不是一个好程序员,可能是最近厉害的人见的太多了。

量化交易比赛

是个对Future Bund 的仿真程序,有点我自己想写的高频模拟市场的味道,可是就是没时间。一开始我们着重于做alpha,主要就是对有的几个feature做Linear regression。也许是那个写的人非常刚愎自用,其实我没有写很多代码,我就帮忙弄弄环境,跑跑back testing, 优化优化速度,还有重构代码。那几天和龙哥闹矛盾,导致我没睡好,所以写出来的代码挺多bug。

两天后交了Alpha,被牛津大佬 Michael Ng 草虐,我们的研判是速度太慢,于是就只搞Market Making。后来又被Quickie的IOC 搞了。咳咳,我们又拿了他们的代码修理了一番,最后拿了个第三。

据许return 说,Alpha is the most important。是我们太菜了。

CPU Affinity

无事发生,就是做做kernel conf 的自动化,写个算法就行。

和其他学校同学的比较。

《夜航船记》说的好,在赴京赶考的路上,总是一个慢慢发现自己牛逼的过程。我觉得我们学校以及我过去十余年最好的培养就是实践。也是jump招我的原因吧。可是我从别人身上学到了很多,至少说的话都很精确,不会产生明显的谬误,且挺实干的,可是有努力的也有天赋型的,有狂野的denghz和东方也有稳重的Polytechinique 的yiran。

我有优点也有缺点吧。只是有的时候有点锉。

有关未来的出路

如果return 我绝壁三年提前毕业。如果没的话,好好考博士。

其yu就靠共勉。