自然语言处理为何一直都有科研经费?因为一直都难以商用,误差太大,所以需要一直研究。研究一旦成熟,剩下的就是工程师的活,跟研究人员没啥关系了。
现在很火的强化学习,有着简单易用的python包可以调用,比如pyTorch之类的。要知道2009年我学习这方面的时候,那时候还是叫作Approximate Dynamic Programming,那都是全部要自己写的,甚至还要用C++写,没有任何包可以用。简单的一个俄罗斯方块,都要斯坦福博士、麻省理工助理教授才能解决,现在估计普通本科生都可以解决了。
所以说,量化交易这活,现在工具多了,高中生都能干,为何要博士生呢?
我承认高中生、初中生、小学生甚至幼儿园学生也可以跑线性回归,都是代公式计算,有现成的计算机软件,输入Excel也能跑。但如果是Garbage In、Garbage Out,其实也没啥用。哪怕堆了一个操场的GPU,最后还是越跌越买。
有时候招博士,他们的技能可能并不会比硕士强多少,但研究严谨性或许强不少。博士好歹读了很多论文,这些论wen都是有同行评议的,总体上还是比较严谨的。另外自己可能也有发表论文的经历,也会跟审稿人扯皮,这些也是能力的一部分。一般硕士生可能没这么多这些系统性的训练。
文艺复兴甚至喜欢招大学教授,因为这些人经历过严谨的科研训练,哪怕是纯数学的教授,自己没有数据分析、编程的经验,但这些技能都可以慢慢学,只是严谨的科研能力没法短期内学会。或许这是一种critical thinking的能力吧。
现在的人们喜欢问什么模型有用,深度学习有没有用,强化学习有没有用,说实话,这些问题,层次太低。这些本质上都是工具,关键并不在于工具有没有用,而在于使用工具的是什么人。像David Donoho这种,学术界研究调和分析、小波分析、压缩感知的,他也说过“理论上的东西可以很漂亮,但现实世界是肮脏的”。因此,等他自己到了文艺复兴工作的时候,也需要入乡随俗,未必完全套用之前自己熟悉的工具,而是要根据具体的问题具体分析,或许真正有用的只是普通的线性回归。