如何看待2020年初,量化对冲基金巨头AQR裁员10%

想不到之前的回答也收获了一些赞同,于是我就再多说几句。

其实直到2017年初,谁也没有想到美股的量化策略会流落到如此尴尬的境地。Credit Suisse的一项研究指出,从金融危机后起算、直到近四五年之前,量化策略平均来看确实跑赢了以基本面分析为基础的主观选股策略。我在平时做研究、做回测时也常常会发现,一些简单得不值一提、基本到都不需要调参,想过拟合都没机会过拟合的量化策略,例如最基本的反转、机构持仓等,在2015或16年之前都是一条直线地往上冲,但是从近几年起忽然就不行了,以至于这几年来每一年都成了人们口中所谓的“量化策略最糟糕的一年”。想必包括我在内的每一个从业者心中,都会有一个问题萦绕不去:为什么会这样?

无论学术界还是业界,都充满着对这个问题的多角度的分析,比如选股信号过于拥挤、portfolio construction做得不好等等,这些说得当然都非常有道理,但是归根结底,我觉得可以用一句话概括,就是当前量化选股的方式难以适应市场的新变化。

光大量化核心基金净值_主动量化基金2018业绩_华商大盘量化基金

在目前的美股市场上,最主流的股票量化策略方式就是所谓的多因子选股。简单地说,就是结合统计模型和数据,给每个股票赋予一个权重值,在横截面上做多高权重股票、做空低权重股票。如果被赋予的权重值对未来收益率有一定的预测性,原则上就能够产生正的利润。比如玩过WorldQuant的在线平台的人会记得,他们有个最简单的示例策略叫”-ret5″,这就是一个最简单又强势的反转因子了。什么意思呢?就是说把每个股票过去五天的总收益率再取个负号作为每个股票的权重值。如果股票市场真的存在短期的反转的话,那过去五天收益率高的股票(取负号后低权重)接下来一天的收益率就应该低,过去五天收益率低的股票(取负号后高权重)接下来一天的收益率就应该高。如果做多高权重、做空低权重,理论上就应该能赚钱。这个信号其实至今在回测中都是有效的,但是换手太快,很难实现,所以可能还没有特别拥挤,但也不能用来赚大钱。

这些年来,多因子选股的框架经受了无数的考验一直坚挺到现在。它的一大优点就是使得整个投资流程能够被系统化、程式化,而不含有玄学的成分:一个纯粹的技术分析家可能某一天会同时看到两只股票到了入场的时候(比如出现了“金叉”),但该分别分配多少资金?入场后自己的仓位面临怎样的风险?在多因子选股的框架下,这些都可以用一套精密而可理解的portfolio construction框架解决。另一优点是可以方便地进行风险因子的对冲,由于因子策略涵盖大量的股票,基金经理可以轻易地略微调整各股票的权重配比,从而在几乎不牺牲alpha强度的前提下摒弃自己仓位中由市场、风格、行业等因子带来的额外风险。当然,涵盖的股票多使得策略的理论容量也极大,从而使更高的杠杆、更多的利润成为了可能。这些都是多因子选股越来越受欢迎的关键原因。现在绝大多数的非量化的股票基金,都会一定程度上引入多因子意义下的portfolio construction框架和风险管理系统,来组合和分析自己的仓位。这也是量化策略的方法论对整个投资界做出的重大贡献。

华商大盘量化基金_光大量化核心基金净值_主动量化基金2018业绩

但是近些年来,多因子策略在美股市场上逐渐暴露出了重大的不足。究其原因,我认为还是之前说的一句话:难以适应市场的新变化。不妨把量化和主观投资做个对比:对于优秀的主观基金经理来说,每只股票、每个季度、甚至每个角度,都能构建出一个“策略“,虽然这个策略比较简单,仅限于”买“或”卖“。比如2019年的亚马逊是一个策略,2020年的亚马逊又是一个策略。疫情前的波音是一个策略,疫情后的波音又是一个策略。主观策略是常做常新的。读过一些研报的人会发现,分析师会为每个股票都分别建立估值模型,并且每个季度都会调整自己模型中所使用的变量。如果一家大型集团开始涉足某个新领域,比如化工,那么基本面分析师立即就能靠自己的经验和判断,把化工行业的相关变量加到自己的估值模型里去,从而应对这只股票的新变化。但是量化策略缺乏这个优势,2010年时-ret5是这么干,2020年时-ret5也一模一样是这么干,只不过数据更新了。这种纯粹的数据更新虽然是会产生不同的交易信号,但新信号却并非来自于新的知识和逻辑,无论数据如何更新,只要策略的构建方式不变,再好的策略也会逐渐被越来越多人发现和模仿,从而导致失效。有些策略——尤其是量价类的策略——并不会完全失效,这种策略被很多学者认为是因为投资者有某种不可能完全去除的”behavioral bias“而存在,但依然会因越来越拥挤而呈现出log型的收益率曲线,或者波动率和回撤越来越大。诚然,不同的量化基金经理实力高低有别,同样的数据到手,有些人能把Sharpe做到3,有些人就只能做到1.5,还有些人什么都做不出来放弃了。但是归根结底,只要使用同样的数据源、同样的理论基础,他们的仓位本质上不会差得特别多。比如同样都是用基本面数据做个价值策略的话,再优秀的团队也不可能把特斯拉划分到价值股吧?很多仓位还是差不多的。现在价值因子不好使,那还在做多价值因子的团队再厉害,也难免亏钱的命运。如果遇到2019年末或者2020年初,大量基金同时去杠杆/平仓导致市场反向的情况,即使你的逻辑略优于对手,也不太可能逆势赚钱。

怎样才能避免因子策略的拥挤?最简单的方法当然是使用更多、更新的数据来建立策略。这也正是目前各大基金正在积极进行的任务。但是我个人觉得,短期还好,长期前景是比较悲观的。多因子策略对数据的要求非常高,其原因就像我们刚才说的,每个股票都要能赋予权重,所以想使用的数据得是对每个(至少数百个)股票都能计算出同一类数值的,这样的数据其实不多。对于基本面投资经理来说,不需要这样的数据,他们可以收集行业、产品相关的数据,然后自己思考行业数据与自己在看的股票的内在联系。但是量化基金经理恐怕必须要每个股票都能算出一个值的面板数据集才能使用。比如说能源行业的油价数据,或者工业板块的金属采集量数据,这些数据都是属于一个行业但不属于特定股票的,基本面基金经理在熟悉一家公司的前提下,可以自己分析出这些行业数据对这家公司的影响方式,但是量化基金经理一般做不到利用这种数据为不同股票赋予权重,因为不同股票依赖行业变量的方式千差万别,很难用系统化、程序化的方式表达。再打个比方,这几年alternative data的概念非常火,比如信用卡数据、卫星图像数据等等。但是真正在细看这些数据的还是基本面基金经理,做量化多因子的人真正把这些东西用起来的不多,因为信用卡数据主要是针对于消费板块的股票,只涵盖一两百支;卫星图像数据则不是每只股票一个值的数据类型,所以更加难用。

华商大盘量化基金_主动量化基金2018业绩_光大量化核心基金净值

其他的alternative data有很多也类似。量化基金经理不能及时地、高效地使用它们,这也就是我之前说的,难以适应市场新变化。当然,这些年来也出现了很多很多量化投资者能用的新数据(大多来自于broker),但是我个人的感觉是,这些数据的附加值总体上越来越有限,能提供的信息量也在减少,真正大容量、高收益的数据集还是七八年前的那几种。我随便举个例子,炒美股的人都知道,short interest是个广为周知的策略,具体可以参考Asquith, Pathak, and Ritter (2004), 也就是去做空那些被市场中的投资者们做空得最厉害的股票。这个策略曾经非常赚钱,但现在基本上彻底失效、甚至变成负信号了。其实SI策略背后的金融理论非常坚实,一来short interest本身就代表investor sentiment, 二来highly shorted stock能继续做空的空间比较小,所以看多的投资者会占当前价格的主导地位使得股票暂时被高估,期望收益就会为负,这种经济含义很强的信号按理说不该失效,但现在愣是变成一个负信号了,传统量化因子的拥挤可见一斑。关于金融数据的演变,以此为例,十年前,数据公司会提供每只股票被做空的总量,根据这个比例就能构建short interest策略。

现在的话,可能已经有公司能够提供分笔的做空数据,即告诉你这只股票每天被多少人做空了,每个人做空了多少,也就是把做空的总量给拆分了。这种分笔数据当然很新,很有趣,但是在目前short interest是个无用信号的前提下,想从这种分笔数据中做出依然保持高收益的好策略,其实是很难的。能适用于上千支股票的大型面板数据其实相当少,这种新数据集增长的速度也并没有想象中那么快——毕竟金融市场中的信息类型总共也就这么多,在量化策略难以直接利用非”stock-specific”的行业数据、宏观数据的前提下,数据的增长终归是有限的。想摒弃已经失效的传统策略,用新型的数据彻底更新自己的投资组合,对于量化基金经理来说是个绝大的难题。

主动量化基金2018业绩_华商大盘量化基金_光大量化核心基金净值

另一方面,传统的quantitative portfolio construction(胡乱简称为QPC好了)也正在显露其弊端。虽然我们提到了QPC的优势、以及它正在逐渐被非量化的基金采用,但并不意味着它没有问题,相反地,从2020年的情形可以看出它的问题越来越大。所谓的portfolio construction,就是指将原始的alpha(股票&权重值)转化为合理控制风险且附加值最大的投资组合的过程。刚刚入门的从业人员往往会觉得QPC都是末节,用好的数据做出厉害的alpha才是最重要的,其实大错特错。QPC如果真细究起来,其复杂性绝不低于做alpha. 打个比方,市场因子肯定是要对冲掉的,那动量因子要不要对冲掉,价值因子要不要也对冲掉,行业要不要也对冲掉?如果某一天策略中的一个重头股票因为流动性等原因没能买到,剩余的钱怎么分配给其他股票?这些都是问题。从今年的情况看,量化基金的一大问题还是风险因子的对冲不够精细,应对不了现在乱成一团的市场行情。传统的QPC使用的一般是线性对冲掉风险因子,但当风险因子的tail上出现问题时这样做是不够的。打个比方,如果今天的动量因子是(AAPL, AMZN, FB)=(1, 1, -2), 而我的信号是(2, 1, -3), 如果我线性对冲掉动量因子,那我剩下的组合就是(0.5, -0.5, 0). 如果这时候动量因子大跌,而且各成分不是同步涨跌,而是只有一个tail上的股票崩了,例如AAPL崩了50%,AMZN和FB股价不变,那我的组合就亏了25%. 在我看来,我已经把动量因子给对冲掉了呀?那我亏的25%怎么解释?在线性模型下,这只能解释成纯alpha的亏损,没办法分析和提升了,但这本质上并不是纯alpha, 而是我持有了非线性(更高次项)的动量。

这其实就是线性对冲的不足。就我所知,大多数的量化基金没有很好地深入这方面的研究,今年风险因子如此混乱的情况下就不免遭受重大的损失。市场中性的量化多因子一般都是通过大量的independent bet获得正的收益率,再用高杠杆放大收益,单个信号的强度和预测能力远低于基本面选股(用专业一点的话说是IC比较低)。按现在的行情,美股hedge fund里做多因子的团队能把Return on GMV(即PnL除以加杠杆后的投资组合体量)稳定做到1%以上就算是人才(如果加的是10倍杠杆,那return on capital就有10%了),做到3%以上就是业内顶级玩家了。这么低的收益率,如果因为对冲没做好而没能消除在表现不好的风险因子上的暴露,那收益可能瞬间就变负的了。

华商大盘量化基金_光大量化核心基金净值_主动量化基金2018业绩

回到题目中的问题,AQR和WorldQuant都是多因子投资的大号玩家,所以我相信上面提到的问题一定程度上也是这两家公司所面临的问题。不过这两家特殊的公司也都有一些独有的问题。对于WorldQuant来说,许多答主都指出他们的网络研究平台Websim带来了极大的过拟合风险。但是就我所知,Websim只是他们众多的研究方式之一,WQ内部还是有很多正规的、传统的基金管理团队的。但是从这种模式中,或多或少可以看出这家公司对以量取胜的海量alpha的偏爱。但是当数据源有限时,这种挖掘百万alpha的方式确实颇为危险。对于AQR,有不少答案也都提到了他们对传统因子——诸如价值、动量的喜爱。创始人Asness也在各个网络平台上不懈地为价值因子进行辩护。我个人觉得,这可以算是不适应市场新变化的一种极端体现了。Asness的主要论点就是价值因子目前估值非常低,因此值得入场,但其实估值低不低和值得入场并不是一回事。如果价值股真的不值得入场,那估值之后也会越来越低。最好的办法还是干点别的。

高票答案提到了AQR对金融、经济出身的偏爱,我不知AQR目前是否依然如此,但对其论点深感赞同。刚刚从业时,我也常常感到困惑:到底是理工科背景适合做量化,还是金融背景适合做量化?我个人既学过理工科,也上过很多门金融PhD的课程,在工作中既感觉到过自己统计/编程知识不足导致的低效,也感觉到过自己金融知识的匮乏导致的局限。但以我目前的体会,现有的、能赚钱的量化策略其实大多并非基本面分析型的策略,金融经济知识是重要的,但非金融出身未见得就不能做得好。面对各种奇奇怪怪的数据集,最重要的武器还是拥有开阔的思路和敏锐的思维,从而看透数据的本质和其背后隐藏的规律,理工科的学生在这方面依然颇有优势。除此之外,第二重要的我认为就是编程能力。在工作中我也无数次遇到过这种情况:脑海中蹦出来了一个非常放诞、新奇,甚至有点狂野的想法,但细想感觉代码太难写,真写的话说不定会花一星期最后还不一定有用,于是不了了之的情形。试想我如果能3小时就写出来,我肯定会愿意试试。但是以现在这种市场行情,简单的逻辑肯定拥挤,拥挤的结果就是亏钱,只有细致、复杂、别人做不了的逻辑才能赚钱,如果因为编程水平不足,导致明明想到了好想法却做不出,那是非常可惜的。所以说,强大的编程能力能够极大地提高工作效率,使得自己有能力实现罕有人实现过的新奇想法,并且同样的时间内更轻松地验证比别人多得多的想法,这对好的研究员来说是很重要的。金融经济的PhD理论和实证能力是非常优秀的,但就我个人的浅见,编程方面或许比理工类的优秀学生略有差距。而对公司来说,只注重理论,不注重工程实现,所导致的劣势更是致命的。

下面是原答案:

今年mid-frequency quant equity着实不太好做,但AQR从两年前开始就一直没有起色,我觉得一定程度上是因为他们做的factor investing太传统了,估计有很大一笔钱都还放在非常古老的value之类的factor上,现在随着市场越来越拥挤,这些传统quant factor早就不好使了。其实连新signal都很不好做,虽然市场上几乎每个月都会有新的dataset出现,但是说实话,这个世界上可供使用的金融信息的理论上限就是有限的,data不可能无限地爆炸增长,现在新dataset的趋势就是越来越详细化、但容纳的universe越来越小,比如以前某种投资者行为大家都只有aggregated number,现在可能有的data vendor开始提供transaction level number,但与此同时涵盖的股票变少了,诸如此类,这样的信息虽然也不错,但是能提供的新alpha其实有限。所以靠着新的dataset的高人一等的处理手法,实力高超的quant team还能再坚挺一阵,但我个人是不相信这种做法能持续一个新quant的整个职业生涯,比如直到40年后的,到时候新data的产出速度肯定已经大幅慢下来,获得additional value的机会越来越少,因为金融市场上能用数据表达的信息总共就那么多,注定有一天是要挖到头的。对于那些已经四五十岁的老兵,或许这无关紧要,过段时间就退休了;但是对于刚刚入行的新手quant,二三十年后该如何恰到饭,为此该怎样有意培养自己的技能,我觉得是必须思考的问题。而且如今大fund都有成熟的data sourcing团队,对市场上有哪些data vendor了如指掌,任何vendor卖的data都不可能只有一家fund买,即使是新dataset,大家一拥而上抢着用,效果也就不那么好了。

未经允许不得转载:原子财经网 » 如何看待2020年初,量化对冲基金巨头AQR裁员10%

赞 (0) 打赏

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏