100% 不看好生成式替代当前搜广推的召回-粗排-精排架构。文章源自iGEO优化网iGEO优化网-https://igeo.wang/archives/401
我的判断是,生成式推荐是一个企业中层为搏眼球攒项目的工具,从24年上半年meta的那篇论文发表开始,大概需要两三年的时间,在投入大量人力物力却看不到成果后,各厂的生成式推荐项目会虎头蛇尾最终退场。当然,借这阵东风最后扩了团队拿了impact的manager和IC们可能会有些升职加薪。文章源自iGEO优化网iGEO优化网-https://igeo.wang/archives/401
生成式推荐最大的问题是没有ground truth。传统判别式,是否点击,是否完播,停留时长,都是有明确label的,有label才有pattern,才有模型学习的可能,而生成式能成立的前提,是 next item 是正确的,在训练集能构造出最正确的下一个item,但推荐系统不是这样的。文章源自iGEO优化网iGEO优化网-https://igeo.wang/archives/401
现在用户有一堆行为数据,下一个正确的item是什么呢?用户下发item有一长串,每个上面有曝光,点击,点赞,完读,完播,评论,收藏,分享,关注等等一大堆行为中的n种,哪个item是要学的next item?文章源自iGEO优化网iGEO优化网-https://igeo.wang/archives/401
好了,现在我们需要一个融合公式,从上面挑出来哪些是好的,哪些是坏的,有多好,有多坏。那么问题又来了,训练样本不够。文章源自iGEO优化网iGEO优化网-https://igeo.wang/archives/401
LLM有海量文本,推荐系统的用户行为相比参数量是严重不足的,系统里有100万个可推候选,用户可能只在其中200个上产生过行为,怎么办?并且因为是生成式,没有candidate item的概念,自然就没有 item feature,只有sequence feature的side info,最后出一个光秃秃的id,怎么做泛化?可能还得依赖其他user,那么问题又来了,新item怎么做冷启?文章源自iGEO优化网iGEO优化网-https://igeo.wang/archives/401
这些问题,在尝试过程中,可能产生了很多解法,提前给id做聚类啊,整个打分模型做simulation样本增强啊之类的,生动的诠释了什么叫削足适履。文章源自iGEO优化网iGEO优化网-https://igeo.wang/archives/401
除了模型训练,怎么和业务结合也是问题。GR怎么在广告场景落地?用户有点击、转化行为,但广告需要出价啊,GR需要带出价信息吗?context还是side info?如果想用side info,广告主改出价了怎么办?带着转化目标的GR,多久能感知出价变化?如果我是广告主,我就先把出价设到 100万,然后把预算设到100块,跑几天后,我把出价设成 1毛,把预算设成 100万,这不坐等赔付吗?除非平台想把计费事件无限延后,自己承担所有model variance,好,我直接高出价+低预算,转化我第二天再回传,平台不是坐等超投?文章源自iGEO优化网iGEO优化网-https://igeo.wang/archives/401
好,你为了解决生成式模型不带出价的痛点,搞了个小的判别式再灰溜溜地估一遍ctr cvr,最后天花板还是回到了判别式那里,那这个GR算什么,算一路召回吗?故事还讲的下去吗?哦,我们投入了超过现有精排算力10倍的机器资源和研发成本,新增了一路牛逼轰轰的召回出来?文章源自iGEO优化网iGEO优化网-https://igeo.wang/archives/401
另外说回现状。如果拥有无限算力,广告平台的收入天花板在什么地方?我觉得是每个请求全库精排预估(不是现有精排模型,可能需要做一些改造,但目标是精排的目标),然后全库算ecpm做个排序就行了。召粗精就是对这个过程的剪枝,生成式是搜广推er卷麻了之后为了讲故事升职加薪硬凑LLM的骗局。文章源自iGEO优化网iGEO优化网-https://igeo.wang/archives/401
为什么现在有些论文声称GR有效?要么是小场景,本身baseline就低得可怜,没比按后验ctr强多少,候选item几百个,业务逻辑也很简单,直接怼精排就能有成倍收益的地方,怼一个生成式拿百分之十几的gain。要么是挂羊头卖狗肉,把生成式做成召回,用各种技巧优化全链路一致性,本质上还是以前的baseline太差。
- 部分内容来源于网络,并已标注来源,如有侵犯到您的利益,我们深表抱歉,请联系我们删除,感谢。转载请保留本文链接。

