Google DeepMind近期发布了一项突破性研究,提出了一种名为BlockRank的新型AI搜索排名算法。该算法旨在革新现有的语义搜索能力,通过优化大型语言模型(LLM)在信息检索中的效率和准确性,使先进的搜索技术触及更广泛的用户群体。
BlockRank的核心创新:In-Context Ranking (ICR)
BlockRank基于In-Context Ranking (ICR)技术,即利用LLM的上下文理解能力对网络页面进行排名。传统的ICR方法在处理大量文档时会面临计算成本急剧上升的问题,因为LLM需要“关注”文档中的每一个词及其相互关系,这使得随着文档数量增加,处理速度呈指数级下降。
解决效率瓶颈:BlockRank的开发机制
为了克服这一挑战,研究人员深入分析了LLM在ICR过程中注意力机制的使用模式,发现了两个关键的优化点:
- 跨文档块稀疏性(Inter-document block sparsity):模型在比较文档时存在冗余计算,因为并非所有文档间的比较都对最终排名有用。
- 查询-文档块相关性(Query-document block relevance):问题的某些部分已经明确指向了最相关的文档。
基于这些洞察,研究团队重新设计了模型处理注意力和训练的方式,由此诞生了BlockRank。该算法能够大幅减少不必要的比较,并引导模型聚焦于真正能指示相关性的信号,从而显著提升了效率。
BlockRank的性能验证
研究人员在三个主要的基准测试中对BlockRank进行了评估,并使用了一个70亿参数的Mistral LLM。结果显示,BlockRank在MS MARCO和Natural Questions基准上表现与现有先进排名模型(如FIRST、RankZephyr、RankVicuna)相当,甚至略有超越,而在BEIR基准上表现更优。
研究报告指出:“在MSMarco和NQ上的实验表明,BlockRank(Mistral-7B)在匹配或超越标准微调有效性的同时,在推理和训练方面效率显著提高。这为基于LLM的ICR提供了一种可扩展且有效的方法。” 尽管这些结果目前仅针对Mistral 7B模型,但其潜力已初步显现。
BlockRank的潜在影响
BlockRank的研究成果表明,通过提高ICR的效率和可扩展性,可以显著降低高级语义检索的计算门槛。研究人员认为,这将“普及强大的信息发现工具的可及性”,从而加速研究进展,通过提供更快速、更相关的信息来改善教育成果,并赋予个人和组织更强的决策能力。此外,更高的效率也意味着更低的能源消耗,有助于推动更环保的AI发展。
目前,尚无公开信息表明BlockRank已被Google应用于其实时搜索环境中,其与AI Overviews等功能的具体关联也未明确。然而,这项技术的进步无疑为未来的信息检索和AI驱动的搜索体验描绘了新的可能。







