GraphRAG俨然已经成为了一种新的技术路线;虽然类似的技术还有很多不成熟的地方。前几天发现,学术界已经有关于GraphRAG的综述出现了[1],链接在文末,供大家参考。
不过今天我们要讨论的重点不是这个。我想跟大家聊一聊:沿着GraphRAG的思路,在LLM的时代,信息可能以什么样的方式被重新组织?
未来何时到来,取决于我们能以多快的速度生成 token。
随着GenAI的发展,我们迎来了一个崭新的技术时代。然而,由于LLM庞大的参数规模,在现代的AI系统中,LLM的推理 (inference) 性能就成为一个格外重要的技术问题。提升LLM推理的性能,更快地生成token,同时也意味着运营成本的降低。
在基础模型之上构建AI智能体 (AI Agent[1]) ,是过去大半年来非常引人注目的话题;甚至有人把AI智能体称为大模型领域的下半场。今天,我们把目光锁定在企业内部,针对B端落地场景探讨一下AI智能体可能存在的一些形态。
Transformer[1]是一个划时代的发明。可以说,它奠定了现代大语言模型 (LLM) 的基础。要想深入一点理解当代AI的发展,Transformer是绕不过去的一个概念。因此,本文试图做一个深入浅出的科普,希望任何一名软件工程师都能够看懂。
2023年是AIGC的“宇宙大爆发”之年。大模型 (LLM) 相关的技术经历了飞速发展,迭代速度之快,到了令人眼花缭乱的地步。
简单总结下国内的情况:2023年上半年,算法专家们比拼的是谁先把模型训练出来;到了2023年过半的时候,人们开始追求模型的参数规模,百亿参数只能算是起步。而当人们开始着手基于大模型构建AI应用时,RAG和Agent技术便先后获得了极高的关注。
这是一个内卷化严重的时代。
在两年前的文章中《在技术和业务中保持平衡》,我把技术人员的开发工作归成了两类:「业务开发」和「专业技术开发」。今天,我们再回过头来仔细审视一下其中的「业务开发」工作,聊一聊这类工作中所需要的抽象思维能力是怎样的,以及怎么培养这些能力。
正在阅读本文的读者们,可能之前已经读过了我写的有关线性一致性、顺序一致性以及因果一致性的分析文章。这些一致性模型的关键在于,它们定义了一个系统在分布式环境下对于读写操作的某种排序规则。