从韦小宝谈起:道德底线与普通人的善恶观


前段时间,终于把《鹿鼎记》读完了。全书很长,个人时间又不固定,所以断断续续地读了好几个月。如果依照年轻时的个人好恶,我大概不会翻开这本书。记得小时候,武侠电视剧深受我和小伙伴们的喜爱,不管是《神雕侠侣》、《射雕英雄传》还是《天龙八部》,总能让人看得津津有味。唯独《鹿鼎记》在电视上播放的时候,真是提不起什么兴趣。满身都是毛病、武功又差的韦小宝,哪里比得上杨过、郭靖、萧峰诸位大侠的快意恩仇和家国情怀!

阅读全文 »


从GraphRAG看信息的重新组织


GraphRAG俨然已经成为了一种新的技术路线;虽然类似的技术还有很多不成熟的地方。前几天发现,学术界已经有关于GraphRAG的综述出现了[1],链接在文末,供大家参考。

不过今天我们要讨论的重点不是这个。我想跟大家聊一聊:沿着GraphRAG的思路,在LLM的时代,信息可能以什么样的方式被重新组织?

阅读全文 »


技术变迁中的变与不变:如何更快地生成token?


未来何时到来,取决于我们能以多快的速度生成 token。

随着GenAI的发展,我们迎来了一个崭新的技术时代。然而,由于LLM庞大的参数规模,在现代的AI系统中,LLM的推理 (inference) 性能就成为一个格外重要的技术问题。提升LLM推理的性能,更快地生成token,同时也意味着运营成本的降低。

阅读全文 »


企业AI智能体、数字化与行业分工


在基础模型之上构建AI智能体 (AI Agent[1]) ,是过去大半年来非常引人注目的话题;甚至有人把AI智能体称为大模型领域的下半场。今天,我们把目光锁定在企业内部,针对B端落地场景探讨一下AI智能体可能存在的一些形态。

阅读全文 »


白话科普:Transformer和注意力机制


Transformer[1]是一个划时代的发明。可以说,它奠定了现代大语言模型 (LLM) 的基础。要想深入一点理解当代AI的发展,Transformer是绕不过去的一个概念。因此,本文试图做一个深入浅出的科普,希望任何一名软件工程师都能够看懂。

阅读全文 »


对于2024年初的大模型,我们期待什么?


2023年是AIGC的“宇宙大爆发”之年。大模型 (LLM) 相关的技术经历了飞速发展,迭代速度之快,到了令人眼花缭乱的地步。

简单总结下国内的情况:2023年上半年,算法专家们比拼的是谁先把模型训练出来;到了2023年过半的时候,人们开始追求模型的参数规模,百亿参数只能算是起步。而当人们开始着手基于大模型构建AI应用时,RAG和Agent技术便先后获得了极高的关注。

阅读全文 »


内卷、汉明问题与认知迭代


这是一个内卷化严重的时代。

阅读全文 »


谈谈业务开发中的抽象思维


在两年前的文章中《在技术和业务中保持平衡》,我把技术人员的开发工作归成了两类:「业务开发」和「专业技术开发」。今天,我们再回过头来仔细审视一下其中的「业务开发」工作,聊一聊这类工作中所需要的抽象思维能力是怎样的,以及怎么培养这些能力。

阅读全文 »