2025-09-合法赚钱就是高尚的(月度小结)孙宇晨的'合法赚钱的高尚性'理念,让我重新审视了自己对财富与价值的认知。本文分享我在公开表达创作与高压工作时的真实挣扎,以及如何在坚持初心与商业化之间寻找平衡,以及我对Q4人生与职业规划的坦诚反思。Chaofa Yuan2025年10月4日大约 9 分钟月度总结自媒体公开表达month-summary
RAG 进化之路:传统 RAG 到工具与强化学习双轮驱动的 Agentic RAG本文深入剖析RAG技术的进化历程,从传统RAG到智能体RAG的全面升级。探索两种实现Agentic RAG的关键路径:提示工程+工具调用与强化学习驱动方法。通过解读企业级项目chatbox和Search-R1,揭示如何让大模型从"被动检索"转变为"主动决策",实现更精准的知识获取与应用。无论你是AI研发工程师还是产品经理,这篇文章都将帮你理解RAG技术的未来发展方向,掌握构建更智能RAG系统的核心技术。Chaofa Yuan2025年10月3日大约 16 分钟hands-on-codeagentLLM
2025-08-孙宇晨真的很值得学习(八月小结)通过学习孙宇晨十年前的课程,我深刻反思了个人成长与认知差距。文章记录了我在高强度工作压力下,于“努力奋斗”与“渴望躺平”之间的挣扎,以及一次与同事的谈话后,对职场规则和未来职业道路产生的全新思考与迷茫。Chaofa Yuan2025年9月10日大约 5 分钟月度总结杂谈chaofamonth-summary
2025-07-忙碌与充实的七月(月度小结)2025年7月月度总结,记录新生命的诞生、工作项目突破、投资回本与内容创作的思考。分享大模型Agent落地经验、平台化视角与自我成长感悟,助你发现Chaofa Yuan2025年8月10日大约 7 分钟月度总结杂谈chaofamonth-summary
Gemini 2.5 Pro 是怎么炼成的?-- gemini 2.5 技术报告阅读笔记与思考深入解读 Gemini 2.5 技术报告,分析多模态、长上下文与思考能力等核心突破,结合个人理解与行业趋势,快速掌握最新大模型技术发展。Chaofa Yuan2025年7月13日大约 10 分钟paper-readingLLMpaper
2025-06-念头通达寻找真正让人幸福的工作,同时分享了在大模型 Agent 落地过程中关于平台化思维和乐观心态的思考,这是一篇关于自我认知升级与工作态度蜕变的月度总结。Chaofa Yuan2025年7月6日大约 5 分钟月度总结杂谈chaofamonth-summary
2025-05-35岁之前赚不到一千万是我的错吗?小镇青年、一直在一线大厂,工作也很努力,学历也不差,一技之长(写代码),也没有离谱投资和创业,但是离赚一千万远得有点离谱。哪怕算上未来的通胀、非线性的增长,甚至出现奇迹般的狗屎运,也几乎无法达到这个目标。所以到底是哪里出了问题呢?Chaofa Yuan2025年6月2日大约 8 分钟月度总结杂谈chaofamonth-summary
自适应快慢思考推理模型(Adaptive Reasoning Model):Qwen3混合思考->字节AdaCoT->清华AdaptThinking深入分析三个快慢思考模型的实现:阿里Qwen3通过SFT实现的混合思考、字节AdaCoT基于RL的帕累托最优化、清华AdaThinking的受限优化框架。详细解读代码实现、训练方法和实验效果,探讨如何让模型在保持准确率的同时减少不必要的思考过程。对于想了解大模型推理优化的读者很有帮助。Chaofa Yuan2025年5月25日大约 16 分钟paper-readingLLMpaper
2025-04-努力不是做好事情最重要的因素努力并不是工作能做好最重要的因素。关键的问题、适当的时机、有效的思考,这些可能都比努力更重要,我真应该多审视一下自己的目标是什么,而不是无效的忙碌~Chaofa Yuan2025年5月4日大约 6 分钟月度总结杂谈chaofamonth-summary
DeepSeek-GRM:Inferene-time Scaling 的 Generalist Reward Model(通用奖励模型)DeepSeek团队提出全新通用奖励模型DeepSeek-GRM,通过Self-Principled Critique Tuning(SPCT)方法实现推理时动态扩展能力。该研究突破传统规则奖励模型的局限,在角色扮演、创意写作等开放领域展现卓越性能。27B小模型效果超越340B大模型,且具备更少领域偏差。文章详解训练策略(RFT+在线强化学习)和推理优化(投票机制+元奖励引导),实验结果证实推理时扩展可显著提升效果,这是 DeepSeek-R2 的前兆吗?Chaofa Yuan2025年5月3日大约 10 分钟paper-readingLLMpaper