9. LangChain 6大核心参数详解 + 代码实战,看完就能直接用

博主头像 在使用 init_chat_model 构建大模型应用时,为了适配不同的业务场景(如本地模型调试、第三方代理接入、创意内容生成、高并发接口调用等),我们通常会将最核心的 6 个参数放在 **kwargs 里透传,精准控制接口请求、鉴权及模型生成效果。 喜欢看文章的接着往下看,习惯看视频的看这里《9. ...

大模型基础(四):强化学习入门-从斯金纳箱到大模型推理

博主头像 2025年图灵奖颁给了强化学习的奠基人Richard Sutton和Andrew Barto。为什么强化学习如此重要?它如何从训练老鼠变成训练大模型?这篇文章带你一探究竟。 一、一个老鼠实验引发的革命 1.1 斯金纳箱:强化学习的源头 1930年代,心理学家斯金纳做了一个著名实验: 实验过程: 把一 ...

P.3简易贪吃蛇

博主头像 Snake Game 一个使用C++实现的控制台简易贪吃蛇小游戏,刚开始做项目训练。 使用方式 使用W,S,A,D来实现上下左右移动,Q退出,P暂停。 注意事项 要C++ 11或以上的版本 作者是在读大学生,如果你对我的代码有任何问题或优化方法,请务必告知❤️❤️ 代码 #include <iost ...

PREEMPT_RT 技术实现:Threaded interrupt handler

博主头像 中断线程化,使得高优先级的中断变成了普通的内核线程,和其他程序共用CPU,通过优先级来决定谁能够获取CPU的使用权。将一些不重要的中断改在线程中执行,只要RT任务优先级比中断线程优先级高,就可以优先执行,以此来提高系统的实时性能。 传统主线内核默认中断行为 普通硬中断上下文:关闭硬件中断,同时隐式禁 ...

深度学习进阶(十五)通道注意力 SE

博主头像 至此,在之前的内容里,我们已经介绍了传统卷积网络和 Transformer 架构两条路线在 CV 任务中的发展研究。 实际上,我们可以这样总结一下: 无论是 Transformer 的注意力机制,还是 CNN 的诸多创新,它们其实都在回答同一个问题:模型应该关注哪里(空间)和关注什么(通道)。 也可 ...

为 openclaw.net 集成 ElBruno.MempalaceNet 记忆系统

博主头像 为 openclaw.net 集成 ElBruno.MempalaceNet 记忆系统的核心思路是:利用其 Wing-Room-Drawer 三级空间模型 实现对话历史的语义化组织,通过 向量存储 + 混合搜索(RRF 融合) 解决检索精准度衰减问题,借助 时序知识图谱(ValidFrom/Vali... ...

AScript之eval函数详解

AScript是一个开源的C#动态脚本解析执行库,内置的eval函数可动态执行字符串脚本,在python脚本中对应的是exec函数。 一、示例 1 Console.WriteLine(new Script().Eval("int n=10;eval(\"n+20\")")); // 30 2 Con ...

ffmpeg里使用的解码器的介绍和了解

博主头像 av1 AOMedia Video 1 (AV1) decoder是一种开源、免专利费的视频编码格式,由AOMedia(开放媒体联盟)开发。AV1旨在提供比现有的视频编解码格式(如H.264/AVC和HEVC)更高的压缩效率,同时保持高质量视频的传输。关键特性:AV1支持8K分辨率视频,帧率高达60 ...

大模型基础(三):大模型是怎么炼成的-从预训练到强化学习的完整流程

博主头像 你有没有好奇过,ChatGPT是怎么从一个只会"预测下一个字"的语言模型,变成能理解你问题、给出优质回答的智能助手?这篇文章带你一探究竟。 一、引言:大模型的"成长之路" 想象一下,如果要把一个孩子培养成优秀的作家,你会怎么教? 读书识字:先让他阅读海量书籍,掌握语言的基本规律和知识 练习写作:教他 ...

PREEMPT_RT 技术实现:local_lock

博主头像 内核锁在PREEMPT_RT中的实现变化 内核锁分为三类:睡眠锁、CPU本地锁、自旋锁,PREEMPT_RT 会改变部分锁的类型与语义。 睡眠锁 只能在可抢占任务上下文获取,尽量不要在中断/禁止抢占上下文使用。 包含:mutex/rt_mutex/semaphore/rw_semaphore/ww_ ...

ReadMe_33岁_园龄14年_女程序员

博主头像 好久没见,我的老朋友,博客园 登陆这个帐号发文是因为,昨天闲逛被博问里一个问题气到 - 问题是“AI这么发达,学习编程,手写代码到底还有没意义” 我先是在flomo里激情创作敲下答案,复制过去发现新帐号第一天不能回复 - “有意义,至少能少一些不清楚的问题” 日记里太多情绪化的东西就不再贴出,只重构 ...

决策树和算法下界:为什么排序逃不开 nlogn?

博主头像 在学习算法时,我们肯定会关注效率。于是我们会分析时间复杂度,比如 \(O(n)\)、\(O(n\log n)\)、\(O(n^2)\)。 但这只是算法分析的一半。另一半问题是:这个问题本身最快能做到多快?也就是说,在某个给定的计算模型下,不管你设计什么算法,它都不可能突破某个理论下界。 如果一个算法 ...

<1···345···100>