王二的数字花园

钱塘江上潮信来,今日方知我是我

最新文章

cuda_mode_1

hello load inline这个是torch加载C++扩展的简单demo。代码比较简单 import torch from torch.utils.cpp_extension import load_inline cpp_source = """ std::st...

端侧 LLM 的PD分离技术之稀疏性

Attention是时空力场(LLM只有时,Version存在空间力场),而FFN则是空间结构,并且代表了基于Knowledge的静态高纬字典,也有人用图书馆来比喻。 首先回顾一下transformer block的结构,Attention +FFN,前者中的 kvcache 随着序列的...

Nvidia 的快速反量化操作

主要记录了论文Who Says Elephants Can’t Run: Bringing Large Scale MoE Models into Cloud Scale Production中关于反量化的快速操作。 背景NN模型通常为了降低RAM、FLASH占用,提高计算吞吐率,会引入量化操作。比...

Turbo Sparse

关于llama稀疏性的观察llama原始模型的FFN计算过程为: f(x) = \text{silu}(xW_{Gate}) \odot xW_{UP} \times W_{Down}class FeedForward(nn.Module): def forward(self, x): ...

废话

Skill构建的Rule-Based陷阱

最近在优化一个文档维护的 skill。经过几轮的优化迭代,发现模型在创建/优化 skill 时,即使多次强调这个 skill 的调用方是 Agent,但仍然在开...

#随笔

AI 会穷尽自己所学来服务目标,于是就衍生出一个必须面对的问题

AI 会穷尽自己所学,来服务人类目标,于是就衍生出一个必须面对的问题:如何避免它在完成目标的过程中,用了不该用的工具,看了不该看的文件,做了不该做的事情? 这是...

#agent

Clawbot记忆的关键:避免自我强化的电子疯牛病

当你给一个AI开放所有权限、让它自行读写记忆系统时会发生什么? 它会慢慢变成一个回声室。 不是因为它有恶意,而是因为它有一个强大到荒谬的自我参照回路:它的输出会...

#随笔 #AI #记忆

一步没赶上,步步赶不上

范伟最佳台词: 我这一生啊, 情窦初开的时候,父母不同意, 情窦再开的时候,老婆不同意, 情窦乱开的时候,子女不同意。 五官允许的时候,三观不允许, 现在三观允...

#废话 #人生

端侧AI的正确姿势

端侧AI的正确姿势端侧大模型时候未到,先进行智能化改造,打造脚手架。 Bottom-up 建立最小化 AI 场景,连点成线搭建端侧智能。

#废话 #端侧AI #脚手架