在博客养了只小猫🐱
如图所示、小猫在会 睡觉、打哈欠、挠头、追踪你的鼠标。点一下睡觉都它就会起来了,别的太花哨的又不是很喜欢。目前这个小猫的实现逻辑非常灵巧。未来希望能够搞一搞它 GitHub - adryd325/oneko.js: Cat follow mouse real! A hacky script I wrote to put a cat on my site. · GitHub 基于这个仓库实现,一个 oneko.js + 一张 oneko.gif 就搞定,没有太多的交互,以后仰仗肖工帮我实现一下 摸头交互功能 可以抄我的作业如下 layouts/partials/extend_footer.html [html] 显示已折叠代码(19 行) 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 {{- $neko := site.Params.neko | default dict -}} {{- $enabled := true -}} {{- if isset $neko "enable" -}} {{- $enabled = $neko.enable -}} {{- end -}} {{- $onlyHome := true -}} {{- if isset $neko "onlyHome" -}} {{- $onlyHome = $neko.onlyHome -}} {{- end -}} {{- if and $enabled (or (not $onlyHome) .IsHome) -}} {{- $script := resources.Get "js/neko.js" | js.Build (dict "minify" hugo.IsProduction) -}} {{- if not site.Params.assets.disableFingerprinting -}} {{- $script = $script | fingerprint -}} <script defer crossorigin="anonymous" data-oneko-gif="/hugo-neko/oneko.gif" src="{{ $script.RelPermalink }}" integrity="{{ $script.Data.Integrity }}"></script> {{- else -}} <script defer crossorigin="anonymous" data-oneko-gif="/hugo-neko/oneko.gif" src="{{ $script.RelPermalink }}"></script> {{- end -}} {{- end -}} hugo.yaml ...
Linux 存储空间爆满排查处理
Info 在Linux中创建文件或运行应用时,出现错误提示No space left on device,表明存储资源已耗尽。 参考文章 :诊断并解决Linux实例磁盘空间满的多种场景-云服务器 ECS-阿里云 GPT5.4 指导 排查过程 由于该服务器是公司的主开发、测试服务器,使用人数较多经常会出现这个问题,这次统一整理一下操作过程,记录学习 检查分区情况 首先使用 df -h 查看 哪个分区满了 df : disk free -h: human-readable,不加该参数默认会以“字节”(Bytes)为单位显示,加上后系统会自动以 G (GB)、M (MB)、K (KB) 等单位显示 1 2 3 4 5 6 7 8 9 10 11 (base) yangr@172-16-99-32-Dev:/data/huggingface_model$ df -h Filesystem Size Used Avail Use% Mounted on tmpfs 13G 29M 13G 1% /run /dev/mapper/ubuntu--vg-ubuntu--lv 501G 481G 0 100% / tmpfs 63G 3.0M 63G 1% /dev/shm tmpfs 5.0M 0 5.0M 0% /run/lock /dev/sdb1 3.6T 2.8T 622G 82% /data /dev/sda2 2.0G 252M 1.6G 14% /boot /dev/sda1 1.1G 6.1M 1.1G 1% /boot/efi tmpfs 13G 12K 13G 1% /run/user/1000 tmpfs 13G 12K 13G 1% /run/user/1002 我这里 / 分区已经 100% 此时大部分程序写入 日志或者 /tmp之类都会失效,严重影响服务器使用 ...
docker自建镜像加速
Info 我实在是受不了这个网络问题,不能畅快的 pull image 就和便秘一样。 然而,大部分的曾经一配即可用的镜像源大多数不好用或者开始收费,这些就不多说了,总之就是不好用了,那么我就打算自建一个。 之前是给公司打了个 Harbor,不过Harbor 所在的环境也无法连接外网、且多管理内部镜像为主。前段时间刷到一篇文章,但是一直迟迟没有行动,直到今天连文章都找不到了,那就只能自己处理了。grok 给我搜到了官方的方案Docker Registry Pull-Through Cache,但是他一次一个容器配置一个源,我也不知道我会用到多少个,于是搜了一下果然有人做了 第一次grok 推荐的,GitHub - rpardini/docker-registry-proxy: An HTTPS Proxy for Docker providing centralized configuration and caching of any registry (quay.io, DockerHub, registry.k8s.io, ghcr.io) 后续找到的: GitHub - dqzboy/Docker-Proxy: 🔥 🔥 🔥 自建Docker镜像加速服务,基于官方Docker Registry 一键部署Docker、K8s、Quay、Ghcr、Mcr、Nvcr等镜像加速\管理服务。支持免服务器部署到 ClawCloud\Render\Koyeb 准备一台海外服务器、我还准备了个域名,ok 一键部署,按照脚本部署. 坑来了。没白写 由于我的粗心大意,作者 README 中提到的安装Hub-cm-ui 的安装过程被我误认为是全部的安装过程。 正当我感慨作者大大做了一个很好的集成时开开心心把这个 ui 的地址配置了域名反代并且直接加入我的 docker 配置中,pull 了一下。 失败后折腾了很久才意识到。这是个客户端或者说是展示用的 UI 而不是一个集成体 ...
OpenClaw 二吃
安装 OpenClaw 我也不知道啥情况,总之是三巨头各种折腾然后似乎被 openai 收入麾下了,我在第一次使用龙虾到现在他名字都换了两次了。所以把之前的清空配置,再重新安装。 Install | OpenClaw | The AI That Actually Does Things 这里我使用他的 sh 脚本访问不到,于是使用 pnpm 安装,然后 onboard 这次多了不少配置,我们选择 vLLM 并且输入我对应的信息 这次有飞书可以选择了 配置飞书 参考文档 Feishu - OpenClaw 在权限页面,批量导入以下权限 [json] 显示已折叠代码(23 行) 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 { "scopes": { "tenant": [ "aily:file:read", "aily:file:write", "application:application.app_message_stats.overview:readonly", "application:application:self_manage", "application:bot.menu:write", "contact:user.employee_id:readonly", "corehr:file:download", "event:ip_list", "im:chat.access_event.bot_p2p_chat:read", "im:chat.members:bot_access", "im:message", "im:message.group_at_msg:readonly", "im:message.p2p_msg:readonly", "im:message:readonly", "im:message:send_as_bot", "im:resource" ], "user": ["aily:file:read", "aily:file:write", "im:chat.access_event.bot_p2p_chat:read"] } } ...
Qwen3.5-35B-A3B浅尝
Qwen3.5-35B-A3B Info Qwen3.5 系列终于发布了小杯模型,对应的在阿里云提供 API,Qwen3.5-Plus 即 Qwen3.5-397B-A17B,Qwen3.5-Flash 即 Qwen3.5-35B-A3B。 前面几天对于 Qwen3.5-Plus 的表现,网友评论都是不错、那么这个小杯表现如何是我们比较关注的,毕竟一点资源就能跑起来了。 Qwen3.5 Usage Guide - vLLM Recipes Qwen/Qwen3.5-35B-A3B · Hugging Face 服务器信息: 显示已折叠代码(29 行) 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 【CPU 信息】 CPU 型号: Intel(R) Xeon(R) CPU E5-2680 v4 @ 2.40GHz CPU 核心数: 32 【系统版本】 操作系统: Ubuntu 版本: 22.04.5 LTS (Jammy Jellyfish) 内核版本: 5.15.0-168-generic 【GPU 信息】 NVIDIA GPU 检测到: GPU 0: NVIDIA GeForce RTX 3090 显存: 24576 MiB 驱动版本: 580.126.09 GPU 1: NVIDIA GeForce RTX 3090 显存: 24576 MiB 驱动版本: 580.126.09 GPU 2: NVIDIA GeForce RTX 3090 显存: 24576 MiB 驱动版本: 580.126.09 GPU 3: NVIDIA GeForce RTX 3090 显存: 24576 MiB 驱动版本: 580.126.09 GPU 4: NVIDIA GeForce RTX 3090 显存: 24576 MiB 驱动版本: 580.126.09 CUDA 版本: 13.0 部署 按照官方文档 安装最新的 vLLM,使用 vLLM 部署qwen3.5-35b-a3b,(我习惯使用 vLLM,好用、性能也很好) ...