内网穿透浅尝
阿里云 ubuntu 服务器 * 1 windows 11 家里电脑 * 1 有开发环境在家里电脑。需要在公司调用,简单搭一个 在ubuntu上部署frps(服务端) 查看 github 最新的 release 版本 下载 1 2 3 wget https://github.com/fatedier/frp/releases/download/vX.Y.Z/frp_X.Y.Z_linux_amd64.tar.gz tar zxvf frp_X.Y.Z_linux_amd64.tar.gz cd frp_X.Y.Z_linux_amd64 我的阿里云下不了 github.不知道啥情况。换个命令 wget https://sourceforge.net/projects/frp.mirror/files/v0.64.0/frp_0.64.0_linux_amd64.tar.gz/download -O frp_0.64.0_linux_amd64.tar.gz 下载后解压 配置 frps.toml 调整端口和 token 防火墙放开对应端口 服务器或者云服务安全组 配成系统服务(可选) 不做演示。 windows 安装 frpc 我去 拦在第一步。说release 的 exe 有问题。自己编译的比较靠谱是吧 安装 go 环境。自己编译出 frpc 客户端 启动后可以看到 配置改成下面的足够了 显示已折叠代码(19 行) 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 [common] server_addr = XXXX server_port = 7000 token = "XXX" # 比如映射一个本地 web 服务(假设端口 8080) [[proxies-lout]] name = "proxies-lout" type = tcp local_ip = "127.0.0.1" local_port = 8080 remote_port = 8080 [[proxies-ai]] name = "proxies-ai" type = tcp local_ip = "127.0.0.1" local_port = 8081 remote_port = 8081 写了个 start.bat ...
vllm 推理 qwen3 没有 think 标签
问题 vllm 推理 qwen3-30b-a3b-2507 遇到没有第一个<think>标签 这个之前 DeepSeek-R1 出来后就遇到过几次,一般改一下chat_template 可以解决。这次记一下 在进行聊天补全请求时,模型的推理内容出现在 content 字段中,具有以下特征: 缺少开始的 <think> 标签 包含结束的 </think> 标签 所有推理内容与最终回复混合在 content 中 reasoning_content 字段为 null 由于最近升级了 vllm 以及推理的是 第三方 4bit 量化版,所以这些细节也记一下 版本 vLLM version: 0.10.1 Model: btbtyler09/Qwen3-30B-A3B-Thinking-2507-gptq-4bit Startup command: 1 2 3 4 5 6 7 8 9 10 11 12 13 python3 -m vllm.entrypoints.openai.api_server --model /model --host 0.0.0.0 --port 8000 --api-key token-ray123 --served-model-name mckj/Qwen3-30B-A3B-Thinking-2507 --tensor-parallel-size 1 --gpu-memory-utilization 0.96 --max-model-len 6144 --max-num-batched-tokens 8192 --max-num-seqs 64 --reasoning-parser qwen3 --enable-auto-tool-choice --tool-call-parser hermes 参考此 discussionQwen/Qwen3-30B-A3B-Thinking-2507 · Using vllm 0.10.0, `reasoning content` appears in content field instead of reasoning_content with Qwen3-30B-A3B-Thinking model ...
代理下git连不上
在代理下,git使用ssh 22端口时连接不上。关掉代理就可以 参考本文 本地打开代理,Git无法使用SSH连接GitHubGitHub SSH连接的血泪史:短短一行报错,让我在接下来的48小时 - 掘金 但是实际上我并没有使用ncat 只是在ssh 的config中 1 2 3 4 5 6 Host github.com Hostname ssh.github.com IdentityFile ~/.ssh/id_rsa Port 443 ServerAliveInterval 20 User git Port 443 绕过。似乎暂时没遇到什么问题
claude code配置
windows使用cluade code 安装node,百度安装nvm。选择一个LTS的 node版本使用 之后 npm install -g @anthropic-ai/claude-code npm install -g @musistudio/claude-code-router ccr的 git地址GitHub - musistudio/claude-code-router: Use Claude Code as the foundation for coding infrastructure, allowing you to decide how to interact with the model while enjoying updates from Anthropic. 安装后启动 ccr ui 按照教程配置自己的模型供应商 ccr code替代claude code 启动 就能成功使用自己要用的模型了
Idea 激活
记录一下当前Idea激活的方法,Idea用的不多 激活仓库 lsix: jetbrains全家桶激活v3.1 按照Readme 安装go,编译出来的这个。一键激活,截止到2025-08-24可以正常使用