「文颜」是一款多平台排版美化工具,让你将 Markdown 一键发布至微信公众号、知乎、今日头条等主流写作平台。
文颜现已推出多个版本:
- macOS App Store 版 - MAC 桌面应用
- 跨平台版本 - Windows/Linux 跨平台桌面应用
- CLI 版本 - CI/CD 或脚本自动化发布公众号文章
- MCP 版本 - 让 AI 自动发布公众号文章
- 嵌入版本 - 将文颜的核心功能嵌入 Node 或者 Web 项目
本项目是 文颜的 CLI 版本。
- 使用内置主题对 Markdown 内容排版
- 支持图片自动上传
- 支持数学公式渲染
- 一键发布文章到微信公众号草稿箱
👉 内置主题预览
文颜采用了多个开源的 Typora 主题,在此向各位作者表示感谢:
npm install -g @wenyan-md/cli
主命令为:
wenyan <command> [options]
某些功能(如发布到微信公众号)需要配置以下环境变量:
WECHAT_APP_ID
WECHAT_APP_SECRET
可在命令前临时设置:
WECHAT_APP_ID=xxx WECHAT_APP_SECRET=yyy wenyan publish "your markdown"
或在 ~/.bashrc
/ ~/.zshrc
中永久添加:
export WECHAT_APP_ID=xxx
export WECHAT_APP_SECRET=yyy
临时设置:
$env:WECHAT_APP_ID="xxx"; $env:WECHAT_APP_SECRET="yyy"; wenyan publish "your markdown"
永久设置(在环境变量里添加):
控制面板 → 系统和安全 → 系统 → 高级系统设置 → 环境变量 → 添加 WECHAT_APP_ID
和 WECHAT_APP_SECRET
。
publish
将 Markdown 转换为适配微信公众号的富文本 HTML 并上传到公众号。
<input-content>
,要转换的 Markdown 内容。可直接作为参数传入,或通过管道/重定向从stdin
读取
-t
,主题id,默认default
- default
- orangeheart
- rainbow
- lapis
- pie
- maize
- purple
- phycat
-h
,代码高亮主题,默认solarized-light
- atom-one-dark
- atom-one-light
- dracula
- github-dark
- github
- monokai
- solarized-dark
- solarized-light
- xcode
- 代码块默认使用 Mac 风格,如要关闭:
--no-mac-style
- 链接默认转脚注,如要关闭:
--no-footnote
直接传入内容:
wenyan publish "# Hello, Wenyan" -t lapis -h solarized-light
从文件读取:
cat example.md | wenyan publish -t lapis -h solarized-light --no-mac-style
请务必将服务器 IP 加入公众号平台的 IP 白名单,以确保上传接口调用成功。 详细配置说明请参考:https://yuzhi.tech/docs/wenyan/upload
为了可以正确上传文章,需要在每一篇 Markdown 文章的开头添加一段frontmatter
,提供title
、cover
两个字段:
---
title: 在本地跑一个大语言模型(2) - 给模型提供外部知识库
cover: /Users/lei/Downloads/result_image.jpg
---
-
title
是文章标题,必填。 -
cover
是文章封面,支持本地路径和网络图片:- 如果正文有至少一张图片,可省略,此时将使用其中一张作为封面;
- 如果正文无图片,则必须提供 cover。
-
支持图片路径:
- 本地路径(如:
/Users/lei/Downloads/result_image.jpg
) - 网络路径(如:
https://example.com/image.jpg
)
- 本地路径(如:
---
title: 在本地跑一个大语言模型(2) - 给模型提供外部知识库
cover: /Users/lei/Downloads/result_image.jpg
---
在[上一篇文章](https://babyno.top/posts/2024/02/running-a-large-language-model-locally/)中,我们展示了如何在本地运行大型语言模型。本篇将介绍如何让模型从外部知识库中检索定制数据,提升答题准确率,让它看起来更“智能”。
## 准备模型
访问 `Ollama` 的模型页面,搜索 `qwen`,我们使用支持中文语义的“[通义千问](https://ollama.com/library/qwen:7b)”模型进行实验。

如果您觉得不错,可以给我家猫咪买点罐头吃。喂猫❤️
Apache License Version 2.0