
Dokuwiki - 自托管维基及其替代方案
我曾使用 Dokuwiki 作为个人知识库
Dokuwiki 是一个自托管的维基百科,可以轻松地在本地部署,且不需要任何数据库。
我之前是在我的宠物 Kubernetes 集群上使用 Docker 部署的。
我曾使用 Dokuwiki 作为个人知识库
Dokuwiki 是一个自托管的维基百科,可以轻松地在本地部署,且不需要任何数据库。
我之前是在我的宠物 Kubernetes 集群上使用 Docker 部署的。
选择最佳工具编写选择语句并执行备份
新版本的 Linux Ubuntu 24.04 桌面版提示我安装 Beekeeper Studio 作为 SQL 编辑器和数据库管理工具。
我之前使用的是 DBeaver。
好的。
让我们比较 DBeaver 与 Beekeeper Studio。
在 Nautilus 中如何自定义上下文菜单?
在新电脑上安装了全新的 Linux 系统后,我惊讶地发现竟然找不到一个简单的方法来 自定义 Ubuntu 24.04 的右键菜单。
Python uv 的优点
Python uv(发音为“you-vee”)是一个现代、高性能的 Python 包和项目管理工具,使用 Rust 编写。它被设计为传统 Python 包管理工具(如 pip
、pip-tools
、virtualenv
、pipx
和 pyenv
)的即插即用替代品,旨在简化并加速 Python 开发工作流程。
自托管一个网络搜索引擎?简单!
YaCy 是一个 去中心化、点对点(P2P)搜索引擎,其设计目的是无需依赖集中式服务器,使用户能够创建本地或全球索引,并通过查询分布式对等节点来执行搜索。
Ollama 现已推出全新强大的 LLM
Qwen3 Embedding 和 Reranker 模型 是 Qwen 系列的最新发布,专为高级文本嵌入、检索和重排序任务而设计。
将所有与页面相关的内容放在一个文件夹中...
有一段时间,我一直被一个烦人的问题困扰着,那就是如何将页面的缩略图放入静态目录中。这适用于 Mainroad、Rodster 和类似的 Hugo 主题。
考虑安装第二块GPU用于大型语言模型吗?
这取决于具体任务。对于训练和多GPU推理,性能下降非常明显。
快速检查 Ubuntu 和 Mint 版本
要确定你的 Linux Mint 安装所基于的 Ubuntu 版本,你可以使用几种涉及命令行工具和系统文件的方法。
在 AWS S3 上设置好 Gitea 和 Hugo 之后...
下一步是实施一些 CI/CD 并设置 Gitea Actions for Hugo website, to push website to AWS S3 当 master 分支更新时自动推送网站到 AWS S3。
使用LLM从HTML中提取文本...
在 Ollama 模型库中,有一些模型可以 将 HTML 内容转换为 Markdown,这对内容转换任务非常有用。
那我为什么一直看到这个蓝屏……
我深受这个问题的影响。但如果你的蓝屏(BSOD)和我的情况类似,你应该调查并测试你的电脑。
原因在于 Intel 第 13 代和第 14 代处理器的 CPU 退化问题。
它们之间有什么不同?
Ollama 在 Intel CPU 上的效率核心与性能核心对比
我有一个理论要测试——如果利用所有Intel CPU核心是否能提高LLMs的速度?。
困扰我的是,新的gemma3 27位模型(gemma3:27b,17GB在ollama上)无法适应我GPU的16GB显存,部分运行在CPU上。
从一开始就可以重新排列终端窗口
有几种方法可以在 Linux Mint 中启动一组终端工具并实现终端窗口的平铺布局,具体取决于您的工作流程和所需的自动化程度。