
在裸金属上安装 k3s - 分步操作指南及使用 Terraform
在家庭实验室集群上安装轻量级 k3s Kubernetes
以下是逐步操作指南,介绍如何在裸金属服务器(1个主节点 + 2个工作节点)上**安装一个3节点K3s集群**。
在家庭实验室集群上安装轻量级 k3s Kubernetes
以下是逐步操作指南,介绍如何在裸金属服务器(1个主节点 + 2个工作节点)上**安装一个3节点K3s集群**。
Kubernetes 变体的简要概述
比较 自托管 Kubernetes 发行版,用于在裸机或家庭服务器上部署,重点关注安装简便性、性能、系统要求和功能集。
为我们的家庭实验室选择最佳的 Kubernetes 方案
我正在比较自托管的Kubernetes变体 ,这些变体适用于基于Ubuntu的homelab,包含3个节点(每个节点16GB RAM,4个核心),重点在于安装和维护的简便性,以及对持久卷和LoadBalancers的支持。
关于常见 GitHub Actions 及其结构的简要介绍。
GitHub Actions 是 GitHub 内部的一个自动化和 CI/CD 平台,用于根据推送、拉取请求或定时任务等事件构建、测试和部署代码。
顺便说一下,docker-compose 与 docker compose 是不同的……
以下是 Docker Compose 快速参考 ,包含注释示例,帮助您快速掌握 Compose 文件和命令。
关于 Obsidian ...
以下是关于
Obsidian 作为强大的 个人知识管理 (PKM) 工具
的详细分析,解释其架构、功能、优势以及它如何支持现代知识工作流程。
2025年7月,它应该很快就会发布。
NVIDIA 即将发布 NVIDIA DGX Spark - 基于 Blackwell 架构的小型 AI 超级计算机,配备 128GB 以上统一内存和 1 PFLOPS 的 AI 性能。这是运行大型语言模型(LLM)的理想设备。
在网站上应使用哪些网络分析系统?
让我们快速了解一下可用于自托管的 Matomo、Plausible、Google 等网络分析提供商和系统 并进行比较。
标准 Ubuntu 24.04 安装流程说明
这是我安装 Ubuntu 24.04 的全新安装 时最喜欢的一套步骤。
我喜欢这里的一点是:不需要安装 NVidia 驱动程序!它们会自动安装。
我曾使用 Dokuwiki 作为个人知识库
Dokuwiki 是一个自托管的维基百科,可以轻松地在本地部署,且不需要任何数据库。
我之前是在我的宠物 Kubernetes 集群上使用 Docker 部署的。
AI适用GPU价格更新 - RTX 5080和RTX 5090
让我们比较顶级消费级GPU的价格,这些GPU特别适合用于大型语言模型(LLMs),总体上也适用于人工智能(AI)。
具体来看: RTX 5080和RTX 5090价格。它们的价格略有下降。
用于 ETS/MLOPS 的 Python 框架,设计精良
Apache Airflow 是一个开源平台,旨在通过 Python 代码以编程方式创建、安排和监控工作流,为传统手动或基于用户界面的工作流工具提供了一个灵活且强大的替代方案。
实现 RAG?这里有一些 Go 代码片段 - 2...
由于标准 Ollama 没有直接的重排序 API,
您需要通过生成查询-文档对的嵌入向量并对其进行评分来实现 使用 Qwen3 重排序器在 GO 中进行重排序。
qwen3 8b、14b 和 30b,devstral 24b,mistral small 24b
在这项测试中,我正在比较不同LLMs在Ollama上如何将Hugo页面从英语翻译成德语。
我测试的三页内容涉及不同主题,其中包含一些结构良好的markdown内容:标题、列表、表格、链接等。
实现 RAG?这里有一些用 Golang 编写的代码片段。
这个小的 Go代码示例重新排序调用Ollama生成嵌入 用于查询和每个候选文档, 然后按余弦相似度降序排序。