开放 WebUI:自托管 LLM 界面
适用于本地大语言模型的自托管ChatGPT替代方案
Open WebUI 是一个功能强大、可扩展且功能丰富的自托管网页界面,用于与大型语言模型进行交互。
适用于本地大语言模型的自托管ChatGPT替代方案
Open WebUI 是一个功能强大、可扩展且功能丰富的自托管网页界面,用于与大型语言模型进行交互。
2026年墨尔本科技必看日历
墨尔本科技社区在2026年继续蓬勃发展,一系列令人印象深刻的会议、聚会和研讨会涵盖了软件开发、云计算、人工智能、网络安全和新兴技术等多个领域。
通过 OpenAI API 实现快速的 LLM 推理
vLLM 是由加州大学伯克利分校 Sky Computing Lab 开发的用于大型语言模型 (LLMs) 的高性能、内存高效的推理和服务引擎。
用 Python 掌握 PDF 文本提取
PDFMiner.six 是一个强大的 Python 库,用于从 PDF 文档中提取文本、元数据和布局信息。
掌握浏览器自动化进行测试与数据抓取
Playwright 是一个强大且现代的浏览器自动化框架,它彻底改变了网络爬虫和端到端测试的方式。
人工智能生成内容检测技术指南
AI生成内容的泛滥带来了一个新的挑战:区分真正的原创人类写作与“AI劣质内容”(AI劣质内容)——低质量、批量生产的合成文本。
使用本地LLM测试Cognee - 实际效果
Cognee 是一个 Python 框架,用于使用 LLM 从文档中构建知识图谱。 但它能与自托管模型一起使用吗?
使用 BAML 和 Instructor 实现类型安全的 LLM 输出
在生产环境中使用大型语言模型时,获取结构化、类型安全的输出至关重要。
两个流行的框架——BAML 和 Instructor——采用不同的方法来解决这个问题。
关于自托管Cognee中使用LLM的思考
选择 最适合 Cognee 的 LLM 需要平衡图构建质量、幻觉率和硬件限制。
Cognee 在使用较大且低幻觉模型(32B+)时表现优异,例如通过 Ollama,但中等规模的模型也适用于较轻量的设置。
Python 依赖注入模式实现清晰可测试的代码
依赖注入 (DI) 是一种基本的设计模式,它在 Python 应用程序中促进干净、可测试和易于维护的代码。
必备快捷键和神奇命令
使用基本的快捷键、魔法命令和工作流程技巧,快速提升你的数据科学和开发体验,从而启动 Jupyter Notebook 生产力。
使用 Python 和 Ollama 构建 AI 搜索代理
Ollama 的 Python 库现在包含原生的 OLlama 网络搜索 功能。只需几行代码,你就可以使用网络上的实时信息增强本地 LLM,从而减少幻觉并提高准确性。
为你的RAG堆栈选择合适的向量数据库
选择合适的向量数据库可以决定你的RAG应用的性能、成本和可扩展性。这篇全面的比较涵盖了2024-2025年最受欢迎的选项。
使用现代代码检查工具掌握 Python 代码质量
Python linters 是必不可少的工具,它们可以在不执行代码的情况下分析代码中的错误、风格问题和潜在的 bug。 它们强制执行编码标准,提高可读性,并帮助团队维护高质量的代码库。
使用 Go 微服务构建强大的 AI/ML 管道
随着人工智能和机器学习工作负载变得越来越复杂,对强大的编排系统的需求也变得更为迫切。Go语言的简洁性、性能和并发特性使其成为构建机器学习流水线的编排层的理想选择,即使模型本身是用Python编写的。
在共享的嵌入空间中统一文本、图像和音频
跨模态嵌入 代表了人工智能领域的一项突破,它使不同数据类型能够在统一的表示空间中实现理解和推理。