使用 AWS Kinesis 构建事件驱动的微服务
基于 AWS Kinesis 的事件驱动架构实现可扩展性
AWS Kinesis 已成为构建现代事件驱动微服务架构的基石,它能够以最小的操作开销实现大规模的实时数据处理。
基于 AWS Kinesis 的事件驱动架构实现可扩展性
AWS Kinesis 已成为构建现代事件驱动微服务架构的基石,它能够以最小的操作开销实现大规模的实时数据处理。
使用 GraphQL BFF 和 Apollo Server 优化前端 API
前端专用后端(BFF) 模式结合 GraphQL 和 Apollo Server 为现代 Web 应用程序创建了强大的架构。
用于搜索、索引和分析的 Elasticsearch 命令
Elasticsearch 是一个基于 Apache Lucene 构建的强大分布式搜索和分析引擎。 这份全面的速查表涵盖了使用 Elasticsearch 集群时的基本命令、最佳实践和快速参考。
使用 Python 示例构建 AI 助手的 MCP 服务器
模型上下文协议(MCP)正在革新AI助手与外部数据源和工具的交互方式。在本指南中,我们将探讨如何构建 MCP 服务器(Python),重点介绍网络搜索和爬取功能的示例。
Docker Model Runner 命令快速参考
Docker Model Runner (DMR) 是 Docker 官方用于本地运行 AI 模型的解决方案,于 2025 年 4 月推出。此快速参考提供了所有关键命令、配置和最佳实践的快速查阅。
对比 Docker Model Runner 和 Ollama 本地大语言模型
在本地运行大型语言模型 (LLMs) 已成为隐私保护、成本控制和离线功能的重要趋势。 2025 年 4 月,Docker 推出了 Docker Model Runner (DMR),这是其用于 AI 模型部署的官方解决方案,标志着该领域的重大转变。
分步示例
在这里,我们有一个 Python Lambda 示例:SQS 消息处理器 + REST API(带 API 密钥保护)+ Terraform 脚本,用于部署无服务器执行。
使用思考型大语言模型的具体示例
在本文中,我们将探讨两种连接您的 Python 应用程序到 Ollama 的方法:1. 通过 HTTP REST API;2. 通过 官方 Ollama Python 库。
略有不同的 API 需要特殊处理。
以下是结构化输出在主流大语言模型(LLM)提供商之间的对比,以及一些Python示例: