
搜索 vs 深度搜索 vs 深度研究
它们之间有什么不同?
- 搜索最适合通过关键词进行快速、直接的信息检索。
- 深度搜索 擅长理解上下文和意图,为复杂查询提供更相关且全面的结果。
它们之间有什么不同?
游标AI对比GitHub Copilot对比Cline AI对比...
大型语言模型提供商简要列表
使用大型语言模型(LLM)的成本并不高,可能不需要购买新的高性能GPU。
以下是一份云上LLM提供商列表,列出了他们托管的LLM。
Ollama 在 Intel CPU 上的效率核心与性能核心对比
我有一个理论要测试——如果利用所有Intel CPU核心是否能提高LLMs的速度?。
困扰我的是,新的gemma3 27位模型(gemma3:27b,17GB在ollama上)无法适应我GPU的16GB显存,部分运行在CPU上。
人工智能需要消耗大量算力……
在现代世界纷乱的环境中,我在这里比较不同显卡的技术规格,这些显卡适用于AI任务
(深度学习,
目标检测
和大语言模型)。
不过它们都非常昂贵。
配置 ollama 以并行执行请求。
当 Ollama 服务器同时收到两个请求时,其行为取决于其配置和可用的系统资源。
什么是这种时髦的AI辅助编程?
氛围编程 是一种由人工智能驱动的编程方法,开发者通过自然语言描述所需的功能,从而让人工智能工具自动生成代码。
MM* 工具套件已达到生命周期终点……
我之前使用过 MMDetection (mmengine, mdet, mmcv),用得不少,
但现在看起来它似乎已经退出了舞台。
真可惜,我喜欢它的模型库。
将两个 deepseek-r1 模型与两个基础模型进行比较
DeepSeek’s 第一代推理模型,其性能可与 OpenAI-o1 相媲美,包括基于 Llama 和 Qwen 的 DeepSeek-R1 的六个密集模型。
一段时间前整理了这份 Ollama 命令列表……
以下是目前最有用的 Ollama 命令列表和示例([Ollama 命令速查表](https://www.glukhov.org/zh-cn/post/2024/12/ollama-cheatsheet/ “ollama commands cheat sheet)"),我之前整理过一些。
希望对你也有帮助(对你有用)。
下一轮LLM测试
不久之前发布了。让我们跟上进度并
测试Mistral Small与其他LLMs的性能表现。
RAG的重排序的Python代码
令人惊叹的新AI模型可根据文本生成图像
比较两款自托管AI搜索引擎
美味的食物不仅令人垂涎,也是一道视觉盛宴。
但在这篇文章中,我们将比较两个基于人工智能的搜索系统,Farfalle 和 Perplexica。
本地运行类似 Copilot 的服务?轻松!
这非常令人兴奋!
与其调用 Copilot 或 Perplexity.ai 并告诉全世界你想要什么,
你现在可以在自己的 PC 或笔记本电脑上运行类似的服务!