AI

比較:Qwen3:30b と GPT-OSS:20b

比較:Qwen3:30b と GPT-OSS:20b

これらの2つのモデルの速度、パラメータ、パフォーマンスの比較

ここに Qwen3:30b と GPT-OSS:20b の比較を示します。インストラクションに従う能力とパフォーマンスパラメータ、仕様、速度に焦点を当てています:

人気のあるLLMプロバイダー(OpenAI、Gemini、Anthropic、Mistral、AWS Bedrock)における構造化出力の比較

人気のあるLLMプロバイダー(OpenAI、Gemini、Anthropic、Mistral、AWS Bedrock)における構造化出力の比較

わずかに異なるAPIには特別なアプローチが必要です。

以下は、提供されたHugoページコンテンツの日本語への翻訳です。すべてのHugoショートコードと技術要素は正確に保持されており、日本語の文法、表記、文化に合った表現が使用されています。


以下は、構造化された出力(信頼性の高いJSONを取得)をサポートする、人気のあるLLMプロバイダーの比較、および最小限のPythonの例です。

オラマのエンシティフィケーション――初期の兆候

オラマのエンシティフィケーション――初期の兆候

現在のOllama開発状況に対する私の見解

Ollama は、LLMをローカルで実行するためのツールとして非常に人気を博しています。
シンプルなCLIとスムーズなモデル管理により、クラウド外でAIモデルに取り組む開発者にとっての定番オプションとなっています。
しかし、多くの有望なプラットフォームと同様に、すでに Enshittification の兆候が見られるようになってきています。

ローカルのOllamaインスタンス用のチャットUI

ローカルのOllamaインスタンス用のチャットUI

2025年のOllamaで最も注目されているUIの概要

ローカルにホストされた Ollama は、自分のマシンで大規模な言語モデルを実行できるが、コマンドラインで使用するのはユーザーにとって使いにくい。
以下は、ローカルの Ollama に接続する ChatGPT スタイルのインターフェース を提供するいくつかのオープンソースプロジェクトである。

NVIDIA DGX Spark - 新しい小型AIスーパーコンピューター

NVIDIA DGX Spark - 新しい小型AIスーパーコンピューター

2025年7月にはすぐに利用可能になるはずです。

NVIDIAは、NVIDIA DGX Sparkを近日中にリリースする予定です。これは、ブラックウェルアーキテクチャを採用し、128GB以上の統合RAMと1 PFLOPSのAI性能を備えた小型のAIスーパーコンピュータです。LLMを実行するための非常に便利なデバイスです。

Tensorflowを用いたオブジェクト検出

Tensorflowを用いたオブジェクト検出

以前、オブジェクト検出AIのトレーニングを行いました。

ある寒い冬の7月の日… その日はオーストラリアにいた… 私は、未封のコンクリート補強筋を検出するためのAIモデルを訓練するという緊急の必要性を感じた…

Hugoページ翻訳品質の比較 - Ollama上のLLM

Hugoページ翻訳品質の比較 - Ollama上のLLM

qwen3 8b、14bおよび30b、devstral 24b、mistral small 24b

このテストでは、Ollama上でホストされているさまざまなLLMがHugoページを英語からドイツ語に翻訳する方法を比較しています([英語からドイツ語へのHugoページの翻訳の比較](https://www.glukhov.org/ja/post/2025/06/translation-quality-comparison-llms-on-ollama/ “英語からドイツ語へのHugoページの翻訳の比較”)。

テストした3つのページは、異なるトピックについており、いくつかの構造を持つマークダウンがありました:見出し、リスト、テーブル、リンクなど。