Self-Hosting

比較:Qwen3:30b と GPT-OSS:20b

比較:Qwen3:30b と GPT-OSS:20b

これらの2つのモデルの速度、パラメータ、パフォーマンスの比較

ここに Qwen3:30b と GPT-OSS:20b の比較を示します。インストラクションに従う能力とパフォーマンスパラメータ、仕様、速度に焦点を当てています:

Writefreely フェデレーテッドブログプラットフォーム - セルフホスティングとマネージドコストの比較

Writefreely フェデレーテッドブログプラットフォーム - セルフホスティングとマネージドコストの比較

ホスティングコストの概算とサブスクリプションの比較。

以下は、提供されたHugoページコンテンツの日本語への翻訳です。すべてのHugoショートコード、技術要素、構造を維持しつつ、日本語の文法、文体、表記規則に従って翻訳を行いました。


Write.as / WriteFreelyに関する簡単な情報 – どのようにfediverseに適合するか、管理ホスティングの入手先、使用傾向、およびセルフホスト方法(コストの概算も含む)について。

Kubuntu vs KDE Neon: 技術的な深掘り

Kubuntu vs KDE Neon: 技術的な深掘り

Kubuntu と KDE Neon の両方を試してみたが、Kubuntu のほうがより安定している。

KDE Plasmaファンにとって、2つのLinuxディストリビューションがよく議論の対象になります:
KubuntuKDE Neon
どちらも似ているように見えるかもしれません。どちらもKDE Plasmaをデフォルトのデスクトップとして搭載し、どちらもUbuntuをベースにし、どちらも新規ユーザーに親しみやすいです。

オラマのエンシティフィケーション――初期の兆候

オラマのエンシティフィケーション――初期の兆候

現在のOllama開発状況に対する私の見解

Ollama は、LLMをローカルで実行するためのツールとして非常に人気を博しています。
シンプルなCLIとスムーズなモデル管理により、クラウド外でAIモデルに取り組む開発者にとっての定番オプションとなっています。
しかし、多くの有望なプラットフォームと同様に、すでに Enshittification の兆候が見られるようになってきています。

ローカルのOllamaインスタンス用のチャットUI

ローカルのOllamaインスタンス用のチャットUI

2025年のOllamaで最も注目されているUIの概要

ローカルにホストされた Ollama は、自分のマシンで大規模な言語モデルを実行できるが、コマンドラインで使用するのはユーザーにとって使いにくい。
以下は、ローカルの Ollama に接続する ChatGPT スタイルのインターフェース を提供するいくつかのオープンソースプロジェクトである。