Offline

コンシューマーハードウェア上のAIインフラ

コンシューマーハードウェア上のAIインフラ

予算のハードウェアでオープンモデルを使用して企業向けAIを展開

AIの民主化はここにあります。 Llama 3、Mixtral、QwenなどのオープンソースLLMが、今やプロプライエタリモデルと同等の性能を発揮するようになり、チームは消費者ハードウェアを使用して強力なAIインフラストラクチャを構築できるようになりました。これにより、コストを削減しながらも、データプライバシーやデプロイメントに関する完全なコントロールを維持することが可能です。

個人の知識管理にObsidianを使う

個人の知識管理にObsidianを使う

Obsidianについて……

以下は、提供されたHugoページコンテンツの日本語への翻訳です。すべての技術的なフォーマット、構造、Hugo固有の要素は保持されています。


以下は、Obsidianが**個人知識管理(PKM)**に強力なツールとしてどのように機能するかの詳細な解説です。Obsidian as a powerful tool for personal knowledge management (PKM)。そのアーキテクチャ、機能、強み、そして現代の知識ワークフローをどのようにサポートするかについて説明しています。

Dokuwiki - 自ホスティング可能なウィキとその代替手段

Dokuwiki - 自ホスティング可能なウィキとその代替手段

私はDokuwikiを個人的な知識ベースとして使用していました。

Dokuwikiは、データベースを必要とせず、オンプレミスで簡単にホストできるセルフホスト型のウィキパediaです。
私は、ペットのKubernetesクラスター上でDocker化してDokuwikiを運用していました。

テスト: Ollama がインテル CPU のパフォーマンスコアと効率コアをどのように利用しているか

テスト: Ollama がインテル CPU のパフォーマンスコアと効率コアをどのように利用しているか

インテルCPUにおけるOllamaの効率コアとパフォーマンスコアの比較

私は理論をテストしたいと思っています - すべてのコアをIntel CPUで使用するとLLMの速度が上がるか?
新しいgemma3 27bitモデル(gemma3:27b、ollama上では17GB)が私のGPUの16GB VRAMに収まらず、部分的にCPU上でも実行されていることが気になります。

PDFから画像を抽出する

PDFから画像を抽出する

PDFファイルから画像を抽出する必要があるとき

PDFファイルから画像をスクリーンショットやレンダリングせずに保存する必要がある場合があります。
pdfimagesはそのような状況で役立ちます。