AI

Ollama가 병렬 요청을 처리하는 방식

Ollama가 병렬 요청을 처리하는 방식

병렬 요청 실행을 위해 ollama 구성하기.

Ollama 서버가 동일한 시간에 두 개의 요청을 받을 경우, 그 동작은 구성 설정과 사용 가능한 시스템 자원에 따라 달라집니다.

비브 코딩 - 의미와 설명

비브 코딩 - 의미와 설명

이 트렌디한 AI 지원 코딩이란 무엇인가?

바이브 코딩은 개발자가 자연어로 원하는 기능을 설명하고, AI 도구가 이를 자동으로 코드로 생성하는 AI 기반의 프로그래밍 접근 방식입니다.

Ollama에서 Deepseek-R1 테스트

Ollama에서 Deepseek-R1 테스트

두 개의 deepseek-r1 모델을 두 개의 기본 모델과 비교합니다.

DeepSeek’s 첫 세대 추론 모델로, OpenAI-o1과 유사한 성능을 보입니다. 이 모델은 Llama와 Qwen을 기반으로 한 DeepSeek-R1에서 추출한 6개의 밀집 모델입니다.

자체 호스팅 Perplexica - Ollama와 함께

자체 호스팅 Perplexica - Ollama와 함께

로컬에서 코파일럿 스타일 서비스를 실행하나요? 간단하죠!

이것은 매우 흥미로운 일입니다!
Copilot이나 perplexity.ai를 호출하고 세상에 당신이 무엇을 원하는지 말하는 대신,
이제 자신의 PC나 강력한 노트북에서 유사한 서비스를 호스팅할 수 있습니다!

Gemma2 vs Qwen2 vs Mistral Nemo vs...

Gemma2 vs Qwen2 vs Mistral Nemo vs...

논리적 오류 탐지 테스트

최근 몇몇 새로운 LLM이 출시되었습니다. 흥미로운 시기입니다. 논리적 오류를 감지하는 데 이 모델들이 어떻게 수행되는지 테스트해 보겠습니다.

LLM 프론트엔드

LLM 프론트엔드

선택할 수 있는 항목은 많지 않지만 여전히...

LLM을 처음 실험할 때 그들의 UI는 활발한 개발 중이었고, 지금은 그 중 일부가 정말 잘 되어 있습니다.