Linux

계층 구조된 람다: AWS SAM과 Python

계층 구조된 람다: AWS SAM과 Python

조금의 코드 재사용성은 해를 끼치지 않는다.

AWS Lambda에 레이어를 추가하는 방법에 대한 단계별 지침입니다. 이 예제는 파이썬을 사용합니다.
기본적으로 표준 HelloWorld 템플릿 예제로 생성된 기본 코드를 사용할 것입니다.

자체 호스팅 통합 시스템 개요

자체 호스팅 통합 시스템 개요

통합 시스템 옵션

통합 시스템](https://www.glukhov.org/ko/post/2024/11/selfhosted-integration/ “통합 시스템 비교”)은 많은 유료 연결 모듈과 일부 무료 모듈을 갖춘 상업용 시스템일 수 있습니다.
또는 약간의 특이한 라이선스를 가진 종류의 무료 시스템일 수 있고,
또는 자체 호스팅 가능이며, 아니면 아닐 수도 있습니다.

도커 실용 팁

도커 실용 팁

자주 사용되는 도커 명령어 매개변수

다음은 Docker cheat sheet입니다.
이 문서는 설치부터 컨테이너 실행 및 정리까지 중요한 명령어와 개념을 다룹니다:

AWS Amplify에서의 Flutter

AWS Amplify에서의 Flutter

AWS Amplify 및 Flutter 지원

AWS Amplify 플랫폼에서 Flutter 전면 스택 프로젝트를 생성하는 방법에 대한 빠른 시작 가이드입니다.

팔팔레 대 퍼플렉시카

팔팔레 대 퍼플렉시카

두 개의 자체 호스팅 AI 검색 엔진 비교

아름다운 음식은 눈으로도 즐길 수 있는 즐거움입니다. 하지만 이번 포스팅에서는 두 가지 AI 기반 검색 시스템인 Farfalle 와 Perplexica 를 비교해 보겠습니다.

AWS Lambda 성능: JavaScript vs Python vs Golang

AWS Lambda 성능: JavaScript vs Python vs Golang

AWS 람다에서 사용할 언어는 무엇인가요?

AWS로의 배포를 위해 람다 함수를 여러 언어로 작성할 수 있습니다.
자바스크립트, 파이썬, Golang으로 작성된 (거의 비어 있는) 함수의 성능을 비교해 보겠습니다.

Ollama 를 활용한 Perplexica 자체 호스팅

Ollama 를 활용한 Perplexica 자체 호스팅

로컬에서 코파일럿 스타일 서비스를 실행하시나요? 간단합니다!

정말 흥미진진합니다!

코파일럿 (Copilot) 이나 perplexity.ai 에 접속하여 전 세계에 당신의 의도를 알릴 필요 없이, 이제 자신의 PC 나 노트북에서 유사한 서비스를 직접 호스팅할 수 있습니다!

Ollama 모델을 다른 위치로 이동하기

Ollama 모델을 다른 위치로 이동하기

Ollama LLM 모델 파일은 많은 공간을 차지합니다.

ollama 설치 후 모델을 즉시 새 위치로 저장하도록 ollama 를 재구성하는 것이 좋습니다. 이렇게 하면 새로운 모델을 풀링 (pull) 할 때 이전 위치로 다운로드되지 않습니다.