| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | |||
| 5 | 6 | 7 | 8 | 9 | 10 | 11 |
| 12 | 13 | 14 | 15 | 16 | 17 | 18 |
| 19 | 20 | 21 | 22 | 23 | 24 | 25 |
| 26 | 27 | 28 | 29 | 30 |
- podman
- vim
- .dockerignore
- dockerfile
- html canvas
- Caddy
- curl
- Docker Compose
- tauri
- podman compose
- Webpack
- vscode
- RandomAccessFile
- getting started
- Vite
- docker
- qwen3-coder-next
- Rust
- Java
- Ollama
- Thinking Mode
- Typescript
- cli
- io
- React
- glm-ocr
- compose
- Let's Encrypt
- k3s
- FileChannel
- Today
- Total
목록Ollama (5)
워로디스
1) CLI에서 한 번만 실행할 때 활성화ollama run qwen3.5 --think "질문" 비활성화ollama run qwen3.5 --think=false "질문" 생각은 하되, thinking trace만 화면에 숨기기ollama run qwen3.5 --hidethinking "질문" 공식 CLI quick reference에 이 형태가 그대로 나와 있습니다. --think=false는 사고 자체를 끄는 쪽이고, --hidethinking은 사고는 유지하면서 trace 표시만 숨기는 쪽입니다. 2) CLI 대화형 세션에서 계속 사용할 때 먼저 세션을 연 뒤:ollama run qwen3.5세션 안에서 전환합니다. 활성화/set think 비활성화/set nothink 즉, 대화형 모드에서는 ..
단순히 명령어 뒤에 파일 경로를 텍스트로 적어주면, 모델은 그 경로를 그저 '문자열'로만 인식합니다. 따라서 파일 경로가 아니라 파일의 실제 '내용(Content)'을 CLI를 통해 모델에게 직접 밀어 넣어주어야 합니다. 운영체제의 파이프(|)나 리다이렉션() 기능을 사용하면 간단하게 해결할 수 있습니다. 1. PowerShell을 사용하는 경우 (권장) Get-Content 명령어로 파일 내용을 읽은 뒤, 파이프(|)를 통해 모델에게 전달합니다.Get-Content "N:\some\path\some.md" | ollama run qwen3.5 "다음 내용을 읽고 분석해줘: " 2. 명령 프롬프트(cmd)를 사용하는 경우 입력 리다이렉션()을 사용하거나 type 명령어를 사용합니다.ollama run q..
Ollama CLI에서 이미지를 함께 전달하는 방법은 아주 간단합니다. 기본적으로 이미지 파일의 경로를 텍스트 질의와 함께 적어주기만 하면 됩니다.물론, 이를 위해서는 Llava나 Bakllava 같은 멀티모달(Multimodal) 모델을 사용해야 합니다. 1. 기본적인 사용 방법터미널에서 다음과 같은 형식으로 명령어를 입력하세요.ollama run llava "이 이미지에 무엇이 보이나요? ./image.png"모델명: 멀티모달 지원 모델 (예: llava, bakllava)질의 내용: 질문 문자열 안에 이미지 파일의 상대 경로 또는 절대 경로를 포함합니다. 2. 여러 장의 이미지 전달하기한 번에 여러 개의 이미지를 전달하여 비교하거나 분석할 수도 있습니다.ollama run llava "첫 번째 이미..
메모리 부족(OOM) 에러를 우회하여 모델을 실행해 볼 수 있는 구체적인 터미널 및 설정 플로우입니다. 기본 256K에 달하는 방대한 기억 공간(컨텍스트 윈도우)을 코딩에 무리가 없는 8K 수준으로 제한하고, 그래픽카드(VRAM)에 가해지는 부하를 시스템 RAM으로 분산시키는 설정입니다. Step 1. Modelfile 작성하기텍스트 편집기(메모장, VS Code 등)를 엽니다.아래의 코드를 복사하여 빈 문서에 붙여넣습니다.FROM qwen3-coder-next:latest# 컨텍스트 윈도우를 256K에서 8K(8192)로 대폭 축소하여 메모리 낭비 방지PARAMETER num_ctx 8192# GPU VRAM으로 보낼 레이어 수 제한 # (에러가 계속 나면 이 숫자를 5나 0으로 줄여 CPU/RAM 의..
glm-ocr는 128K 컨텍스트 모델로 배포됩니다.대부분 OCR에는 128K까지 필요 없어서 16K 정도로 낮추면 로딩 문제가 사라지는 경우가 많습니다. q8_0(메모리 절약) + 16K 컨텍스트 추천ollama pull glm-ocr:q8_0 Modelfile 파일을 하나 만들고(현재 폴더에 생성)FROM glm-ocr:q8_0PARAMETER num_ctx 16384 그 다음ollama create glm-ocr-16k -f Modelfileollama run glm-ocr-16k "Text Recognition: ./image.png" glm-ocr의 기본 사용 예시는 ollama 라이브러리 문서에 있는 형태(프롬프트에 이미지 경로 포함) 그대로 쓰면 됩니다. 만약 16K로도 부족/문제면: 819..