# Nvidia 모델 사용하기

- **작성자:** 관리자
- **날짜:** 2026-02-25 09:24
- **게시판:** 팁 & 스킬스
- **조회:** 238

---

Nvidia Kimi 2.5를 사용하기에 이어서
https://www.openclaw.kr/boards/free/posts/115

Nvidia에서 추가해 볼 만한 모델은

1. 좋다고 한 step 3.5 flash
https://build.nvidia.com/stepfun-ai/step-3.5-flash

2. GLM5
https://build.nvidia.com/z-ai/glm5

3. Deepseek V3.2
https://build.nvidia.com/deepseek-ai/deepseek-v3_2

등이 있습니다.

> 왼쪽 상단에 모델 부분을 선택하면 다양한 모델들이 나오는데, **로컬LLM** 용 모델도 있으니
> 자기 컴퓨터의 메모리에 맞는 모델을 선택해서 테스트 해보세요.
> 즉 Mac Mini 24G 정도라면  `mistral 14b` 나 `gpt oss 20b`정도로..
> 새로 구매를 하실 분들은 적절한 모델을 선택해서 만족하면 그 정도의 메모리 사이즈를 구매할 수 있겠죠.
> > qwen3 coder 480b가 괜찮다고 하면, 512G정도를 구매하면 되겠네요. ㅠㅠ

---
*원본: https://www.openclaw.kr/boards/free/posts/Nvidia-%EB%AA%A8%EB%8D%B8-%EC%82%AC%EC%9A%A9%ED%95%98%EA%B8%B0-h259w*