오픈클로 오픈채팅방 오픈클로 오픈채팅방

Nvidia 모델 사용하기

관리자 2026-02-25 09:24 조회 67

Nvidia Kimi 2.5를 사용하기에 이어서
https://www.openclaw.kr/boards/free/posts/115

Nvidia에서 추가해 볼 만한 모델은

  1. 좋다고 한 step 3.5 flash
    https://build.nvidia.com/stepfun-ai/step-3.5-flash

  2. GLM5
    https://build.nvidia.com/z-ai/glm5

  3. Deepseek V3.2
    https://build.nvidia.com/deepseek-ai/deepseek-v3_2

등이 있습니다.

왼쪽 상단에 모델 부분을 선택하면 다양한 모델들이 나오는데, 로컬LLM 용 모델도 있으니
자기 컴퓨터의 메모리에 맞는 모델을 선택해서 테스트 해보세요.
즉 Mac Mini 24G 정도라면 mistral 14bgpt oss 20b정도로..
새로 구매를 하실 분들은 적절한 모델을 선택해서 만족하면 그 정도의 메모리 사이즈를 구매할 수 있겠죠.

qwen3 coder 480b가 괜찮다고 하면, 512G정도를 구매하면 되겠네요. ㅠㅠ

Export 목록 답글

댓글 1

관리자 2026-02-26 09:21

(채팅에서 작성됨)