Minimalist Forum Reader
Chào mọi người,

Dạo gần đây mình có làm vài project AI nhỏ nên cần GPU để chạy thử model.

Mấy dịch vụ lớn như AWS / Google Cloud thì giá GPU khá cao nên mình tìm thử mấy nền tảng GPU cloud nhỏ hơn.

Mình có test một nền tảng GPU cloud khá ổn với nhiều loại GPU:

  • RTX 1660
  • RTX 3060
  • RTX 3090
  • RTX 4090
  • RTX 5090

Có thể chạy:
  • CUDA
  • PyTorch
  • TensorFlow
  • Docker
  • Remote development

Điểm mình thấy ổn:
  • giá rẻ hơn cloud lớn khá nhiều
  • tạo instance nhanh
  • phù hợp cho dev cá nhân hoặc học AI

Ngoài ra nền tảng này cũng hỗ trợ chia sẻ tài nguyên GPU nếu có máy GPU riêng.

Mình đang test thử workload AI thấy khá ổn.

Nếu ai cần GPU để:
  • train model
  • chạy inference
  • test AI project

có thể tham khảo thử:

Không biết trên VOZ có bác nào đang thuê GPU cloud để chạy AI không?
Có kinh nghiệm gì chia sẻ thêm nhé.
không thuê, nếu thuê để training Hoặc để chạy inference nhiều liên tục chạy openclaw thì mua hẳn phần cứng xịn về chạy luôn thuê chi cho mệt.

Giá thuê tầm 50k- 100k/h thì thôi đắt quá.
không thuê, nếu thuê để training Hoặc để chạy inference nhiều liên tục chạy openclaw thì mua hẳn phần cứng xịn về chạy luôn thuê chi cho mệt.

Giá thuê tầm 50k- 100k/h thì thôi đắt quá.
Đúng rồi bác, nếu chạy training lâu dài hoặc workload lớn thì mua GPU riêng vẫn là hợp lý nhất.

Cloud GPU thường phù hợp hơn với mấy trường hợp như:

  • test nhanh model
  • chạy inference ngắn hạn
  • dev / học AI
  • cần GPU tạm thời
  • không muốn đầu tư máy ban đầu

Một số gói nhỏ bên này cũng khá rẻ, từ khoảng vài trăm đồng / giờ cho workload nhẹ nên cũng có người dùng để test project.

Còn chạy production lâu dài thì đúng là build máy riêng sẽ kinh tế hơn.
Workload nhẹ với chạy inference thì có lẽ k cần thuê, vì AI free ngoài kia khá nhiều trên openrouter code tẹt ga cho mấy dự án cá nhân và demo.

Dự án thật thì mới phải chạy local để tăng tính an toàn thôi. Ông nào cần training thật thì mua hẳn máy về cho xong.