ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

Local Ai Models on Quadro P2000 - Homelab testing Gemma Ai, Qwen2, Smollm, Phi 3.5, Llama 3.1

Автор: Digital Spaceport

Загружено: 2024-09-18

Просмотров: 18618

Описание: Longtime homelab favorite Quadro 2000 is a 5 GB GPU that is still pretty decent and in a lot of home servers already, but how does it handle running local LLMs? This is crazy, but it works and the performance IS NOT what you expect. Must watch if you have P2000 already in your system! I will cover some tips and tricks and possible use cases and tradeoffs for this Nvidia GPU.

Nvidia Quadro P2000 GPU https://geni.us/Quadro_P2000

SUPER CHEAP AI SERVER    • Local AI Server for $150 Budget in 2025?!  

Results Table https://digitalspaceport.com/llama3-1...

LOCAL AI QUAD 3090 SERVER    • INSANE Home AI Server - Quad 3090 Build  
GPU Rack Frame https://geni.us/GPU_Rack_Frame
Supermicro H12ssl-i MOBO (better option vs mz32-ar0) https://geni.us/MBD_H12SSL-I-O
Gigabyte MZ32-AR0 MOBO https://geni.us/mz32-ar0_motherboard
AMD 7V13 (newer, faster vs 7702) https://geni.us/EPYC_7V13_CPU
RTX 3090 24GB GPU (x4) https://geni.us/GPU3090
256GB (8x32GB) DDR4 2400 RAM https://geni.us/256GB_DDR4_RAM
PCIe4 Risers (x4) https://geni.us/PCIe4_Riser_Cable
AMD SP3 Air Cooler (easier vs water cooler) https://geni.us/EPYC_SP3_COOLER
iCUE H170i water cooler https://geni.us/iCUE_H170i_Capellix
(sTRX4 fits SP3 and retention kit comes with the CAPELLIX)
CORSAIR HX1500i PSU https://geni.us/Corsair_HX1500iPSU
4i SFF-8654 to 4i SFF-8654 (x4, not needed for H12SSL-i) https://geni.us/SFF8654_to_SFF8654
ARCTIC MX4 Thermal Paste https://geni.us/Arctic_ThermalPaste
Kritical Thermal GPU Pads https://geni.us/Kritical-Thermal-Pads
HDD Rack Screws for Fans https://geni.us/HDD_RackScrews

Be sure to 👍✅Subscribe✅👍 for more content like this!

Join this channel    / @digitalspaceport  

Digital Spaceport Website https://digitalspaceport.com

Patreon   / digitalspaceport  
Buy Me a Coffee https://buymeacoffee.com/digitalspace...

Please share this video to help spread the word and drop a comment below with your thoughts or questions. Thanks for watching!

Chapters
0:00 Ai Home Server Low Power GPU
1:10 Ollama Model Shopping
2:08 Microsoft Phi3.5 in 3.7b
6:22 Smollm 1.7b
8:04 Google Gemma Ai 2b
10:06 Low Wattage GPU Ai Models for Homelabs
11:14 Qwen2 7b
13:20 Llama3.1 Q3 8b
15:20 Use Cases Tips and Tricks


*****
As an Amazon Associate I earn from qualifying purchases.

When you click on links to various merchants on this site and make a purchase, this can result in this site earning a commission. Affiliate programs and affiliations include, but are not limited to, the eBay Partner Network.
*****

#digitalspaceport

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
Local Ai Models on Quadro P2000 - Homelab testing Gemma Ai, Qwen2, Smollm, Phi 3.5, Llama 3.1

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

Best Budget Local Ai GPU

Best Budget Local Ai GPU

Из дата-центра в игровой компьютер - Nvidia Tesla V100 в работе и играх.

Из дата-центра в игровой компьютер - Nvidia Tesla V100 в работе и играх.

Космическая плазма: что происходит между Солнцем и Землёй – Семихатов, Зелёный

Космическая плазма: что происходит между Солнцем и Землёй – Семихатов, Зелёный

🔥 DDR5 СВОИМИ РУКАМИ | Выживаем в кризис памяти 2026 года 💪| SODIMM - UDIMM без переходников

🔥 DDR5 СВОИМИ РУКАМИ | Выживаем в кризис памяти 2026 года 💪| SODIMM - UDIMM без переходников

Linux Mint вместо Windows — реальная замена?

Linux Mint вместо Windows — реальная замена?

Краткое объяснение больших языковых моделей

Краткое объяснение больших языковых моделей

3090 vs 4090 Local AI Server LLM Inference Speed Comparison on Ollama

3090 vs 4090 Local AI Server LLM Inference Speed Comparison on Ollama

Kimi-K2(1T)/GLM 4.7(355B) на 4-узловом кластере Strix Halo — 512 ГБ унифицированной памяти

Kimi-K2(1T)/GLM 4.7(355B) на 4-узловом кластере Strix Halo — 512 ГБ унифицированной памяти

ULTIMATE Local Ai FAQ

ULTIMATE Local Ai FAQ

Компьютер для ИИ за 12 млн.руб. - 2x RTX 6000 Ada Generation  / 2x AMD EPYC 9754 / RAM 6Tb /SSD 32Tb

Компьютер для ИИ за 12 млн.руб. - 2x RTX 6000 Ada Generation / 2x AMD EPYC 9754 / RAM 6Tb /SSD 32Tb

Лучшие самостоятельные инструменты искусственного интеллекта, которые вы можете запустить в своей...

Лучшие самостоятельные инструменты искусственного интеллекта, которые вы можете запустить в своей...

Ai Server Hardware Tips, Tricks and Takeaways

Ai Server Hardware Tips, Tricks and Takeaways

Дорогая RTX 5090 для LLM? НЕТ. Используйте это вместо неё. (SXM2 + Z8 G4, #RACERRRZ)

Дорогая RTX 5090 для LLM? НЕТ. Используйте это вместо неё. (SXM2 + Z8 G4, #RACERRRZ)

Кінець епохи Open AI? Нові чіпи Nvidia, Apple Gemini, Китай не врятує ринок | Маленькі Новини №111

Кінець епохи Open AI? Нові чіпи Nvidia, Apple Gemini, Китай не врятує ринок | Маленькі Новини №111

Локальные тесты ИИ DGX Spark и Quad 3090s — лучшая установка за $4 тыс.?

Локальные тесты ИИ DGX Spark и Quad 3090s — лучшая установка за $4 тыс.?

This mini GPU runs LLM that controls this robot

This mini GPU runs LLM that controls this robot

NVIDIA users: QWEN3 is FREE, but you’ll pay double

NVIDIA users: QWEN3 is FREE, but you’ll pay double

Требования к графическому процессору LLAMA 3.1 70b (FP32, FP16, INT8 и INT4)

Требования к графическому процессору LLAMA 3.1 70b (FP32, FP16, INT8 и INT4)

Как выбрать NAS? Подборка сетевых хранилищ для домашнего использования

Как выбрать NAS? Подборка сетевых хранилищ для домашнего использования

Получайте доступ к своим файлам, где бы вы ни находились — идеальная конфигурация Raspberry Pi 5.

Получайте доступ к своим файлам, где бы вы ни находились — идеальная конфигурация Raspberry Pi 5.

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]