Maskinlæring er måske nutidens hotteste teknologi - og i modsætning til tidligere år har du ikke længere brug for en MIT-supercomputer til at træne AI-modeller. Faktisk kan håbefulde AI-innovatorer træne mange af dem nutidens mest interessante ML-modeller på en forbruger-pc.
Det betyder ikke, at du kan gøre det på en hvilken som helst gammel computer. Du skal bruge en kraftfuld rig med opdateret hardware for at få mest muligt ud af dine ML-eksperimenter. Vi anbefaler ved hjælp af en pc-builder og samle din deep learning rig selv for at maksimere pengene for pengene.
Nej, virkelig - det er ikke så svært, som du måske forestiller dig, og du kan spare nogle betydelige penge! Tjek vores guide nedenfor for en introduktion til det grundlæggende i deep learning-pc'er.
Vurdere dine behov
Før du begynder at lede efter dele, er her nogle kritiske faktorer, du skal overveje:
- Arbejdsbelastning: Hvor store og komplekse er de modeller og datasæt, du vil arbejde med? Maskiner, der behandler større datasæt med mere kompleksitet, vil normalt kræve mere kraftfuld hardware for at følge med.
- Budget: Selvom en deep learning-maskine aldrig vil være, hvad du vil kalde en "budget"-pc (i hvert fald for nu), bør du have en grundlæggende idé om, hvad du prøver at bruge. Typiske budgetter for deep learning pc'er varierer fra $1,500 til $3,000 (men kan sagtens gå meget højere).
- Skalerbarhed: Vil du have mulighed for nemt at skalere dine modeller op til større datasæt i fremtiden? Det kan være en god idé at indbygge lidt frihøjde i din deep learning-pc med komponenter lidt over dine nuværende behov.
GPU'en
GPU'en er den vigtigste arbejdshest i enhver dyb læringsrig, der behandler de millioner af beregninger pr. sekund, der er afgørende for maskinlæring. Avancerede GPU'er som NVIDIA RTX 4000-serien eller AMD Radeon RX 7000-serien er standardvalg, og du vil se mange ML-rigge med mere end en af disse kort.
Planlæg at bruge det største beløb af dit budget og din valgtid her. Nogle (men ikke alle) af de vigtigste faktorer i dit GPU-valg inkluderer:
- GPU-arkitektur: De nyeste GPU-arkitekturer, som NVIDIA Hopper og AMD RDNA3, inkluderer AI-specifikke funktioner. Se efter nuværende generationskort med disse arkitekturer for at maksimere din computerkraft.
- VRAM-størrelse: Du leder efter en GPU med den mest VRAM-hukommelse, du kan få for dit budget. VRAM er indbygget hukommelse afgørende for at fremskynde ML-behandling, især på komplekse modeller og store datasæt.
- CUDA Cores (NVIDIA)/Stream Processorer (AMD): Disse små, højt specialiserede kerner er en stor faktor i maskinlæringshastigheder. Generelt gælder det, at jo mere af begge et kort har, jo bedre.
- Matrixbehandling: Matrixmultiplikation er et væsentligt element i de fleste ML-modeller, så kig efter funktioner, der er designet til at håndtere matrixarbejde med blandet præcision. Disse omfatter NVIDIAs Tensor Core-arkitektur og AMDs ROCm open source-stak.
- Software: Visse modeller og softwareværktøjer er bygget til kompatibilitet med kort fra visse producenter, så tjek for at bekræfte, at de værktøjer, du vil bruge, er kompatible med din GPU.
U'en
Selvom U'en spiller anden violin til GPU'en i de beregningsintensive opgaver med dyb læring, er det stadig en kritisk komponent, der styrer hele processen med at forberede og træne en model. Her er nogle grundlæggende ting at kigge efter i en deep learning U:
- Kerne- og trådantal: Se efter en U med så mange kerner og behandlingstråde, som dit budget kan rumme. Dyb læring kræver højeffektiv parallel bearbejdning, hvor ekstra kerner og samtidige tråde skinner.
- AI-acceleration: Ligesom GPU'er har nuværende U-arkitekturer ofte indbyggede funktioner til at accelerere AI-arbejdsbelastninger.
- PCIe-baner: Hvis du skal bruge mere end én GPU, skal du sørge for, at din U tilbyder nok PCI Express baner for at understøtte de GPU'er, du vil forbinde til den.
- Hukommelsesunderstøttelse: Tjek, om en U understøtter den nyeste DDR5-hukommelse, samt den maksimale mængde RAM, den kan understøtte.
RAM
Den sidste vigtige komponent til din dybe læringsopbygning er RAM - og du kommer til at få brug for meget af det.
- Kapacitet: Jo større dine datasæt, jo mere GB-kapacitet har du brug for. 32 GB er minimumsstandarden for de fleste deep learning-pc'er, men 64 GB er almindeligt, og 128 GB er bestemt ikke uhørt i ML-pc'er i forskningsklasse.
- DDR4 vs. DDR5: DDR4 RAM er langt fra forældet, men de fleste kraftige pc'er bruger i dag DDR5. Det kan give et ydelsesboost, og det er værd at få hele dit system (inklusive U'en og bundkortet) ind i DDR5-økosystemet for lettere opgraderinger senere.
Andre komponenter
Disse dele har alle væsentlige roller at spille, selvom de ikke er så centrale i maskinlæringens kerneopgaver.
- Strømforsyning: Deep learning pc'er bruger mange kraftfulde komponenter, så det er afgørende at finde en højeffektiv strømforsyning der kan give tilstrækkelig watt. Efterlad lidt frihøjde (normalt mindst 100W) til højere belastninger og fremtidige opgraderinger, og sørg for, at den har nok strømporte, hvis du bruger mere end én GPU.
- Case: Du bruger sandsynligvis en større GPU, og måske endda mere end én, så en fuld ATX-tårnkasse er normalt vejen at gå. Luftstrøm er en anden høj prioritet, da din GPU sandsynligvis vil generere en del varme, så kig efter noget med funktioner som et mesh-frontdesign.
- Primær lagring: De fleste SSD'er med høj kapacitet vil fungere fint, selvom den ekstra hastighed på NVMe SSD'er gør dem at foretrække frem for SATA-drev. Du vil have noget med høj kapacitet (2 TB er normalt nok) siden træningsdatasæt kan optage flere hundrede GB plads hver.
- Bundkort: Sørg for, at det er kompatibelt med din U, har nok baner til dine GPU'er og er kompatibelt med din RAM. For at undgå kompatibilitetsbesvær har mange pc-byggere vælg et bundt med computerdele der inkluderer en forudvalgt U og bundkort.
Forvent at lave mere research, før du begynder at bygge. Dette er de grundlæggende ting at overveje, men der er helt sikkert mere at vide! Bliv ved med at lære, fortsæt med at eksperimentere, og du kan bare træne en af de modeller, der definerer det 21. århundredes teknologi.