服务器组装电脑主机组装配置单


本文作者详细描述了自己组装深度学习服务器的过程,从CPU、GPU、主板、电源、机箱等的选取到部件的安装,再到服务器的设置,可谓面面俱到。作者指出,组装者首先要弄清自己的需求,然后根据预算做出合理的选择。

我刚开始学习fast.ai课程的第一部分——“PracticalDeepLearningforCoders”,我想搭建自己的服务器来训练模型,作为使用AWSp2和存储的升级。我将会使用更大的数据集,并且我不希望在训练模型时因为缺乏足够的处理能力而等待数小时,因此构建自己的DLrig服务器对我来说是一个不错的选择,而且从长远来看,它将为我节省大量的时间和金钱,而且可以积累组装服务器的良好经验。

我用来细化各个部件,因为它可以将对比和组装其它部件变得非常简单,而且还具备很不错的部件兼容性检查器。我将详细解释选择每个部件的原因以及它们如何与整个系统协同工作。

因为你要使用显卡来训练模型,所以这是组装过程中最重要的一部分,因此,GPU越强大,你处理大型数据集的速度就越快。GPU内存越大,处理能力也就越强(如:训练速度更快,批尺寸更大……)。我为自己的服务器选了两块这种显卡,因为我在预算里为它们预留了空间,这样我就能用其中一块显卡训练模型,让另一个用户在第二块卡上训练其模型。你可以根据自己的预算缩减GPU内存(、等),防止与其它部件争抢预算。HybridGPU也不错,因为除了大多数GPU具有的正常风扇冷却之外,它还预装了aio水冷系统。Ti在满负载运行时会过热,因此,在训练模型时,良好的冷却系统对于延长显卡寿命并保持其性能至关重要。关于显卡选择的更多细节,请参见,该文帮助我真正了解了如何选择适合深度学习环境的显卡。

虽然你用显卡训练神经网络,但CPU依然很重要,因为你要用它来进行数据准备等操作,因此那些多核CPU将有助于加快速度。我用的是“线程撕裂者”Treadripper,因为这是市面上非常新的一款多核CPU(ThreadRipper2代有32个内核!),而且比因特尔价格低得多。x是去年发布的基础版TR,它只有8个内核,不过我对这台服务器的整体目标是保持它的可升级性。

需要注意的一点是,在选择CPU时,要确保有8或16个pcie插槽供显卡使用,这样才能保证它们在低负载下发挥最好的性能,否则就有堵塞系统的风险。在高端CPU上,如果你的服务器中有4个显卡,那么你就有足够的pcie插槽。

选择这块主板是因为它是一块完整的ATX板,可容纳4个GPU,RAM最多可达128GB。正如我前面所说,这个服务器的主要目标之一是保持它可升级。

内存越大,处理大型数据集就越容易。我的下一个升级计划是再添加两个16GBRAM内存条,这也是我没有安装四通道内存(4个8GB内存条)的原因,尽管它会提高我的服务器的性能。