华为昇腾生态
tqx
·发布于 9 个月前·4 人看过
1.以前国内深度学习之前的配置都基本是
NVIDIA GPU / CPU + CUDA + Tensorflow/PyTorch
2.美国最新出口管制!英伟达RTX4090显卡或对华禁售
后来美国禁止 NVIDIA 卖GPU芯片给我们,于是国内企业开始发力CPU和GPU硬件,成果丰硕,虽然与NVIDIA顶级GPU还有一些差距,但是也不错,为了尽快填补国内需求,我们的解决方案是:
国产GPU + CUDA + Tensorflow/PyTorch
3.英伟达发布新规:其他硬件禁止使用CUDA
然后封禁还没有结束,2024年3月7日,NVIDIA开始禁止我们使用 CUDA ,它其实就是一个协议或者指令集,它连接底层硬件与上层机器学习框架即Tensorflow/PyTorch
,通过硬件和软件两个维度卡你,我们这么多年习惯了拿来主义,现在变得很被动。
4.另一种选择: 华为昇腾
华为昇腾生态
- 硬件:昇腾系列AI计算芯片 Ascend910/Ascend310,就是专门用来计算的GPU芯片
- 软件:使用 CANN(类比于CUDA)
- 机器学习框架:异思mindspore(对标Tensorflow/PyTorch)
同时mindspore也是开放的,它支持基于 CUDA 的 GPU 以及普通的 CPU芯片,当然mindspore也是使用 Python 来开发,还提供一个 MindStudio 全流程开发工具链。详见mindspore官网
5.其它
一些其他的配置和技术组合可以用于国内的深度学习参考:
- AMD GPU:AMD的显卡也能够进行深度学习任务加速,虽然在过去可能没有NVIDIA GPU流行,但AMD GPU也逐渐被深度学习社区接受。OpenCL是一种可以在AMD GPU上运行深度学习任务的替代框架。
- 英伟达 (NVIDIA) 的 Deep Learning Accelerator (DLA):英伟达的DLA是一种专门设计用于深度学习推理的硬件加速器,可以用于加速推理任务。
- 深度学习在边缘计算的部署:随着物联网和边缘计算的发展,深度学习模型也被部署到边缘设备上进行推理任务,这可能涉及到嵌入式系统、FPGA等硬件,并且可能使用TensorFlow Lite、TensorRT等轻量级框架。
- 量子计算:尽管目前还处于早期阶段,但量子计算可能在未来成为一种新的深度学习计算方式,提供更大规模的计算和更快的训练速度。
- 自定义硬件加速器:一些公司正在开发专门用于深度学习的自定义硬件加速器,例如谷歌的TPU (Tensor Processing Unit)、华为的昇腾 (Ascend) 等,这些加速器可能提供更高效的深度学习训练和推理性能。