终端安装ARM架构的pytorch(torch+torchvision)(whl安装只有CPU版本)

你好,兄弟,你最近在基于 ARM 的设备上安装了 PyTorch 吗?我之前在这个领域遇到过很多陷阱,想与大家分享一些我的经验。

首先,您需要检查设备环境。
我们之前在 Jetson 平台上做过这样的事情。
不要忘记使用 uname -m 命令来检查您的体系结构。
如果输出是 aarch6 4 或 ARM6 4 ,您就知道它是 ARM 架构。
然后检查 CUDA 版本并运行 nvcc --version。
当时看到的是Cudacompilationtools,release1 0.2 ,V1 0.2 .8 9 ,看得出来是CUDA 1 0.2
再看看您的 Jetpack 版本。
I use dpkg -l | Check out grep jetpack.例如,Jetpack 4 .6 或 5 .0.1 应与您的 PyTorch 版本匹配。

接下来,安装 GPU 版本的 PyTorch。
我们推荐使用Jetson官方的预编译包,简单且兼容。
例如,要将 Jetpack 4 .6 与 Python 3 .6 结合使用,您需要下载 torch-1 .1 0.0-cp3 6 -cp3 6 m-linux_aarch6 4 .whl 和 torchvision-0.1 1 .1 -cp3 6 -cp3 6 m-linux_aarch6 4 .whl,然后使用 pip install 进行安装。

如果官方存储库没有您想要的版本,您需要从源代码编译它。
我从 https://github.com/pytorch/pytorch 克隆了源代码,然后设置了 CUDA 和 CUDNN,最后使用 pip install 安装了它们。

安装后检查。
我一般都是用进口的手电筒。
使用 print(torch.cuda.is_available()) 检查 GPU 支持。
如果输出为True,则说明成功。

如果出现问题,请先检查版本是否冲突。
我之前安装了CPU版本,不得不先卸载它。
如果您的 Jetpack 版本不匹配,请升级到最新版本。
编译错误(例如 CUDA 路径问题)需要检查 nvcc 是否在您的 PATH 中或临时将其添加到环境变量中。

最后总结一下,官方预编译包是首选,源码编译是替代方案。
关键是要保证版本匹配和架构一致性。

希望这个经验对你有帮助,兄弟!如果您有任何疑问,请随时与我联系。

linux安装whl文件怎么安装

说白了,安装Python包需要三个步骤:先确认版本,然后安装包,最后验证。

我们先来说说最重要的事情。
只需打开终端并在 Linux 中使用 Ctrl+Alt+T 即可。
别打扰。
输入 python --version 确认其版本为 2 .7 或更高版本。
如果这还不够,请快速升级系统。
不要等到安装包时卡住了。
去年我们跑这个项目的时候,有人卡在Python 3 .6 上,纠结了两天。
还有一点,使用pip install -U tensorflow安装TensorFlow,记得加上-U参数,不然会保留旧版本。
我们的测试环境是3 000左右,加上设置后,打包速度几乎减半了。
还有另一个关键细节。
打包本地文件时不需要添加任何参数。
pip只需安装文件名.whl。
不要将其与在线环境混淆。

一开始以为pip install随便输入就可以了,后来发现是错误的。
有些包需要指定版本,比如pip install tensorflow==2 .3 ,否则安装为3 .x会报错。
等等,还有一件事,安装完之后先别急着用。
首先pip list看看版本是否正确,以免运行时发现错误。

建议先安装在虚拟环境中,以免直接污染整体系统包。

whl文件是什么?

whl 文件是 Python 预编译的二进制包。

本质上,它是一个.zip压缩包,包含.py源代码和.pyd二进制文件(Windows)或.so/.dylib(其他系统)。

2 01 7 PEP 4 2 7 标准化以简化安装。

优点:pip安装无需编译即可直接使用。

示例:NumPy 1 .2 1 .0-cp3 9 -cp3 9 -win_amd6 4 .whl。

注意:必须兼容Python3 .9 、Windows 6 4 位。

请勿使用错误。