1、联网版:先创建pytorch环境:conda create -n ljj_torch112 python=3.8
看本机的:
先看自己的cuda版本:(最权威的看:nvcc --version)
10.0的cuda于是不太符合,所以换一个10.2的cuda比较常用!
创建pytorch环境:
(资料:(258条消息) Ubuntu中安装Pytorch_ubuntu安装pytorch_不写八个的博客-CSDN博客)
激活环境:conda activate ljj_torch112
1.2、下载pytorch(带上了cuda10.2)
我要下载的是1.12的,不是2.0的新版,所以到这里去找以前的pytorch:
conda install pytorch==1.12.0 torchvision==0.13.0 torchaudio==0.12.0 cudatoolkit=10.2 -c pytorch
1.2.1 查看torch、cuda等的版本
(258条消息) 在Python中,查看torch、cuda和cudnn的版本_cudnn版本查看_初识-CV的博客-CSDN博客
1.3、下载DGL
conda install -c dglteam/label/cu102 dgl
下载其他必要的安装包:
#conda install cudatoolkit
pip install scipy
pip install normflows==1.4
pip install tensorboardx==2.5.1
pip install tqdmpip install torchtext==0.4.0
pip install scikit-learn
pip install pandaspip install wandb
#日志输出的代码
script -f a.log
#有代码需要用到apex,所以下载apex有以下几步(跟着我标注黄色背景的代码,复制粘贴就可以):
sudo apt install git
git clone https://github.com/NVIDIA/apex.git(我使用了git,学校服务器不行,所以选择下面的wget)
总结,这个方法1试过,可以!——————在学校服务器8T4可以用这种方法!!
总结,这个方法2试过,可以!————在学校服务器4T4可以!
【【【【【【【(下载apex:) 如果git clone不行的话,再试试wget:
wget https://codeload.github.com/NVIDIA/apex/zip/refs/heads/master -O master.zip
#解压缩 unzip master.zip -d /mnt/hdd1/ljj/apex(参考来源:chatgpt)
cd /mnt/hdd1/allusers/ljj/4other/apex/apex-master
python3 setup.py install
来源:linux安装nvidia/apex - 知乎 (zhihu.com)
查看apex有没有安装成功:python import apex
(
】】】】】】】】】】】】】】】】】】】】】
参考: apex安装方法_51CTO博客_steam怎么下apex
)
如果代码中下载:pip install torchscale
pip install torchscale
pip install torchtext==0.4.0
1.3.1 可以用conda list查看DGL是否下载成功
2、上传文件版本_学校服务器安装cuda版本的pytorch+DGL:(不建议,因为用这个办法没成功过!)
2.1 上传torch、dgl文件(红框是dgl放置的地方,dgl就不用pip install 了)
(这是8*T4的位置)
(这是4*T4的位置)
2.2 下载torch安装包(dgl就不用pip install 了)
然后就可以运行代码啦!!!
但是如果不加下面的代码,仍然会报错,因为不是pip安装,所以一系列包就没有,所以需要自己手动添加:
conda install cudatoolkit
pip install scipy
pip install normflows==1.4
pip install tensorboardx==2.5.1
pip install tqdm
#日志输出的代码
script -f a.log
#WIKI的代码
CUDA_VISIBLE_DEVICES="1" python main.py --dataset Wiki-One --data_path ./Wiki --few 5 --data_form Pre-Train --prefix np_rgcn_attn_planar_wiki_5shot_intrain_g_batch_1024_eval_8 --device 1 --batch_size 32 --flow Planar -dim 50 --g_batch 1024 --eval_batch 8 --eval_epoch 2000
详细介绍(上面包含了代码,所以可不看)———————————————————————————————————
结果运行报错!OSError: libcublas.so.11: cannot open shared object file: No such file or directory
解决方法:conda install cudatoolkit
如果不行,可以换另一种方法:
https://blog.csdn.net/qq_42727728/article/details/123857908
——————————————————————————————————————————
untimeError: CUDA out of memory. Tried to allocate 1.25 GiB (GPU 0; 14.76 GiB total capacity; 10.37 GiB already allocated; 1.14 GiB free; 12.74 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF
出错结果是:
2.1查看原因:
# Your code before the problematic line
# Code leading to CUDA out-of-memory error
x = torch.cat([edges.src['h'], edges.data['feat'], edges.dst['feat']], dim=1)
# Release GPU memory
torch.cuda.empty_cache()
# Continue with the rest of your code
# ...
# Your code after the problematic line
3、在服务器中使用wandb:
(258条消息) wandb使用前提 - 注册,登陆_wandb注册_无脑敲代码,bug漫天飞的博客-CSDN博客
这个是在本地使用wandb:(资料如下链接)
(258条消息) wandb使用_ai-ai360的博客-CSDN博客
PyTorch 62.只需10分钟带你完美入门轻量级可视化工具wandb - 知乎 (zhihu.com)
(膜拜大佬,感谢!)总共是6+2步【6个代码,3个查看结果】
———————————————————我的电脑试验一下——————
总的加在自己代码上的部分:
1、import并且初始化init
import wandb
wandb.init(project="my-project")
wandb.watch_called = False # Re-run the model without restarting the runtime, unnecessary after our next release
2、在函数里;
wandb.log({ "Examples": example_images, "Test Accuracy": 100. * correct / len(test_loader.dataset), "Test Loss": test_loss })
3、config
config = wandb.config # Initialize config config.batch_size = 4 # input batch size for training (default:64) config.test_batch_size = 10 # input batch size for testing(default:1000) config.epochs = 50 # number of epochs to train(default:10) config.lr = 0.1 # learning rate(default:0.01) config.momentum = 0.1 # SGD momentum(default:0.5) config.no_cuda = False # disables CUDA training config.seed = 42 # random seed(default:42) config.log_interval = 10 # how many batches to wait before logging training status
4、训练结果
wandb.watch(model, log="all")
for epoch in range(1, config.epochs + 1):
train(config, model, device, train_loader, optimizer, epoch)
test(config, model, device, test_loader, classes)
torch.save(model.state_dict(), 'model.h5')
wandb.save('model.h5')
再按照大佬们举例子,截图:
学校服务器torch_geometric离线下载存在哪里:
简单粗暴2-安装torch_geometric库-Linux-全过程-2021.11.26最新2.0.2版本 - 知乎 (zhihu.com)
比如我想本机下载torch_geometric的whl文件,然后再用学校服务器再pip install:
下载好了whl文件,可以放在root下,
安装好之后把这个whl文件删除即可
下面的安装就是详细记录:
miniconda的安装:
Linux系统下conda的安装与使用_linux 安装conda_怀里的折耳猫的博客-CSDN博客
再阿里云服务器上安装anaconda:
文章评论