cuda9 python版本
- 格式:docx
- 大小:4.70 KB
- 文档页数:5
Ubuntu安装caffe及python和opencv Ubuntu版本:16.04.03 LTS,可以比较顺利地全部安装python所需的各种依赖,而不需要安装anaconda包。
否则会引起新的软件之间的冲突。
Opencv:2.4.9Python:2.7Cuda:8.0Cudnn:5.11.解决无法安装ubuntu操作系统的问题最近楼主购入一台华硕游戏本,发现无法安装ubantu。
在安装中发现除了debian外所有使用自动安装方式的linux发行版均不能安装,于是研究就开始了。
opensuse卡在写入引导,fedroa和centos卡在启动,ubuntu卡在启动安装,怀疑是u盘制作工具有问题,于是尝试了几种工具,就连dd命令也试过了,结果都无法解决。
解决方法:重新开机,光标选中“Install Ubuntu” ,按“e”,进入grub界面,将倒数第二行中的“quiet splash ---”改为“nomodeset”。
F10保存,就可以进入安装界面,进行安装。
安装ubuntu系统之后,还需要将Ubuntu集成的开源驱动加入黑名单,即增加/etc/modprobe.d/blacklist-nouveau.conf文件:sudo gedit /etc/modprobe.d/blacklist-nouveau.conf在该文件中增加如下两行:blacklist nouveauoptions nouveau modeset=0激活上述文件发挥功能,执行sudo update-initramfs –u执行 $lspci | grep nouveau,查看是否有内容,没有说明禁用成功,如果有内容,就执行:$sudo reboot2.安装caffe及python先下载caffe# sudo git clone https:///BVLC/caffe.git然后安装一堆第三方库# sudo apt-get install libatlas-base-dev# sudo apt-get install libprotobuf-dev# sudo apt-get install libleveldb-dev# sudo apt-get install libsnappy-dev# sudo apt-get install libopencv-dev# sudo apt-get install libboost-all-dev# sudo apt-get install libhdf5-serial-dev# sudo apt-get install libgflags-dev# sudo apt-get install libgoogle-glog-dev# sudo apt-get install liblmdb-dev# sudo apt-get install protobuf-compiler# sudo apt-get install python-dev接着,安装opencv# cd caffe# sudo git clone https:///jayrambhia/Install-OpenCV# cd Install-OpenCV/Ubuntu# sudo sh dependencies.sh# cd 2.4# sudo sh opencv2_4_10.shopencv的另一种安装方式直接克隆下来sudo git clone https:///jayrambhia/Install-OpenCV进入 cd Install-OpenCV/Ubuntu/2.4给所有shell脚本加上可执行权限chmod +x *.sh安装其他版本出错了,建议装这个:sudo ./opencv2_4_9.sh或:sudo sh opencv2_4_10.sh最终出现OpenCV ready to be used(表示成功)接下来,编译caffe# cd ~/caffe# sudo cp Makefile.config.example Makefile.config# make all至此,caffe安装完成。
cuda python 推理-回复cuda是一种并行计算平台和编程模型,用于利用GPU(图形处理器)进行高性能计算任务。
在这篇文章中,我们将以CUDA Python推理为主题,深入探讨如何使用CUDA和Python来实现并加速推理任务。
首先,让我们了解一下CUDA的基本概念和原理。
CUDA(Compute Unified Device Architecture,统一计算架构)是由NVIDIA开发的一种计算平台和应用程序接口(API),用于利用GPU来加速计算。
GPU是一种高度并行的处理器,具有数百个计算核心,可以同时执行大量的计算任务。
为了充分利用GPU的并行处理能力,CUDA提供了一种编程模型,使得开发者可以将计算任务划分为很多小的并行任务,然后在GPU上并行执行。
在CUDA中,我们使用CUDA C/C++或CUDA Python来编写并行计算任务。
CUDA Python是一种在Python语言中使用CUDA的扩展库,可以方便地在Python中编写CUDA程序。
CUDA Python提供了一系列的API,用于管理GPU设备、分配和传输数据、调度并行任务等等。
通过使用CUDA Python,我们可以充分利用GPU的计算能力,实现高性能的并行计算任务。
接下来,让我们详细介绍如何在Python中使用CUDA进行推理。
首先,我们需要安装CUDA开发环境和相应的Python库。
在安装完成后,我们可以使用以下步骤来执行CUDA推理任务:1. 导入必要的库和模块:在Python中,我们需要导入一些必要的库和模块,如CUDA Python库、NumPy库等等。
这些库和模块提供了我们在CUDA推理任务中需要使用的函数和工具。
pythonimport numpy as npfrom numba import cuda2. 准备输入数据:在进行CUDA推理之前,我们需要准备好输入数据。
通常,我们可以使用NumPy库来生成输入数据。
Ubuntu安装caffe及python和opencv Ubuntu版本:16.04.03LTS,可以比较顺利地全部安装python所需的各种依赖,而不需要安装anaconda包。
否则会引起新的软件之间的冲突。
Opencv:2.4.9Python:2.7Cuda:8.0Cudnn:5.11.解决无法安装ubuntu操作系统的问题最近楼主购入一台华硕游戏本,发现无法安装ubantu。
在安装中发现除了debian外所有使用自动安装方式的linux发行版均不能安装,于是研究就开始了。
opensuse卡在写入引导,fedroa和centos卡在启动,ubuntu卡在启动安装,怀疑是u盘制作工具有问题,于是尝试了几种工具,就连dd命令也试过了,结果都无法解决。
解决方法:重新开机,光标选中“Install Ubuntu”,按“e”,进入grub界面,将倒数第二行中的“quiet splash ---”改为“nomodeset”。
F10保存,就可以进入安装界面,进行安装。
安装ubuntu系统之后,还需要将Ubuntu集成的开源驱动加入黑名单,即增加/etc/modprobe.d/blacklist-nouveau.conf文件:sudogedit /etc/modprobe.d/blacklist-nouveau.conf在该文件中增加如下两行:blacklist nouveauoptions nouveau modeset=0激活上述文件发挥功能,执行sudo update-initramfs –u执行$lspci | grep nouveau,查看是否有内容,没有说明禁用成功,如果有内容,就执行:$sudo reboot2.安装caffe及python先下载caffe# sudo git clone https:///BVLC/caffe.git然后安装一堆第三方库# sudo apt-get install libatlas-base-dev# sudo apt-get install libprotobuf-dev# sudo apt-get install libleveldb-dev# sudo apt-get install libsnappy-dev# sudo apt-get install libopencv-dev# sudo apt-get install libboost-all-dev# sudo apt-get install libhdf5-serial-dev# sudo apt-get install libgflags-dev# sudo apt-get install libgoogle-glog-dev# sudo apt-get install liblmdb-dev# sudo apt-get install protobuf-compiler# sudo apt-get install python-dev接着,安装opencv# cd caffe# sudo git clone https:///jayrambhia/Install-OpenCV# cd Install-OpenCV/Ubuntu# sudosh dependencies.sh# cd 2.4# sudosh opencv2_4_10.shopencv的另一种安装方式直接克隆下来sudogit clone https:///jayrambhia/Install-OpenCV进入cd Install-OpenCV/Ubuntu/2.4给所有shell脚本加上可执行权限chmod +x *.sh安装其他版本出错了,建议装这个:sudo ./opencv2_4_9.sh或:sudosh opencv2_4_10.sh最终出现OpenCV ready to be used(表示成功)接下来,编译caffe# cd ~/caffe# sudocpMakefile.config.exampleMakefile.config# make all至此,caffe安装完成。
Ubuntu16.04上安装CUDA9.0详细教程前⾔:本篇⽂章是基于安装CUDA 9.0的经验写,CUDA9.0⽬前⽀持Ubuntu16.04和Ubuntu17.04两个版本,如下图所⽰(最下⾯的安装⽅式我们选择第⼀个,即runfile⽅式):⼤家可以先将CUDA⽂件下来,但是最好不要急于安装,⼀定要先将NVIDIA给出仔细看⼀下,然后再找⼏篇好的博客看⼀下,⼤致了解⼀下CUDA的安装过程,对安装过程中可能出现的问题要⼤致有⼀个了解,不到万不得已不要重装系统。
安装建议:1)去官⽹下载CUDA的同时,⼀定要找份相应官⽅的安装⽂档仔细阅读,尽可能按照它的步骤⼀步步⾛,不可偷懒。
同时再找⼏篇好的博客作为参考,安装之前做到胸有成⽵。
2)在安装之前⼀定要详细检查⾃⼰的电脑配置(单显卡还是双显卡)、显卡的种类是否符合CUDA的安装要求、系统是否满⾜安装要求。
3)安装过程中每进⾏⼀项操作,都尽量去检查⼀下该项操作是否操作成功。
安装过程:⼀、安装、熟悉ubuntu16.04系统安装软件之前最好对ubuntu的命令⾏有⼀些基本的了解,像sudo、cd、ls、nona、cat、chmod等等,这样能够在安装过程中省去很多不必要的⿇烦。
(推荐⼤家去百度搜⼀下莫凡Python,他有关于ubuntu命令的视频,每⼀集都很精炼,讲的很好)⼆、检查⾃⼰的电脑环境是否具备安装CUDA的条件1) 验证⾃⼰的电脑是否有⼀个可以⽀持CUDA的GPU你可以电脑的配置信息中找到显卡的具体型号,如果你是双系统,在Windows下的设备管理器中也可以查到显卡的详细信息;你也可以在ubuntu的终端中输⼊命令: $ lspci | grep -i nvidia ,会显⽰出你的NVIDIA GPU版本信息,不过不是很详细。
我的显⽰为(GeForceGT630M):01:00.0 3D controller: NVIDIA Corporation GF117M [GeForce 610M/710M/810M/820M / GT 620M/625M/630M/720M] (rev a1)然后去CUDA的查看⾃⼰的GPU版本是否在CUDA的⽀持列表中。
linux环境GPU版pytorch安装教程在Linux环境下安装GPU版PyTorch需要进行以下步骤:1.确认显卡驱动:首先要确保系统中正确安装了适配自己显卡的驱动程序。
可以通过输入以下命令来检查显卡驱动版本:```nvidia-smi```如果出现显卡驱动的信息说明已经正确安装。
2. 安装CUDA:PyTorch使用CUDA进行GPU加速,所以需要安装对应的CUDA版本。
可以通过以下步骤安装CUDA:```chmod +x cuda_*.runsudo ./cuda_*.run```安装过程中会询问是否安装NVIDIA驱动,如果之前已经安装了驱动则无需再次安装。
c. 添加CUDA路径到系统环境变量。
找到cuda安装目录下的bin文件夹,打开终端,并执行以下命令:```export PATH=/usr/local/cuda-<version>/bin${PATH:+:${PATH}}export LD_LIBRARY_PATH=/usr/local/cuda-<version>/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}} ```其中`<version>`为CUDA的版本号,例如`11.0`。
3. 安装cuDNN:cuDNN是NVIDIA提供的用于深度学习框架的GPU加速库,PyTorch需要使用到它。
可以按照以下步骤安装cuDNN:4. 创建虚拟环境:为了避免与系统Python环境冲突,最好在安装PyTorch之前创建一个虚拟环境。
可以使用`virtualenv`或者`conda`来创建虚拟环境。
这里使用`conda`为例:a. 如果没有安装`conda`,可以先安装`conda`,并创建一个新的环境:```conda create -n pytorch_env python=3.7```在这个例子中,我们创建了一个名为`pytorch_env`的环境,并选择了Python 3.7版本。
常用Python版本引言Python是一种简单易学、功能强大的编程语言,由于其开源免费、可移植性强等特点,逐渐成为最受欢迎的编程语言之一。
截至目前,Python已经发布了多个版本,针对不同的需求和发展方向,衍生出了许多分支版本。
本文将介绍一些常用的Python版本,并详细探讨它们的特点和适用场景。
一、Python 2.x系列Python 2.x系列是Python编程语言的早期版本,最后一个版本为2.7,发布于2010年。
在发布Python 3之前,Python 2.x系列是最广泛使用的Python版本。
然而,由于一些设计和功能上的限制,以及与Python 3的不兼容性,Python 2.x 系列逐渐不再维护和支持。
1. Python2.7Python 2.7是Python 2.x系列的最后一个版本,也是很多项目目前仍在使用的版本之一。
Python 2.7包含了许多有用的库和工具,并且有相对完善的文档和社区支持。
然而,需要注意的是,Python 2.7不再积极开发和维护,也不再接收新的特性更新,因此在新项目中选择Python 2.7可能会有一些限制。
二、Python 3.x系列Python 3.x系列是Python编程语言的最新版本,目前最新的稳定版本为3.9。
Python 3通过对语言的改进和优化,解决了Python 2.x系列中的一些问题,并引入了一些新的特性和语法。
然而,由于与Python 2.x系列的不兼容性,一些现有的Python代码需要进行适当的修改才能在Python 3中运行。
1. Python 3.9Python 3.9是Python 3.x系列的最新版本,于2020年发布。
Python 3.9引入了一些新的语法和特性,提供了更好的性能和可用性,同时修复了一些bug。
Python 3.9是目前最新的稳定版本,推荐在新项目中使用。
2. 版本兼容性问题由于Python 3.x系列与Python 2.x系列的不兼容性,迁移现有代码到Python 3可能存在一些挑战。
PyTorch2ONNX2TensorRT踩坑⽇志PyTorch2ONNX2TensorRT 踩坑⽇志麦克斯韦恶魔 2019-12-07 15:30:05 10543 收藏 26分类专栏:学习笔记 # linux gpu 相关 # TRT ⽂章标签: onnx pytorch tensorrt 转换 onnx2tensorrt版权PyTorch2ONNX2TensorRT 踩坑⽇志从“⽤PyTorch写的⽹络,通过ONNX,使⽤TensorRT序列化,最终完成模型加速”的全流程踩坑⽇志。
2019/12/07 初版2019/12/17 更新AdaptivePooling, 找BUG思路2019/12/27 添加AdaptivePooling⽰例2020/01/01 添加VGG16⽰例链接实验环境ONNX可以不⽤安装,对ONNX2TRT没有影响,推荐使⽤anaconda管理包。
Ubuntu 16.04RTX2080TI, Driver Version: 410.79CUDA 10.0cudnn 7.6.3 (经测低版本如7.5.0⽆影响)pycuda 2019.1.2pytorch 1.3.1torchvision 0.4.2tensorrt 6.0.1.5python 3.6.9经测ONNX⽆法使⽤,建议使⽤python 3.7.xonnx 1.6.0protobuf 3.9.2 (需要降级到3.9.x,不然onnx会报libprotobuf.so.20的错)1. RuntimeError: ONNX export failed: Couldn’t export operator aten::upsample_bilinear2d⽆法解决,ONNX2TensorRT报错,待TensorRT后续版本⽀持,见后⽂替代⽅法#4近似地,应该与警告信息 UserWarning: ONNX export failed on upsample_bilinear2d because align_corners == True not supported 相关联。
文章标题:深入探讨CUDA、PyTorch和Python对应版本的关系在计算机科学领域中,CUDA、PyTorch和Python是三个备受关注的重要技术和工具。
它们分别代表着通用并行计算架构、深度学习框架和高级编程语言,它们之间的关系和版本对应一直是人们关注的焦点。
本文将深入探讨CUDA、PyTorch和Python对应版本的内容,帮助读者全面理解它们之间的关联。
一、 CUDACUDA(Compute Unified Device Architecture)是由NVIDIA推出的一种通用并行计算架构。
它充分利用了NVIDIA GPU的并行计算能力,将通用计算任务和图形处理任务结合在一起。
CUDA的出现极大地提升了GPU在科学计算、深度学习等领域的应用能力。
在CUDA的发展过程中,不同的版本对应着不同的NVIDIA GPU架构。
比如CUDA 9.0适用于Kepler架构,而CUDA 10.0支持了Volta架构。
在选择CUDA版本的时候,需要根据自己的GPU架构来确定最适合的版本,以获得更好的性能和稳定性。
二、 PyTorchPyTorch是一个开源的深度学习框架,由Facebook开发并维护。
它提供了丰富的张量计算功能和灵活的神经网络设计,深受研究者和工程师的青睐。
PyTorch的出现极大地推动了深度学习技术的发展,并在学术界和工业界取得了广泛的应用。
PyTorch的版本更新非常频繁,每个新版本都会带来新功能和改进。
PyTorch也会根据不同的CUDA版本进行优化,以保证在不同GPU 环境下的稳定性和性能。
在选择PyTorch版本的时候,需要考虑与CUDA对应的情况,以获得最佳的使用体验。
三、 PythonPython是一种简单易学、功能丰富的高级编程语言,被广泛应用于科学计算、人工智能和网页开发等领域。
作为一种动态类型语言,Python以其清晰的语法和丰富的库支持,成为了众多开发者的首选。
在Python的发展过程中,不同的版本也对应着不同的特性和优化。
cudatoolkit version driver什么是CUDA Toolkit?CUDA Toolkit是一款由NVIDIA公司开发的软件开发工具套件,它允许开发者在NVIDIA GPU上进行并行计算。
CUDA是一种通用计算架构,可以将GPU用于处理更加复杂、计算密集型的任务,从而加快应用程序的执行速度。
CUDA Toolkit提供了一系列的工具和库,可以帮助开发者进行CUDA程序的编写、调试和优化。
CUDA Toolkit的版本与驱动之间的关系在使用CUDA Toolkit之前,需要确保计算机上正确安装了与版本兼容的GPU驱动程序。
CUDA Toolkit的版本与驱动之间是有一定关系的,不同版本的CUDA Toolkit需要特定版本的GPU驱动才能正常工作。
下面将详细说明不同CUDA Toolkit版本与驱动版本之间的关系。
CUDA Toolkit 11.2和驱动版本之间的兼容性:CUDA Toolkit 11.2支持的驱动版本范围是从460.27.04到最新版本。
CUDA Toolkit 11.1和驱动版本之间的兼容性:CUDA Toolkit 11.1支持的驱动版本范围是从455.23.04到最新版本。
CUDA Toolkit 11.0和驱动版本之间的兼容性:CUDA Toolkit 11.0支持的驱动版本范围是从450.36.06到最新版本。
CUDA Toolkit 10.2和驱动版本之间的兼容性:CUDA Toolkit 10.2支持的驱动版本范围是从418.87到最新版本。
CUDA Toolkit 10.1和驱动版本之间的兼容性:CUDA Toolkit 10.1支持的驱动版本范围是从418.39到最新版本。
CUDA Toolkit 10.0和驱动版本之间的兼容性:CUDA Toolkit 10.0支持的驱动版本范围是从410.48到最新版本。
安装和配置CUDA Toolkit及驱动1. 检查GPU驱动版本:在命令行中输入“nvidia-smi”命令,可以查看GPU驱动的版本。
morphoj安装教程最近人工智能等多门课需要复现论文,近两年的论文很多都是Pytorch环境,所以,这里总结一下Pytorch的安装教程,做好最快、最简单、最好地完成安装。
本机环境Win10+1050Ti+Python3.71、查看本机的CUDA版本cmd命令行输入nvidia-smi,在第一行最右边可以看到CUDA 的版本号,我的版本是11.12、安装Pytroch1、点击进入Pytorch官网然后选择Get Started,就是如下界面2、这里进行Pytorch版本的选择,首先我选择的是Stable稳定版,然后OS是Windows系统,Package包就使用Conda,Language肯定选Python,最后的Compute Platform就根据大家的需求来定了。
大家如果想在自己电脑(具有NVIDIA显卡)上跑通代码,就选CUDA,如果不需要在自己电脑上跑(在服务器上跑)或者没有独立显卡,就选CPU。
我们在第一步已经看过自己的NAVIDA的CUDA版本了,这里我们一定要选择比自己版本低的CUDA。
比如,像我的版本是11.1,那么就只能选择10.2,因为11.3有点高了。
同样道理,基本上大家都能选择10.2。
3、安装下anaconda深度学习神器,没有安装的同学,请按照这篇教程安装好anaconda,并创建一个python环境:anaconda安装配置教程,python的版本根据你的需求而定,这里我根据复现算法的需求环境,安装的是python3.7。
4、打开anaconda命令行,先激活需要安装Pytorch的python环境(这里我将python环境命名为pytorch,环境名称随意),复制第二步最下面那段命令行语句,然后回车执行:conda install pytorch torchvision torchaudio cudatoolkit=10.2-c pytorch5、可以看到将要安装的包里面有pytorch和cudatoolkit,我们输入y确认,然后回车6、下面就等待这些package安装成功,可以看到Pytorch还是比较大的,所以耐心等待一下。
抽水蓄能电站道路隧道工程施工方案1.1 概述本标段设有1座隧道,隧道桩号为K0+510—K0+650(总长140米),采用单洞双单车道型式。
隧道建筑限界宽度为7.5米,高度为8.35米。
1.2施工测量(一)在建设单位的组织下进行线路桩点的交接工作,详细了解沿线控制桩点和建筑物情况,绘制线路桩点及构筑物位置示意图,落实施工测量负责人和测量工作人员。
(二)检查、检定为本工程准备使用的测量仪器,测量仪器的各种参数均满足规范要求时采用,不符要求时,立即更换或新购,确保测量仪器在本工程使用过程中准确无误。
(三)根据隧道洞外现场实际情况进行洞外控制测量和洞口投点的测量设计,施测方法和测量精度按规范规定执行。
(四)采用交接的线路控制桩点和测量设计进行中线、水平的组网联测,桩点联测过程尽量选择无风、无雨,天空晴朗,天气较好的时间,并派测量工作经验丰富,责任心极强的高素质人员进行。
(五)根据测量数据,用电子计算机计算出测量结果,整理好测量成果书及时报送监理工程师审核批准。
(六)采用监理工程师批复的联测成果进行隧道洞口边仰坡施工放样测量和投点十字线护桩放设,护桩位置选择在牢固、稳定、通视良好的地点,以利施工过程中恢复桩点,定期复测,确保隧道位置始终处于正确状态。
1.3洞口工程施工1.3.1洞口土石方1.根据施工图纸要求,首先组织人员清除树木,杂草,对图纸未示出的地下管道、缆线和其他结构进行保护并立即报告监理工程师听候处理,修建便道至洞口边仰坡线位置,用挖掘机自上而下分层开挖,石方爆破采用光面爆破设计,严格控制装药量,进行微振动爆破,尽量减少原地层的扰动。
土石方开挖严格按照规范要求办理。
2.采用人工配合挖掘机清除边仰坡上的虚碴、危石,坡面顺直、平整,坡面如有凹凸不平及时整修平顺。
3.当土石方开挖至洞门端墙处时,立即检查,核实现场地质与设计地质情况,并结合地层稳定程度和隧道施工方法等进行开挖。
4.松软地层的边坡、仰坡开挖,采取随开挖随支护的方法,加强防护,随时监测,检查山坡的稳定情况。
Ubuntu16安装CUDA(9.1)和cuDNN的实现步骤(图⽂)⽬录本篇概览特别问题说明准备⼯作下载和安装Nvidia驱动安装CUDA安装cuDNN本篇概览⾃⼰有⼀台2015年的联想笔记本,显卡是GTX950M,已安装ubuntu 16.04 LTS桌⾯版,为了使⽤其GPU完成deeplearning4j的训练⼯作,⾃⼰动⼿安装了CUDA和cuDNN,在此将整个过程记录下来,以备将来参考,整个安装过程分为以下⼏步:准备⼯作安装Nvidia驱动安装CUDA安装cuDNN特别问题说明按照⼀般步骤,在安装完Nvidia显卡驱动后,会提⽰对应的CUDA版本,接下来按照提⽰的版本安装CUDA,例如我这⾥提⽰的是11.2,正常情况下,我应该安装11.2版本的CUDA 但是我选择9.1版本就⾏安装,因为之前的开发中发现deeplearning4j使⽤了11.2的SDK后,启动应⽤会有ClassNotFound的错误,此问题⾄今未修复(惭愧,欣宸⽔平如此之低…),因此,我在Nvidia驱动提⽰11.2版本的情况下,依然安装了9.1版本,后来在此环境运⾏deeplearning4j应⽤⼀切正常如果您没有我这类问题,完全可以按照驱动指定的版本来安装CUDA,具体的操作步骤稍后会详细说到;准备⼯作接下来的操作,除了在⽹页下载,其余都是ssh远程连接到ubuntu机器操作的,ssh登录的帐号为普通帐号,并⾮root如果已有驱动,请先删除sudo apt-get remove --purge nvidia*禁⽤nouveau驱动(很重要),⽤vi打开⽂件/etc/modprobe.d/blacklist.conf,在尾部增加以下内容,然后保存退出:blacklist nouveaublacklist lbm-nouveauoptions nouveau modeset=0alias nouveau offalias lbm-nouveau off关闭nouveau:echo options nouveau modeset=0 | sudo tee -a /etc/modprobe.d/nouveau-kms.conf更新initramfs:update-initramfs -u执⾏reboot重启电脑重启后,执⾏以下命令,应该不会有任何输出,证明nouveau已经禁⽤:lsmod|grep nouveau获取Kernel source:sudo apt-get install linux-source安装过程中显⽰信息如下图:根据上图红框中的信息,可知内核版本号为,于是执⾏以下命令:sudo apt-get install linux-headers-4.4.0-210-generic下载和安装Nvidia驱动点击上图搜索按钮后,进⼊下图页⾯,点击下载:下载得到的⽂件名为NVIDIA-Linux-x86_64-460.84.run关闭图形页⾯:sudo service lightdm stop给驱动⽂件增加可执⾏权限:sudo chmod a+x NVIDIA-Linux-x86_64-460.84.run开始安装:sudo ./NVIDIA-Linux-x86_64-460.84.run -no-x-check -no-nouveau-check -no-opengl-files遇到下图,选择红框:遇到下图,直接回车:恢复图形页⾯:sudo service lightdm start执⾏命令nvidia-smi,如果驱动安装成功,会显⽰以下内容:will@lenovo:~/temp/202106/20$ nvidia-smiSun Jun 20 09:02:11 2021+-----------------------------------------------------------------------------+| NVIDIA-SMI 460.84 Driver Version: 460.84 CUDA Version: 11.2 ||-------------------------------+----------------------+----------------------+| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC || Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. || | | MIG M. ||===============================+======================+======================|| 0 GeForce GTX 950M Off | 00000000:01:00.0 Off | N/A || N/A 41C P0 N/A / N/A | 0MiB / 4046MiB | 1% Default || | | N/A |+-------------------------------+----------------------+----------------------++-----------------------------------------------------------------------------+| Processes: || GPU GI CI PID Type Process name GPU Memory || ID ID Usage ||=============================================================================|| No running processes found |+-----------------------------------------------------------------------------+从上述内容可见CUDA Version: 11.2表⽰该驱动对应的CUDA版本应该是11.2,正如前⾯所说,我这边遇到了问题,因此接下来会安装9.1版本,但是您可以选择安装11.2安装CUDA如下图,下载Linux版本:继续选择x86_64:选择具体的Linux版本及其版本号:要下载的东西不少,⼀个安装程序和三个补丁:上述四个⽂件的下载地址整理如下:下载完毕后,执⾏命令chmod a+x *.run为上述四个⽂件增加可执⾏权限安装CUDA:sudo sh cuda_9.1.85_387.26_linux.run遇到license时,像是⽤vi⼯具那样,输⼊":",再输⼊"q"回车,就能跳过license阅读,执⾏真正的安装操作了:接下来是⼀系列提问,每⼀个提问的回答如下图,千万注意红框中的问题⼀定要选择n:安装完成后输出以下内容:Installing the CUDA Toolkit in /usr/local/cuda-9.1 ...Missing recommended library: libGLU.soMissing recommended library: libX11.soMissing recommended library: libXi.soMissing recommended library: libXmu.soMissing recommended library: libGL.soInstalling the CUDA Samples in /home/will ...Copying samples to /home/will/NVIDIA_CUDA-9.1_Samples now...Finished copying samples.============ Summary ============Driver: Not SelectedToolkit: Installed in /usr/local/cuda-9.1Samples: Installed in /home/will, but missing recommended librariesPlease make sure that- PATH includes /usr/local/cuda-9.1/bin- LD_LIBRARY_PATH includes /usr/local/cuda-9.1/lib64, or, add /usr/local/cuda-9.1/lib64 to /etc/ld.so.conf and run ldconfig as rootTo uninstall the CUDA Toolkit, run the uninstall script in /usr/local/cuda-9.1/binPlease see CUDA_Installation_Guide_Linux.pdf in /usr/local/cuda-9.1/doc/pdf for detailed information on setting up CUDA.***WARNING: Incomplete installation! This installation did not install the CUDA Driver. A driver of version at least 384.00 is required for CUDA 9.1 functionality to work. To install the driver using this installer, run the following command, replacing <CudaInstaller> with the name of this run file:sudo <CudaInstaller>.run -silent -driverLogfile is /tmp/cuda_install_13425.log打开⽂件~/.bashrc,在尾部增加以下两⾏(LD_LIBRARY_PATH如果已经存在,请参考PATH的写法改成追加):export PATH=/usr/local/cuda-9.1/bin:$PATHexport LD_LIBRARY_PATH=/usr/local/cuda-9.1/lib64执⾏命令source ~/.bashrc使配置⽣效执⾏命令su -切换到root帐号,执⾏以下命令(不要⽤sudo,⽽是切到root帐号):sudo echo "/usr/local/cuda-9.1/lib64" >> /etc/ld.so.conf再以root⾝份执⾏以下命令:ldconfig执⾏命令exit退出root⾝份,现在⼜是普通帐号的⾝份了执⾏命令nvcc -V检查CUDA版本,注意参数V是⼤写:will@lenovo:~$ nvcc -Vnvcc: NVIDIA (R) Cuda compiler driverCopyright (c) 2005-2017 NVIDIA CorporationBuilt on Fri_Nov__3_21:07:56_CDT_2017Cuda compilation tools, release 9.1, V9.1.85安装第⼀个补丁:sudo sh cuda_9.1.85.1_linux.run安装第⼆个补丁:sudo sh cuda_9.1.85_387.26_linux.run安装第三个补丁:sudo sh cuda_9.1.85_387.26_linux.run安装cuDNN按提⽰登录,如果没有帐号请注册⼀个,登录后进⼊下载页⾯,需要点击下图红框位置才有能见到⽼版本:选择与CUDA匹配的版本:下载后解压,得到⽂件夹cuda,然后执⾏以下命令:sudo cp cuda/include/cudnn.h /usr/local/cuda/include/sudo cp cuda/lib64/libcudnn* /usr/local/cuda/lib64/sudo chmod a+r /usr/local/cuda/include/cudnn.hsudo chmod a+r /usr/local/cuda/lib64/libcudnn*执⾏检查确认的命令cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -A 2,如果安装顺利会有以下输出:#define CUDNN_MAJOR 7#define CUDNN_MINOR 1#define CUDNN_PATCHLEVEL 3--#define CUDNN_VERSION (CUDNN_MAJOR * 1000 + CUDNN_MINOR * 100 + CUDNN_PATCHLEVEL)#include "driver_types.h"⾄此,Ubuntu16安装CUDA(9.1)和cuDNN已经完成了,希望能给您⼀些参考。
CUDA Toolkit,也被称为CUDA,是一个由Nvidia开发的并行计算平台和API模型,允许开发者利用Nvidia的GPU进行通用计算。
Python可以使用各种库(例如NumPy,SciPy,PyTorch,TensorFlow等)来调用CUDA。
这些库通常在内部使用CUDA进行计算,以利用GPU的并行处理能力。
以NumPy为例,它是一个支持多维数组和矩阵计算,使用C语言实现的Python库,可以调用CUDA进行加速。
以下是一个简单的例子:
```python
import numpy as np
# 创建一个大的数组
a = np.random.rand(10000, 10000)
# 使用NumPy的cuda方法将数组移动到GPU上
a_gpu = np.cuda.to_device(a)
# 执行一些操作
b = a_gpu + 10
# 将结果返回到CPU上
b_cpu = np.array(b)
```
在这个例子中,`np.cuda.to_device`函数将数组移动到GPU上,然后执行的操作(例如加法)在GPU上执行。
最后,`np.array`函数将结果返回到CPU上。
注意:在使用CUDA时,需要确保你的机器上安装了兼容的Nvidia GPU和CUDA驱动程序。
你还需要确保你的Python环境(包括NumPy和其他使用CUDA的库)已经正确地配置了CUDA。
TensorFlow的环境配置与...记录⼀下安装win10+GeForce GTX1060+CUDA 9.0+cuDNN7.3+tensorflow-gpu 1.12.0+python3.5.5之前已经安装过pycharm、Anaconda以及VS2013,因此,安装记录从此后开始总体步骤⼤致如下:1、确认⾃⼰电脑显卡型号是否⽀持CUDA(此处有坑)此处有坑!不要管NVIDIA控制⾯板组件中显⽰的是CUDA9.2.148。
你下载的CUDA不⼀定需要匹配,尤其是CUDA9.2,最好使⽤CUDA9.0,我就在此坑摔的⽐较惨。
2、下载CUDA以及cuDNN,注意版本对应①查看版本匹配:②下载CUDA:官⽹上下载的CUDA 9.0有好⼏个版本,其中主要是cuda_9.0.176_win10.exe,其他的四个是补丁。
③下载cuDNN:下载cuDNN需要注册⼀个NVIDIA的账号。
3、安装CUDA和cuDNN,并设置环境变量(重要)①CUDA安装我是按照默认路径安装的,没有修改。
此外,使⽤⾃定义安装,但是⼏乎全选了,除了⼀个当前版本已经是最新版本的组件没有勾选。
切记CUDA的安装路径,因为安装cuDNN以及设置环境变量时需要。
cuDNN是⼀个压缩包,解压后的内容如下全选并复制所有内容,粘贴到CUDA的安装路径下,默认路径是:③设置环境变量(重要)计算机上点右键,打开属性->⾼级系统设置->环境变量,可以看到系统中多了两个环境变量,接下来,分别是:CUDA_PATH和CUDA_PATH_V8_0。
还要在系统变量中新建以下⼏个环境变量:CUDA_SDK_PATH = C:\ProgramData\NVIDIA Corporation\CUDA Samples\v9.0CUDA_LIB_PATH = %CUDA_PATH%\lib 64CUDA_BIN_PATH = %CUDA_PATH%\binCUDA_SDK_BIN_PATH = %CUDA_SDK_PATH%\bin\win64CUDA_SDK_LIB_PATH = %CUDA_SDK_PATH%\common\lib 64如下图所⽰:然后在系统变量中找到 PATH,点击编辑并添加:%CUDA_LIB_PATH%%CUDA_BIN_PATH%%CUDA_SDK_LIB_PATH%%CUDA_SDK_BIN_PATH%再添加如下4条(默认安装路径):C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v8.0\lib 64;C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v8.0\bin;C:\ProgramData\NVIDIA Corporation\CUDA Samples\v8.0\common\lib 64;C:\ProgramData\NVIDIA Corporation\CUDA Samples\v8.0\bin\win64;如果你选⽤了⾃定义路径,上述这些默认路径都应该相应替换为你的⾃定义路径。
Win10环境下YOLO5快速配置与测试⽬录⼀、更换官⽅源⼆、安装Pytorch+CUDA(python版本)三、YOLO V5 配置与验证四、数据集测试五、⼩结不想看前⾯,可以直接跳到标题:⼀、更换官⽅源1 Requirements2Python 3.8 or later with all requirements.txt dependencies installed, including torch>=1.6. To install run:34 $ pip install -r requirements.txt所以,为了避免不必要⿇烦,python请换成3.8版本!同时也要提前打开 requirements.txt⽂件(见下⽂),了解其依赖库版本。
我这⾥事先安装好Anaconda3-2020.07-Windows-x86_64,对应Python3.8。
打开requirement.txt⽂件,内容如下。
1 # pip install -r requirements.txt2 Cython3 matplotlib>=3.2.24 numpy>=1.18.55 opencv-python>=4.1.26 pillow7 # pycocotools>=2.08 PyYAML>=5.39 scipy>=1.4.110 tensorboard>=2.211 torch>=1.6.012 torchvision>=0.7.013 tqdm>=4.41.0⼀、更换官⽅源或者更简单的⽅法:⼿动打开 C:\Users\Administrator\.condarc⽂件,修改后,为如下内容1 ssl_verify: true2 show_channel_urls: true【注:需要提前安装Anaconda3-2020.07-Windows-x86_64(去anaconda官⽹下就⾏了),对应Python3.8;当你看到这篇博客的时候,说不定YOLO V5 页⾯的安装需求变为Python3.9...】打开如上图红圈内的命令⾏窗⼝,本篇博客下述所有指令将在其上进⾏操作,⽽不是win⾃带CMD or powershell⼆、安装Pytorch+CUDA(python版本)先创建conda虚拟环境,取名字为pytorch1 conda create -n pytorch python=3.82 conda activate pytorch # 激活虚拟环境在pytorch官⽹,我们作出如下图选择,然后复制⽣成的脚本指令。
cuda9 python版本
CUDA 9 Python版本
CUDA(Compute Unified Device Architecture)是由NVIDIA推出的一种并行计算平台和编程模型,用于利用NVIDIA GPU进行高性能计算。
CUDA 9是CUDA的一个重要版本,它为Python语言提供了强大的支持,使得开发者能够更方便地利用GPU加速Python程序。
一、CUDA 9的新特性
1. 新的CUDA编译器:CUDA 9引入了一个全新的编译器,能够提供更高效的代码生成和更好的性能。
2. CUDA Graphs:CUDA 9引入了一种新的抽象层,称为CUDA Graphs,它可以将一系列的CUDA操作组合成一个图,以便在多次执行中重复使用,从而提高性能。
3. 支持Volta架构:CUDA 9首次支持NVIDIA最新的Volta架构,这使得开发者能够充分利用Volta GPU的强大计算能力。
4. CUDA-aware MPI:CUDA 9增强了对MPI(Message Passing Interface)的支持,使得在使用MPI进行并行计算时能够更好地与CUDA进行集成。
5. CUBLAS和CUFFT的性能改进:CUDA 9对CUBLAS(CUDA Basic Linear Algebra Subroutines)和CUFFT(CUDA Fast Fourier Transform)进行了优化,提供更高效的线性代数和快速傅里叶变换功能。
二、CUDA 9 Python版本的优势
1. 简化GPU编程:CUDA 9 Python版本使得开发者能够以Python 语言进行GPU编程,无需学习复杂的CUDA C/C++语法和API,大大简化了GPU编程的难度。
2. 丰富的GPU加速库:CUDA 9 Python版本提供了丰富的GPU加速库,如Numba、PyCUDA和CuPy等,这些库能够帮助开发者快速实现并行计算,并充分利用GPU的计算能力。
3. 高性能的并行计算:CUDA 9 Python版本能够充分利用GPU的并行计算能力,加速Python程序的执行速度,特别是在科学计算、机器学习、深度学习等领域,能够显著提高计算效率。
4. 强大的调试工具:CUDA 9 Python版本提供了强大的调试工具,如NVIDIA Nsight和NVIDIA Visual Profiler等,能够帮助开发者进行性能分析和调优,提高程序的运行效率。
5. 平台的跨平台兼容性:CUDA 9 Python版本在支持的操作系统上具有很好的跨平台兼容性,可以在Windows、Linux和macOS等多种操作系统上进行开发和部署。
三、使用CUDA 9 Python版本进行GPU编程的步骤
1. 安装CUDA 9:首先需要下载并安装CUDA 9的GPU驱动和CUDA Toolkit,然后根据操作系统类型选择相应的安装方式进行安装。
2. 安装Python环境:在安装CUDA 9之前,需要先安装Python环境,推荐使用Anaconda来管理Python环境。
3. 安装CUDA 9 Python库:安装CUDA 9 Python版本的库,如Numba、PyCUDA或CuPy等,可以使用pip或conda命令进行安装。
4. 编写并运行CUDA 9 Python程序:使用CUDA 9 Python版本进行编程,编写并运行相应的代码,利用GPU加速Python程序。
四、实例:利用CUDA 9 Python版本加速矩阵乘法运算
以下是一个简单的示例代码,演示了如何使用CUDA 9 Python版本加速矩阵乘法运算:
```python
import numpy as np
from numba import cuda
# 定义CUDA核函数
@cuda.jit
def matrix_multiply(A, B, C):
i, j = cuda.grid(2)
if i < C.shape[0] and j < C.shape[1]:
C[i, j] = 0
for k in range(A.shape[1]):
C[i, j] += A[i, k] * B[k, j]
# 主程序
def main():
# 定义矩阵大小
N = 512
# 生成随机矩阵
A = np.random.rand(N, N)
B = np.random.rand(N, N)
# 分配设备内存
d_A = cuda.to_device(A)
d_B = cuda.to_device(B)
d_C = cuda.device_array((N, N))
# 定义网格和块大小
threads_per_block = (16, 16)
blocks_per_grid = ((N + threads_per_block[0] - 1) // threads_per_block[0],
(N + threads_per_block[1] - 1) // threads_per_block[1])
# 调用CUDA核函数
matrix_multiply[blocks_per_grid, threads_per_block](d_A, d_B, d_C)
# 将结果拷贝回主机内存
C = d_C.copy_to_host()
# 打印结果
print(C)
if __name__ == '__main__':
main()
```
以上代码使用CUDA 9 Python版本的Numba库编写了一个矩阵乘法的CUDA核函数,并在主程序中调用该核函数进行矩阵乘法运算。
通过使用CUDA 9 Python版本,可以充分利用GPU的并行计算能力,加速矩阵乘法运算的速度。
总结:
CUDA 9 Python版本为开发者提供了强大的GPU编程支持,使得开发者能够更方便地利用GPU加速Python程序。
通过安装CUDA 9和相应的Python库,开发者可以编写高效的并行计算程序,充分利用GPU的计算能力,提高程序的执行速度。
CUDA 9 Python版本不仅简化了GPU编程的难度,还提供了丰富的调试工具和跨平台兼容性,使得开发者能够更轻松地进行GPU编程。