incuda电脑系统安装方法,incall系统怎么安装apk
1.WIN10下Anaconda安装 环境变量
2.基于CUDA的Theano GPU加速环境配置 GPU没有反应.求解答
3.如何判断pytorch使用了gpu
4.在MPI集群上使用CUDA
5.cuda7.5支持ubuntu14.10吗
6.ubuntu下怎么安装torch
mxlinux有没有中文版?
当然有中文的。
MXLinux19.2正式版是基于Debian稳定分支的面向桌面的Linux发行,它是antiX及早先的MEPISLinux社区合作的产物。它采用Xfce作为缺省桌面,是一份中量级操作系统,并被设计为优雅而高效的桌面与如下特性的结合:配置简单、高度稳定、性能可靠、占用空间不大也不小。
linux内核中国开发者排行?
1、MXLinux
2、Manjaro
3、LinuxMint
4、Debian
5、Ubuntu
6、elementary
7、Solus
8、Fedora
9、Zorin
10、Deepin
11、antiX
12、CentOS
13、KDEneon
14、PCLinuxOS
15、ArcoLinux
mxlinux怎么安装中文输入法?
1、首先打开虚拟机,来到图形化界面。登录root账户。
2、依次选择“系统-首选项-输入方式(System-Preferences-InputMethod)”没有“输入方式”选项的,需要yum-yinstall@ChineseSupport进行安装。安装完可能需要重启一下。
3、注意勾选Enableinputmethodfeature,选中UseIBus(recommended),单击InputMethodPreferences。
4、在“IBusPreferences”对话框,选择“输入方式”选项卡,单击“selectaninputmethod”。
5、依次选择“Chinese-Pinyin”。
6、点击“Add”进行添加。
7、选择添加中文输入法,然后关闭窗口即可
flashmx是系统软件还是应用软件?
flash不管啥版本,当然都是应用软件,这个软件是用于制作二维动画的。windows、linux这些安装在硬件设施上的第一层软件才是系统软件。必须先有系统软件,才能在它之上安装各种应用软件。
mx550显卡相当于gtx多少?
mx550显卡的性能相当于gtx1050ti显卡,gtx1650显卡是gtx1050ti显卡的升级版。
虽然gtx1650显卡的参数对比gtx1050ti显卡没有太大变化,但因为图灵架构的优化性能比1050ti提升了25%。gtx1650显卡用的是图灵架构,但是没有光线追踪。
WIN10下Anaconda安装 环境变量
有以下步骤:
1.源程序的编译
在Linux下面,如果要编译一个C语言源程序,我们要使用GNU的gcc编译器. 下面
我们以一个实例来说明如何使用gcc编译器.
假设我们有下面一个非常简单的源程序(hello.c):
int main(int argc,char **argv)
{
printf("Hello Linux\n");
}
要编译这个程序,我们只要在命令行下执行:
gcc -o hello hello.c
gcc 编译器就会为我们生成一个hello的可执行文件.执行./hello就可以看到程
序的输出结果了.命令行中 gcc表示我们是用gcc来编译我们的源程序,-o 选项表示
我们要求编译器给我们输出的可执行文件名为hello 而hello.c是我们的源程序文件.
gcc编译器有许多选项,一般来说我们只要知道其中的几个就够了. -o选项我们
已经知道了,表示我们要求输出的可执行文件名. -c选项表示我们只要求编译器输出
目标代码,而不必要输出可执行文件. -g选项表示我们要求编译器在编译的时候提
供我们以后对程序进行调试的信息.
知道了这三个选项,我们就可以编译我们自己所写的简单的源程序了,如果你
想要知道更多的选项,可以查看gcc的帮助文档,那里有着许多对其它选项的详细说
明.
2.Makefile的编写
假设我们有下面这样的一个程序,源代码如下:
#include "mytool1.h"
#include "mytool2.h"
int main(int argc,char **argv)
{
mytool1_print("hello");
mytool2_print("hello");
}
#ifndef _MYTOOL_1_H
#define _MYTOOL_1_H
void mytool1_print(char *print_str);
#endif
#include "mytool1.h"
void mytool1_print(char *print_str)
{
printf("This is mytool1 print %s\n",print_str);
}
#ifndef _MYTOOL_2_H
#define _MYTOOL_2_H
void mytool2_print(char *print_str);
#endif
#include "mytool2.h"
void mytool2_print(char *print_str)
{
printf("This is mytool2 print %s\n",print_str);
}
当然由于这个程序是很短的我们可以这样来编译
gcc -c main.c
gcc -c mytool1.c
gcc -c mytool2.c
gcc -o main main.o mytool1.o mytool2.o
这样的话我们也可以产生main程序,而且也不时很麻烦.但是如果我们考虑一
下如果有一天我们修改了其中的一个文件(比如说mytool1.c)那么我们难道还要重
新输入上面的命令?也许你会说,这个很容易解决啊,我写一个SHELL脚本,让她帮我
去完成不就可以了.是的对于这个程序来说,是可以起到作用的.但是当我们把事情
想的更复杂一点,如果我们的程序有几百个源程序的时候,难道也要编译器重新一
个一个的去编译?
为此,聪明的程序员们想出了一个很好的工具来做这件事情,这就是make.我们
只要执行以下make,就可以把上面的问题解决掉.在我们执行make之前,我们要先
编写一个非常重要的文件.--Makefile.对于上面的那个程序来说,可能的一个
Makefile的文件是:
# 这是上面那个程序的Makefile文件
main:main.o mytool1.o mytool2.o
gcc -o main main.o mytool1.o mytool2.o
main.o:main.c mytool1.h mytool2.h
gcc -c main.c
mytool1.o:mytool1.c mytool1.h
gcc -c mytool1.c
mytool2.o:mytool2.c mytool2.h
gcc -c mytool2.c
有了这个Makefile文件,不过我们什么时候修改了源程序当中的什么文件,我们
只要执行make命令,我们的编译器都只会去编译和我们修改的文件有关的文件,其
它的文件她连理都不想去理的.
下面我们学习Makefile是如何编写的.
在Makefile中也#开始的行都是注释行.Makefile中最重要的是描述文件的依赖
关系的说明.一般的格式是:
target: components
TAB rule
第一行表示的是依赖关系.第二行是规则.
比如说我们上面的那个Makefile文件的第二行
main:main.o mytool1.o mytool2.o
表示我们的目标(target)main的依赖对象(components)是main.o mytool1.o
mytool2.o 当倚赖的对象在目标修改后修改的话,就要去执行规则一行所指定的命
令.就象我们的上面那个Makefile第三行所说的一样要执行 gcc -o main main.o
mytool1.o mytool2.o 注意规则一行中的TAB表示那里是一个TAB键
Makefile有三个非常有用的变量.分别是$@,$^,$<代表的意义分别是:
$@--目标文件,$^--所有的依赖文件,$<--第一个依赖文件.
如果我们使用上面三个变量,那么我们可以简化我们的Makefile文件为:
# 这是简化后的Makefile
main:main.o mytool1.o mytool2.o
gcc -o $@ $^
main.o:main.c mytool1.h mytool2.h
gcc -c $<
mytool1.o:mytool1.c mytool1.h
gcc -c $<
mytool2.o:mytool2.c mytool2.h
gcc -c $<
经过简化后我们的Makefile是简单了一点,不过人们有时候还想简单一点.这里
我们学习一个Makefile的缺省规则
.c.o:
gcc -c $<
这个规则表示所有的 .o文件都是依赖与相应的.c文件的.例如mytool.o依赖于
mytool.c这样Makefile还可以变为:
# 这是再一次简化后的Makefile
main:main.o mytool1.o mytool2.o
gcc -o $@ $^
.c.o:
gcc -c $<
好了,我们的Makefile 也差不多了,如果想知道更多的关于Makefile规则可以查
看相应的文档.
3.程序库的链接
试着编译下面这个程序
#include
int main(int argc,char **argv)
{
double value;
printf("Value:%f\n",value);
}
这个程序相当简单,但是当我们用 gcc -o temp temp.c 编译时会出现下面所示
的错误.
/tmp/cc33Kydu.o: In function `main':
/tmp/cc33Kydu.o(.text+0xe): undefined reference to `log'
collect2: ld returned 1 exit status
出现这个错误是因为编译器找不到log的具体实现.虽然我们包括了正确的头
文件,但是我们在编译的时候还是要连接确定的库.在Linux下,为了使用数学函数,我
们必须和数学库连接,为此我们要加入 -lm 选项. gcc -o temp temp.c -lm这样才能够
正确的编译.也许有人要问,前面我们用printf函数的时候怎么没有连接库呢?是这样
的,对于一些常用的函数的实现,gcc编译器会自动去连接一些常用库,这样我们就没
有必要自己去指定了. 有时候我们在编译程序的时候还要指定库的路径,这个时候
我们要用到编译器的 -L选项指定路径.比如说我们有一个库在 /home/hoyt/mylib下
,这样我们编译的时候还要加上 -L/home/hoyt/mylib.对于一些标准库来说,我们没
有必要指出路径.只要它们在起缺省库的路径下就可以了.系统的缺省库的路径/lib
/usr/lib /usr/local/lib 在这三个路径下面的库,我们可以不指定路径.
还有一个问题,有时候我们使用了某个函数,但是我们不知道库的名字,这个时
候怎么办呢?很抱歉,对于这个问题我也不知道答案,我只有一个傻办法.首先,我到
标准库路径下面去找看看有没有和我用的函数相关的库,我就这样找到了线程
(thread)函数的库文件(libpthread.a). 当然,如果找不到,只有一个笨方法.比如我要找
sin这个函数所在的库. 就只好用 nm -o /lib/*.so|grep sin>~/sin 命令,然后看~/sin
文件,到那里面去找了. 在sin文件当中,我会找到这样的一行libm-2.1.2.so:00009fa0
W sin 这样我就知道了sin在 libm-2.1.2.so库里面,我用 -lm选项就可以了(去掉前面
的lib和后面的版本标志,就剩下m了所以是 -lm).
4.程序的调试
我们编写的程序不太可能一次性就会成功的,在我们的程序当中,会出现许许
多多我们想不到的错误,这个时候我们就要对我们的程序进行调试了.
最常用的调试软件是gdb.如果你想在图形界面下调试程序,那么你现在可以选
择xxgdb.记得要在编译的时候加入 -g选项.关于gdb的使用可以看gdb的帮助文件.由
于我没有用过这个软件,所以我也不能够说出如何使用. 不过我不喜欢用gdb.跟踪
一个程序是很烦的事情,我一般用在程序当中输出中间变量的值来调试程序的.当
然你可以选择自己的办法,没有必要去学别人的.现在有了许多IDE环境,里面已经自
己带了调试器了.你可以选择几个试一试找出自己喜欢的一个用.
5.头文件和系统求助
有时候我们只知道一个函数的大概形式,不记得确切的表达式,或者是不记得函数在那个头文件进行了说明.这个时候我们可以求助系统,比如说我们想知道fread这个函数的确切形式,我们只要执行 man fread 系统就会输出着函数的详细解释的.和这个函数所在的头文件说明了。如果我们要write这个函数说明,当我们执行man write时,输出的结果却不是我们所需要的。因为我们要的是write这个函数的说明,可是出来的却是write这个命令的说明。为了得到write的函数说明我们要用man 2 write。2表示我们用的是write这个函数是系统调用函数,还有一个我们常用的是3表示函数是c的库函数。
基于CUDA的Theano GPU加速环境配置 GPU没有反应.求解答
设置好GPU开发环境,安装cuda8.0和cudnn5.1
2. 安装Anaconda3-4.3.1-Windows-x86_64,默认Python版本为3.6
3. 安装完以后,打开Anaconda Prompt,输入清华的仓库镜像,更新包更快:
conda config --add channels config --set show_channel_urls yes
4. 建立TensorFlow空间:conda create -n tensorflow python=3.5,设置Python版本为3.5
5. 激活TensorFlow空间:activate tensorflow
6. 安装TensorFlow:pip install--ignore-installed --upgrade tensorflow_gpu-1.0.0-cp35-cp35m-win_amd64.whl
7. 测试TensorFlow:
import tensorflow as tf
hello = tf.constant('Hello, TensorFlow!')
sess = tf.Session()
print(sess.run(hello))
设置SSD运行环境
1. 安装numpy(anaconda 离线安装):pipinstall numpy-1.12.1-cp35-none-win_amd64.whl
2. 安装matplotlib(anaconda 离线安装):pipinstall matplotlib-2.0.1-cp35-cp35m-win_amd64.whl
3. 安装opencv(离线):anaconda中安装:pipinstall opencv_python-3.2.0+contrib-cp35-cp35m-win_amd64.whl
4. 下载TensorFlow版本的SSD:git clone ,或者下载压缩包解压
5. 解压TensorFlowssd目录下的/checkpoint里的ssd_300_vgg.ckpt.zip,得到模型参数
6. 安装pycharm-community-2017.1.2.exe,python编辑器,File->Setting->Project:Python->ProjectInterpreter:修改Python版本到TensorFlow工作空间下的python
7. 在notebook下新建工程,新建test_ssd.py文件
8. 在pycharm中打开ssd_notebook.ipynb,复制非注释的内容至test_ssd.py下
9. 修改test_ssd.py:
# Test on some demoimage and visualize output.
#path = '../demo/'
#image_names = sorted(os.listdir(path))
#print(image_names)
#for it in image_names:
cam=cv2.VideoCapture(0)
success, img = cam.read()
while success:
#img = cv2.imread(path+it)#mpimg.imread(path + it)
t1=cv2.getTickCount()
rclasses, rscores, rbboxes = process_image(img)
visualization.bboxes_draw_on_img(img,rclasses, rscores, rbboxes, visualization.colors_plasma)
t2=cv2.getTickCount()
print('time consumption:%.3f ms'%(1000*(t2-t1)/cv2.getTickFrequency()))
cv2.imshow('test',img)
c=cv2.waitKey(1)
if c==27:
break
# visualization.bboxes_draw_on_img(img, rclasses,rscores, rbboxes, visualization.colors_plasma)
#visualization.plt_bboxes(img, rclasses,rscores, rbboxes)
success, img = cam.read()
10. 运行程序test_ssd.py
如何判断pytorch使用了gpu
1. 首先安装python,我选择安装Anaconda (Windows 64-Bit Python 2.7 Graphical Installer 下载地址)。
Anaconda的一些命令(在Anaconda的命令行窗口输入):
conda list #该命令,将列出Anaconda安装的所有应用包,我们可以看到Anaconda已经安装了numpy, nose, pip, python, scipy, mingw等等。
conda install <pkg name> #该命令用于安装应用包,如 conda install numpy.
pip install <pkg name> #该命令用于安装应用包,如 pip install theano.
conda update <pkg name> #升级应用包,如 conda update python
2. 安装Theano,在Anaconda 的命令窗口中输入 pip install theano,可以看到程序开始下载安装包,并检查是否满足安装条件:numpy>=1.5.0,scipy>=0.7.2,满足条件之后开始运行setup.py安装theano,安装完成后会显示Successfully installed theano。
3. 测试Theano安装情况。
(1)在ipython中输入以下两行代码:
import theano
theano.test()
会显示theano的版本号,安装位置,已经其他包的安装版本,如numpy,nose,python等。
在运行中出现g++不是内部或外部命令,也不是可运行的程序或批处理文件。
(2)在Anaconda的命令行窗口输入:python Lib\site-packages\theano\tests\run_tests_in_batch.py
显示unable to find theano-nose,查看run_tests_in_batch.py发现,其中路径设置为在bin下寻找theano-nose文件,而实际上Anaconda文件夹下根本没有bin这个文件夹,theano-nose存放在Scripts文件夹中。
》》》尝试1:将Scripts更名为bin,重新运行这句命令,可以成功运行。但是出现一个warning,提示没有检测到g++,所以无法运行优化后的C代码版本,只能执行python版本。
该种尝试的结果是,下次打开Anaconda 命令窗口后出现错误,因为其运行路径为Scripts,所以还是不要修改了。
(3)g++问题。我们打开MinGW文件夹,可以很清楚的看到有g++,但是为什么使用不了呢在Anaconda 命令窗口中输入g++也能成功调用g++.exe啊。所以结论是,鉴于这个代码中出现很明显的漏洞,所以说不定这里也是错误,先不管这些了。
试着做了以下配置,也不知行不行。
添加环境变量: path: C:\Anaconda\MinGW\bin;C:\Anaconda\MinGW\x86_64-w64-mingw32\lib;
新建环境变量: PYTHONPATH: C:\Anaconda\Lib\site-packages\theano;
在home目录下(cmd可以看到,我的是C:\Users\Administrator),创建 .theanorc.txt 文件内容如下:
[global]
openmp=False
[blas]
ldflags=
[gcc]
cxxflags = -IC:\MinGW\include
(4)验证BLAS是否安装成功。由于numpy是依赖BLAS的,如果BLAS没有安装成功,虽然numpy亦可以安装,但是无法使用BLAS的加速。验证numpy是否真的成功依赖BLAS编译,用以下代码试验:
>>> import numpy
>>> id(numpy.dot) == id(numpy.core.multiarray.dot)
False
结果为False表示成功依赖了BLAS加速,如果是Ture则表示用的是python自己的实现并没有加速。
在MPI集群上使用CUDA
第一步是通过检查PyTorch是否能够找到CUDA(ComputeUnifiedDeviceArchitecture)库来确定GPU是否可用。如果CUDA库未安装或未配置正确,则PyTorch将无法使用GPU。如果我们在安装PyTorch时选择了与我们计算机上已安装的CUDA版本不兼容的版本,则也会出现此问题。点击学习大厂名师精品课
第二步是使用torch.cuda.is_available()函数来检查是否已成功配置CUDA环境。如果输出结果为True,则PyTorch可以使用GPU,否则为False,说明GPU不可用。
第三步是使用device()函数。如果PyTorch能够找到可用的GPU,则我们可以将计算设备切换到GPU上。我们可以使用device()函数将计算设备更改为“cuda:0”。该函数接受一个字符串参数,以指示将计算设备更改为哪一个。如果PyTorch找不到可用的GPU,则该函数将使用CPU。
想学IT慕课网是个不错的选择。慕课网的课程质量很高。慕课网上的课程大多由业内知名教育者或有多年工作经验的工程师发布,内容丰富、专业。且慕课网采用的是短小精悍的视频教学方式,学员们可以按照自己的节奏自主学习。
cuda7.5支持ubuntu14.10吗
CUDA给的例子中有simpleMPI程序,给每台电脑上安装好了CUDA(也可能安装好驱动就好了),它可以在集群上运行,在不同节点上跑,各个节点都可以调用自己的GPU计算。为了大幅提升数据传输性能,我们必须启用CUDA-aware技术,它使得不同节点之间的GPU数据可以直接经过网卡传输,不需要通过主机内存。为了使数据传输能达到最大性能,CUDA-aware需要一系列技术支持,包括GPUDirect RDMA、Unified Virtual Address等。主流版本的MPI都可以支持这些技术,为了完整支持这些技术,MPI的编译比原先稍微复杂了一些。以 openmpi 为例,官网上给出了如何安装,如何运行的讲解。
How do I build Open MPI with CUDA-aware support?
What kind of CUDA support exists in Open MPI?
**配置和编译 Open MPI >= 2.0.0 **
官方推荐使用最新版本,我也就用最新版本。
关于GDRCopy:顾名思义,它是基于GPUDirect RDMA的库,用于数据拷贝。以下仅是个人理解,GPUDirect RDMA技术支持第三方设备有直接读写GPU内存的能力,比如一块GPU直接通过网卡读写另一块GPU的内存,CPU也可以直接通过网卡直接读写另一块GPU的内存。GPU不像CPU一样低延迟,用CPU读写远程GPU内存延迟低一些。
关于UCX:统一通信。MPI的通信层。
我不太懂这两个库,不管怎么样,按照官方推荐把这两个安装上去就好了,我们不会直接调用这两个库。
ubuntu下怎么安装torch
支持的
Ubuntu14.10+cuda7.0+caffe配置
一:linux安装
Linux安装不说了,我这里安装的是ubuntu14.10
二:nVidia驱动和CUDA Toolkit的安装和调试(*.run方法)
1: Verify You Have a CUDA-Capable GPU
执行下面的操作,然后验证硬件支持GPU CUDA,只要型号存在于,就没问题了
$ lspci | grep -i nvidia
2: 、Verify You Have aSupported Version of Linux
$ uname -m && cat /etc/*release
重点是“x86_64”这一项,保证是x86架构,64bit系统
3: Verify the System Has gcc Installed
$ gcc --version
没有的话就先安装吧,这个是必须的用来编译CUDA Toolkit,不过Ubuntu 14.10是默认有的
4: Download the NVIDIA CUDA Toolkit
下载地址:验证地址: md5sum filename
例如:md5sum cuda_7.0.28_linux.run ,这个文件的正确 md5 =312aede1c3d1d3425c8aa67bbb7a55e
5: Handle Conflicting Installation Methods
根据官网介绍,之前安装的版本都会有冲突的嫌疑
所以,之前安装的Toolkit和Drievers就得卸载,屏蔽,等等(因为我是新系统,没有安装过nvidia驱动,所以此步可以省略)
sudo apt-get --purge remove nvidia*
6: Graphical Interface Shutdown
退出GUI,也就是X-Win界面,操作方法是:同时按:CTRL+ALT+F1(F2-F6),切换到TTY1-6命令行模式。
关闭桌面服务:
$ sudo stop lightdm
7: Interaction with Nouveau
Nouveau是一个开源的显卡驱动,Ubuntu14.04 默认安装了,但是它会影响nVidia驱动的安装,所以只有请他回老家了,sorry!
$ sudo vi /etc/modprobe.d/nvidia-graphics-drivers.conf
写入:blacklist nouveau
保存并退出: wq!
检查:$ cat nvidia-graphics-drivers.conf
$ sudo vi/etc/default/grub
末尾写入:rdblacklist=nouveau nouveau.modeset=0
保存并退出: wq!
检查:$ cat /etc/default/grub
8: Installation CUDA 7.0
切换到cuda_7.0.28_linux.run所在的目录,然后执行安装命令:
$ sudo sh cuda_7.0.28_linux.run
这里会一路问你各种问题,基本上就是Accept-yes-Enter-yes-Enter-yes-Enter, 其实就是让你接受协议,然后安装的默认位置确认等等,recruit就别自定义安装位置了,默认才是天堂。
执行完后出现以下结果:
Driver: Installed requirereboot
Toolkit: installskip
Samples: installskip
看到了吗,这个CUDA安装包事实上包含了Driver,Toolkit和Samples三部分,第一次安装时把驱动装上了,只不过要重新启动。重新启动了一下,还是跟上面一样,退出GUI,重新执行以下命令:
$ sudo sh cuda_7.0.28_linux.runsu
结果如下:
Driver:Installed
Toolkit: Installed in/usr/local/cuda-7.0
Samples: Installed in/home/caffe, butmissing recommended libraries
这次就安装成功了,但是缺少了一些推荐的库。
9: Extra Libraries
安装一些必要的库文件,譬如:OpenGL (e.g., Mesa), GLU, GLUT, and X11 (including Xi, Xmu, andGLX).
$ sudo apt-get install
freeglut3-dev build-essential libx11-devlibxmu-dev libxi-dev
libgl1-mesa-glx libglu1-mesa libglu1-mesa-dev
10: 驱动装完了,可以回到GUI界面了,也可以继续留这里玩文本。。。
$ sudo start lightdm
11:POST-INSTALLATIONACTIONS
(1)环境变量配置
执行sudo vi /etc/profile,在后面加上:
exportPATH=/usr/local/cuda-6.5/bin:$PATH
exportLD_LIBRARY_PATH=/usr/local/cuda-6.5/lib64:$LD_LIBRARY_PATH
(2) Verify the Installation
a.验证驱动的版本,其实主要是保证驱动程序已经安装正常了
$ cat /proc/driver/nvidia/version
b. Compiling the Examples
$ nvcc -V
这里安装完,就可以编译了,切换目录到~/NVIDIA_CUDA-7.0_Samples:
$ cd /home/username/NVIDIA_CUDA-7.0_Samples
$ make
这里要等很长时间。。。
c. Running the Binaries
运行编译好的文件,例如看看设备的基本信息和带宽信息:
$ cd bin/x86_64/linux/release
$ ./deviceQuery
$ ./bandwidthTest
如果测试的时候出现说运行版驱动和实际驱动不符,原因可能是因为后面安装的nvidia-cuda-toolkit更新了配置文件,所以和原始的Cuda-Samples的配置或者是驱动程序有变化,所以检测无法编译通过。考虑下面的解决方法:
a.卸载现有驱动
$ sudo nvidia-installer --uninstall
b.下载合适版本的驱动,并安装:
下载地址: $ sudo sh ./NVIDIA-Linux-x86_65*.run
c. 重装CUDA Toolkit
$ sudo sh cuda-7.0
Nvidia Cuda安装结束(这里我推荐不要手动装合适NVIDIA驱动,最好是卸载将上述过程再装一遍,因为手动装有可能造成版本不对,到时桌面空白的问题-----我是重装了系统。。。。。)
三:BLAS安装与配置
1:BLAS安装
这里可以选择(ATLAS,MKL或者OpenBLAS),我这里使用MKL,首先下载并安装英特尔? 数学内核库 Linux*
版MKL,下载链接是:,
请下载Student版,先申请,然后会立马收到一个邮件(里面有安装序列号),打开照着下载就行了。下载完之后,要把文件解压到home文件夹(或直接
把tar.gz文件拷贝到home文件夹,为了节省空间,安装完记得把压缩文件给删除喔~),或者其他的ext4的文件系统中。
接下来是安装过程,先授权,然后安装:
$ tar zxvf parallel_studio_xe_2015.tar.gz
(如果你是直接拷贝压缩文件过来的)
$ chmod a+x parallel_studio_xe_2015 -R
$ sudo ./install_GUI.sh
2:MKL与CUDA的环境设置
1. 新建intel_mkl.conf, 并编辑之:
$ sudo gedit /etc/ld.so.conf.d/intel_mkl.conf
/opt/intel/lib/intel64
/opt/intel/mkl/lib/intel64
2. 新建cuda.conf,并编辑之:
$ sudo gedit /etc/ld.so.conf.d/cuda.conf
/usr/local/cuda/lib64
/lib
3. 完成lib文件的链接操作,执行:
$ sudo ldconfig –v
四.Opencv安装
1. 下载并编译OpenCV(官网原版OpenCV:), 或者使用本站提供的修改版的安装包
Install-OpenCV-master(下面的安装方式使用该包完成,安装包修改了dependencies.s件并增加了OpenCV 3.0.0的安装文件,同时保留了原来的2.3x和2.4x版)
2. 切换到文件保存的文件夹,然后安装依赖项:
$ sudo sh Ubuntu/dependencies.sh
3. 切换目录Ubuntu\3.0\安装OpenCV3.0.0rc1:
$ sudo sh opencv3_0_0-rc1.sh
保证网络畅通,因为软件需要联网这里时间较长,请耐心等待。。。,时间很长!
五:安装其它依赖项
1. Google Logging Library(glog),下载地址:,然后解压安装:
$ tar zxvf glog-0.3.3.tar.gz
$ ./configure
$ make
$ sudo make install
如果没有权限就chmod a+x glog-0.3.3 -R , 或者索性 chmod 777glog-0.3.3 -R , 装完之后,这个文件夹就可以kill了。
2. 其他依赖项,确保都成功
$ sudo apt-get install -y libprotobuf-dev libleveldb-devlibsnappy-dev libopencv-dev libboost-all-dev libhdf5-serial-dev
$ sudo apt-get install -y libgflags-dev libgoogle-glog-devliblmdb-dev protobuf-compiler
六: 安装Caffe并测试
1. 安装pycaffe必须的一些依赖项:
$ sudo apt-get install -y
python-numpy python-scipypython-matplotlib python-sklearn python-skimage
python-h5py python-protobufpython-leveldb python-networkx python-nose
python-pandas python-gflags Cythonipython
$ sudo apt-get install -y protobuf-c-compilerprotobuf-compiler
2. 安装配置nVidia cuDNN 加速Caffe模型运算(我们没有安装,因为install.txt中说是针对CUDA6.5)
a. 安装cuDNN
该改版本caffe-master默认支持cudnn-6.5-linux-x64-v2,使用cudnn-6.5-linux-R1会报错,安装前请去先官网下载最新的cuDNN。
$ sudo cp cudnn.h /usr/local/include
$ sudo cp libcudnn.so /usr/local/lib
$ sudo cp libcudnn.so.6.5 /usr/local/lib
$ sudo cp libcudnn.so.6.5.48 /usr/local/lib
b. 链接cuDNN的库文件
$ sudo ln -sf /usr/local/lib/libcudnn.so.6.5.48/usr/local/lib/libcudnn.so.6.5
$ sudo ln -sf /usr/local/lib/libcudnn.so.6.5/usr/local/lib/libcudnn.so
$ sudo ldconfig –v
3:切换到Caffe-master的文件夹,生成Makefile.config配置文件,执行:
$ cp Makefile.config.example Makefile.config
4:配置Makefile.config文件(仅列出修改部分)
a. 启用CUDNN,去掉"#"(目前caffe-master仍然只支持R1版本)
USE_CUDNN := 1
b. 启用GPU,去掉注释"#"
# CPU_ONLY := 1
c: 启用Intel ParallelStudio XE 2015 Professional Edition for C++ Linux
BLAS := mkl
5: 配置Makefile文件(实现对OpenCV3.x的支持)
查找“Derive include and lib directories”一节,修改“LIBRARIES +=”的最后一行,增加opencv_imgcodecs
opencv_core opencv_highgui opencv_imgproc opencv_imgcodecs
6: 编译caffe-master!!!"-j8"是使用CPU的多核进行编译,可以极大地加速编译的速度,建议使用。
$ make all -j8
$ make test -j8
$ make runtest -j8
建议:在make前,可以用之前的./bandwidthTest等命令测试驱动是否正常!
Torch简介
Torch是一个广泛支持机器学习算法的科学计算框架,由于采用简单而快速的脚本语言LuaJIT和一个底层的C/CUDA实现,Torch易于使用且高效。
Torch安装
首先,值得注意的是,最新版的Torch支持Ubuntu,Fedora20,Fedora22,Centos7。但不支持Fedora21,Centos6。
参考官网安装流程安装,如下所示,
# in a terminal, run the commands
git clone ~/torch --recursive
cd ~/torch; bash install-deps;
./install.sh12341234
在执行bash install-deps安装依赖时并未出错,但执行./install.sh时会出一些错误,见下面。
Torch安装问题汇总
错误1
错误类似于:
nvcc error : '***' died due to signal 2
解决方案:sudo ./install.sh
错误2
Error: Build error: Failed building.
Updating manifest for /root/torch/install/lib/luarocks/rocks
fftw3 scm-1 is now built and installed in /root/torch/install/ (license: BSD)123123
错误3
Error: Failed installing dependency: - Could not find header file for OPENSSL
No file openssl/evp.h in /usr/local/include
No file openssl/evp.h in /usr/include
You may have to install OPENSSL in your system and/or pass OPENSSL_DIR or OPENSSL_INCDIR to the luarocks command.
Example: luarocks install luacrypto OPENSSL_DIR=/usr/local1234512345
参照Problem with Torch #86,执行sudo apt-get install -y libssl-dev安装libssl-dev,之后重新安装Torch即可。
错误4
提示缺少依赖lbase64 ,luacrypto,uuid 等,可直接执行luarocks install missed-package解决。
声明:本站所有文章资源内容,如无特殊说明或标注,均为采集网络资源。如若本站内容侵犯了原著者的合法权益,可联系本站删除。