SSH 基本命令大全

  • 格式:doc
  • 大小:93.50 KB
  • 文档页数:14

下载文档原格式

  / 14
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

Linux SSH 基本命令大全

rm -rf mydir /* 删除mydir目录 */

cd mydir /* 进入mydir目录 */

cd - /* 回上一级目录 */

cd ~ /* 回根目录 */

mv tools tool /* 把tools目录改名为tool */

ln -s tool bac /* 给tool目录创建名为bac的符号链接,最熟悉的应该就是FTP中www链接到public_html目录了 */

cp -a tool /home/leavex/www /* 把tool目录下所有文件复制到www目录下 */

rm go.tar /* 删除go.tar文件 */

find mt.cgi /* 查找文件名为mt.cgi的文件 */

df –h /* 查看磁盘剩余空间,好像没这个必要,除非你太那个了 */

tar xvf wordpress.tar /* 解压tar格式的文件 */

tar -tvf myfile.tar /* 查看tar文件中包含的文件 */

gzip -d ge.tar.gz /* 解压.tar.gz文件为.tar文件 */

unzip phpbb.zip /* 解压zip文件,windows下要压缩出一个.tar.gz格式的文件还是有点麻烦的 */

tar cf toole.tar tool /* 把tool目录打包为toole.tar文件 */

tar cfz geek.tar.gz tool

/* 把tool目录打包且压缩为geek.tar.gz文件,因为.tar文件几乎是没有压缩过的,MT 的.tar.gz文件解压成.tar文件后差不多是10MB */

wget /download/wp.tar.gz

/*下载远程服务器上的文件到自己的服务器,连上传都省了,服务器不是100M就是1000M 的带宽,下载一个2-3兆的MT还不是几十秒的事 */

wget -c /undone.zip

/* 继续下载上次未下载完的文件 */

tar cfz geek.tar.gz tool

/* 把tool目录打包且压缩为geek.tar.gz文件,因为.tar文件几乎是没有压缩过的,MT 的.tar.gz文件解压成.tar文件后差不多是10MB */

还有一些是VIM里要用到的,也罗列出来吧!

移动类的:

h/j/k/l: 左/下/上/右移一格

w : 向后词移动(前面加数字移动多少个词)

b : 向前词移动(前面加数字移动多少个词)

e : 向后移到词末

ge : 向前移到词末

$ : 行末

0 : 行首

tx : 向右查找本行的x并移到那儿(大写时向左)

33G : 移到文件的第33行

gg : 文件首行

G : 文件尾行

33% : 文件的33%处

H/M/L : 屏幕的首/中/尾行

zt/zz/zb : 当前行移到屏幕的首/中/底部

跳转:

” : 回到跳转来的地方

CTRL-O : 跳到一个“较老” 的地方

CTRL-I : 则跳到一个“较新” 的地方

查找:

/ : 向下查找(后加关键字)

? : 向上查找(后加关键字)

n : 下一条符合的记录

编辑:

i : 转换到插入模式

x : 删除当前字符

. : 重复最后一次的修改操作(同PS里ctrl+f执行滤镜)

u : 撤销操作

CTRL-R : 重做

p : 将删除的字符插入到当前位置(put)

退出保存:

:q : 退出

:q! : 不保存退出

ZZ : 保存后退出

:e! : 放弃修改重新编辑

退出SSH后,继续运行!

#nohup wget /file.tar.gz &

wget是一个Linux环境下用于从World Wide Web上提取文件的工具,这是一个GPL许

可证下的自由软件,其作者为Hrvoje Niksic 。wget支持HTTP和FTP协议,支持代理服务器和断点续传功能,能够自动递归远程主机的目录,找到合乎条件的文件并将其下载到本地硬盘上;如果必要,wget将恰当地转换页面中的超级连接以在本地生成可浏览的镜像。由于没有交互式界面,wget可在后台运行,截获并忽略HANGUP信号,因此在用户推出登录以后,仍可继续运行。通常,wget用于成批量地下载Internet网站上的文件,或制作远程网站的镜像。

语法:

wget [options] [URL-list]

URL地址格式说明:可以使用如下格式的URL:

http://host[:port]/path

例如:

.fer.hr/

ftp:///pub/xemacs/xemacs-19.14.tar.gz

ftp://username:password@host/dir/file

在最后一种形式中,以URL编码形式为FTP主机提供了用户名和密码(当然,也可以

使用参数提供该信息,见后)。

参数说明:

wget的参数较多,但大部分应用只需要如下几个常用的参数:

-r 递归;对于HTTP主机,wget首先下载URL指定的文件,然后(如果该文件是一个HTML 文档的话)递归下载该文件所引用(超级连接)的所有文件(递归深度由参数-l指定)。对FTP主机,该参数意味着要下载URL指定的目录中的所有文件,递归方法与HTTP主机类似。-N 时间戳:该参数指定wget只下载更新的文件,也就是说,与本地目录中的对应文件的长度和最后修改日期一样的文件将不被下载。

-m 镜像:相当于同时使用-r和-N参数。

-l 设置递归级数;默认为5。-l1相当于不递归;-l0为无穷递归;注意,当递归深度增加时,文件数量将呈指数级增长。

-t 设置重试次数。当连接中断(或超时)时,wget将试图重新连接。如果指定-t0,则重试次数设为无穷多。

-c 指定断点续传功能。实际上,wget默认具有断点续传功能,只有当你使用别的ftp工具下载了某一文件的一部分,并希望wget接着完成此工作的时候,才需要指定此参数。

使用举例:

wget -m -l4 -t0 /

将在本地硬盘建立/的镜像,镜像文件存入当前目录下一个名为的子目录中(你也可以使用-nH参数指定不建立该子目录,而直接在当前目录下建立镜像的目录结构),递归深度为4,重试次数为无穷(若连接出现问题,wget将坚韧不拔地永远重试下去,知道任务完成!)

另外一些使用频率稍低的参数如下:

-A acclist / -R rejlist:

这两个参数用于指定wget接受或排除的文件扩展名,多个名称之间用逗号隔开。例如,假设我们不想下载MPEG视频影像文件和.AU声音文件,可使用如下参数:-R mpg,mpeg,au

其它参数还有:

-L 只扩展相对连接,该参数对于抓取指定站点很有用,可以避免向宿主主机的其他目录扩散。例如,某个人网站地址为:/~ppfl/,使用如下命令行:

wget -L /~ppfl/

则只提取该个人网站,而不涉及主机上的其他目录。

-k 转换连接:HTML文件存盘时,将其中的非相对连接转换成为相对连接。

-X 在下载FTP主机上的文件时,排除若干指定的目录

另外,下面参数用于设置wget的工作界面:

-v 设置wget输出详细的工作信息。

-q 设置wget不输出任何信息。

如果我们已经在一个HTML文档(或普通文本文档)中存储了所要提取的文件的连接,可以让wget直接从该文件中提取信息,而不用在命令行中提供URL地址,参数格式为:-i filename 地址文件也可以不是HTML文档,例如,一个普通的文本文件,其中有需要下载的URL列表即可。我们可以用以下技巧提高下载速度:由于Linux是一个多任务系统,我们可以同时运行多个wget进程以提高下载速度,例如,先下载某主页文件(index.html),然后将该文件所列出的所有地址分别用一个独立的wget进程进行下载。

至于其他的参数,可参考wget的man手册页,命令为:man wget

Post in LAMP | No Comments »