jps
    
     j
    
    
     Info pid
    
    
     查看进程信息
    
   
    
     j
    
    
     stack –
    
    
     F
    
    
     pid
    
    
     打出轨迹
    
    
    
   
    
     
    
   
    
     free -m 只显示内存使用情况
    
   
查看文件编码
file 1.csv
    对于上传文件乱码问题
    
    iconv -f GBK -t UTF-8 1.csv -o 2.csv
   
ll -h 查看文件详细大小
    impala-shell相关命令
    
    invalidate metadata t_system_cpumemory;
    
    refresh t_system_cpumemory;
   
    
     常用参数
    
   
-b 以二进制方式,默认为文本方式。(Binary (tell it like it is) file transfer override.)
-e 对所有控制字符转义。(Force sender to escape all control characters; normally XON, XOFF, DLE, CR-@-CR, and Ctrl-X are escaped.)
如果要保证上传的文件内容在服务器端保存之后与原始文件一致,最好同时设置这两个标志,如下所示方式使用:
    
     rz -be
    
   
    hadoopfs
    
    
    
     -df[-h]
     
     
    
   
    • Displays
    
    
    free
    
    
    space.
   
    – hadoopfs
    
    
    
     -du[-s]
    
    
    
    [-h]
    
    
    URI
    
    
    [URI
    
    
    …] • Displays
    
    
    sizes
    
    
    of
    
    
    files
    
    
    and
    
    
    directories
    
    
    contained
    
    
    in
    
    
    the
    
    
    given
    
    
    directory
    
    
    or
    
    
    the
    
    
    length
    
    
    of
    
    
    a
    
    
    file
    
    
    in
    
    
    case
    
    
    its
    
    
    just
    
    
    a
    
    
    file.
    
   
    
     执行命令: ll -h 查看某些文件目录的大小
    
   
这个命令散仙测,某些时候,不太好使,故使用下面命令
du -sh * 查看空间文件占用情况:
    
     yum
    
    
     install
    
    
    
    
     -y lrzsz
    
    
     
    
    找到文件中包含的块:
    
    %hadoop fsck /user/term/part-001 -files -blocks -racks  选项显示机架的位置,和每个块数据节点的地址
   
命令行方式设定 • bin/hadoopfs-Ddfs.block.size=134217728 -put data.in /user/foo
    坏块检查 – bin/hadoopfsck file -blocks -files -locations
    
   
    文件合并
    
    ›hadoop fs-getmerge <src> <localdst>
    
   
使用:hadoop fs –checksum URI
功能:返回一个文件的检查值。
更多访问:http://www.cnblogs.com/xinlingyoulan/p/6019236.html
hive查表时如果字段显示比较少可以使用 !set maxWidth 2000来,然后再来查询
    DataNode下线
    
    ›hadoop dfsadmin -report – 获取集群hdfs状况报告
   
›hadoop dfsadmin -refreshNodes – 删除节点时使用 •
    <property> <name>dfs.hosts.exclude</name> <value>exclude_file</value> </property> • Exclude_file中加入要去除的节点 • 执行refreshNodes
    
   
    HDFS Balance
    
    ›bin/start-balancer.sh -threshold 15
   
›bin/stop-balancer.sh
› 各DataNode存储不均衡时使用 – 不同机器之间 – 同机器不同磁盘之间无法通过这种方法
    balance ›dfs.balance.bandwidthPerSec
    
   
transwarp -t -h localhost
beeline -u jdbc:hive2://HADOOP-01:10000/default -n hive
beeline -u ‘jdbc:inceptor2://ipaddress:10000/wahjkkkq’
hadoop fs -text numbers.seq | head -text选项可以以文本的形式显示顺序文件
show partitions 查看有哪些分区
对文件进行存档
先列出文件
hadoop fs -lsr /my/files
再存档
hadoop archive -archiveName file.har /my/files /my
通过distcp并行复制
hadoop distcp hdfs://namenode1/foo hdfs://namenode2/bar
    hadoop fs -mkdir /tmp/input              在HDFS上新建文件夹
    
   
    
     Hadoop
    
    fs -put input1.txt /tmp/input  把本地文件input1.txt传到HDFS的/tmp/input目录下
   
    hadoop fs -get  input1.txt /tmp/input/input1.txt  把HDFS文件拉到本地
    
   
   hadoop fs -ls /tmp/output                  列出HDFS的某目录
   
   hadoop fs -cat /tmp/ouput/output1.txt  查看HDFS上的文件
   
hadoop fs -rmr /home/less/hadoop/tmp/output 删除HDFS上的目录
hadoop fs -copyFromLocal input/docs/quangle.txt /user/tom/quangle.txt
hadoop dfsadmin -report 查看HDFS状态,比如有哪些datanode,每个datanode的情况
hadoop dfsadmin -safemode leave 离开安全模式
hadoop dfsadmin -safemode enter 进入安全模式
    1、把/home目录下面的mydata目录压缩为mydata.zip
    
    zip -r mydata.zip mydata #压缩mydata目录
    
    2、把/home目录下面的mydata.zip解压到mydatabak目录里面
    
    unzip mydata.zip -d mydatabak
    
    3、把/home目录下面的abc文件夹和123.txt压缩成为abc123.zip
    
    zip -r abc123.zip abc 123.txt
    
    4、把/home目录下面的wwwroot.zip直接解压到/home目录里面
    
    unzip wwwroot.zip
    
    5、把/home目录下面的abc12.zip、abc23.zip、abc34.zip同时解压到/home目录里面
    
    unzip abc\*.zip
    
    6、查看把/home目录下面的wwwroot.zip里面的内容
    
    unzip -v wwwroot.zip
    
    7、验证/home目录下面的wwwroot.zip是否完整
    
    unzip -t wwwroot.zip
    
    8、把/home目录下面wwwroot.zip里面的所有文件解压到第一级目录
    
    unzip -j wwwroot.zip
   
    
     主要参数
    
   
    -c:将解压缩的结果
    
    -l:显示压缩文件内所包含的文件
    
    -p:与-c参数类似,会将解压缩的结果显示到屏幕上,但不会执行任何的转换
    
    -t:检查压缩文件是否正确
    
    -u:与-f参数类似,但是除了更新现有的文件外,也会将压缩文件中的其它文件解压缩到目录中
    
    -v:执行是时显示详细的信息
    
    -z:仅显示压缩文件的备注文字
    
    -a:对文本文件进行必要的字符转换
    
    -b:不要对文本文件进行字符转换
    
    -C:压缩文件中的文件名称区分大小写
    
    -j:不处理压缩文件中原有的目录路径
    
    -L:将压缩文件中的全部文件名改为小写
    
    -M:将输出结果送到more程序处理
    
    -n:解压缩时不要覆盖原有的文件
    
    -o:不必先询问用户,unzip执行后覆盖原有文件
    
    -P:使用zip的密码选项
    
    -q:执行时不显示任何信息
    
    -s:将文件名中的空白字符转换为底线字符
    
    -V:保留VMS的文件版本信息
    
    -X:解压缩时同时回存文件原来的UID/GID
   
    
     # tar -cvf /usr/local/auto_bak/test.tar /usr/local/test
    
    
     仅打包,不压缩
    
    
    
     # tar -zcvf /usr/local/auto_bak/test.tar.gz /usr/local/test
    
    
     打包后,以gzip压缩 在参数f后面的压缩文件名是自己取的,习惯上用tar来做,如果加z参数,则以tar.gz 或tgz来代表gzip压缩过的tar file文件
    
    
    
     
      
       
      
     
    
    
     
      解压操作:
      
      #tar -zxvf /usr/local/test.tar.gz
     
    
   
    
     
      在终端输入:
      
      whereis mysql
      
      回车,如果你安装好了Mysql,就会显示文件安装的地址,例如我的显示(安装地址可能会不同)
      
     
    
   
    
     
      查询运行文件所在路径:
      
      如果你只要查询文件的运行文件所在地址,直接用下面的命令就可以了(还是以Mysql为例):
      
      which mysql
      
      结果会显示:
      
      /usr/bin/mysql
      
     
    
   
    
     
    
   
    
     
    
   
    
    
   
    
     #显示所有文件(包含隐藏文件)
     
    
    ls -a
   
    
     #只显示隐藏文件
     
    
    ls .
    
    或者
    
    ls -d .*
   
    
    
    
   
假设Hadoop的安装目录HADOOP_HOME为/home/admin/hadoop。
     启动与关闭
    
     启动Hadoop
    
1. 进入HADOOP_HOME目录。
2. 执行sh bin/start-all.sh
     关闭Hadoop
    
1. 进入HADOOP_HOME目录。
2. 执行sh bin/stop-all.sh
     文件操作
    
Hadoop使用的是HDFS,能够实现的功能和我们使用的磁盘系统类似。并且支持通配符,如*。
     查看文件列表
    
查看hdfs中/user/admin/aaron目录下的文件。
1. 进入HADOOP_HOME目录。
2. 执行sh bin/hadoop fs -ls /user/admin/aaron
这样,我们就找到了hdfs中/user/admin/aaron目录下的文件了。
我们也可以列出hdfs中/user/admin/aaron目录下的所有文件(包括子目录下的文件)。
1. 进入HADOOP_HOME目录。
2. 执行sh bin/hadoop fs -lsr /user/admin/aaron
     创建文件目录
    
查看hdfs中/user/admin/aaron目录下再新建一个叫做newDir的新目录。
1. 进入HADOOP_HOME目录。
2. 执行sh bin/hadoop fs -mkdir /user/admin/aaron/newDir
     删除文件
    
删除hdfs中/user/admin/aaron目录下一个名叫needDelete的文件
1. 进入HADOOP_HOME目录。
2. 执行sh bin/hadoop fs -rm /user/admin/aaron/needDelete
删除hdfs中/user/admin/aaron目录以及该目录下的所有文件
1. 进入HADOOP_HOME目录。
2. 执行sh bin/hadoop fs -rmr /user/admin/aaron
     上传文件
    
上传一个本机/home/admin/newFile的文件到hdfs中/user/admin/aaron目录下
1. 进入HADOOP_HOME目录。
2. 执行sh bin/hadoop fs –put /home/admin/newFile /user/admin/aaron/
     下载文件
    
下载hdfs中/user/admin/aaron目录下的newFile文件到本机/home/admin/newFile中
1. 进入HADOOP_HOME目录。
2. 执行sh bin/hadoop fs –get /user/admin/aaron/newFile /home/admin/newFile
     查看文件
    
我们可以直接在hdfs中直接查看文件,功能与类是cat类似
查看hdfs中/user/admin/aaron目录下的newFile文件
1. 进入HADOOP_HOME目录。
2. 执行sh bin/hadoop fs –cat /home/admin/newFile
     MapReduce Job操作
    
     提交MapReduce Job
    
原则上说,Hadoop所有的MapReduce Job都是一个jar包。
运行一个/home/admin/hadoop/job.jar的MapReduce Job
1. 进入HADOOP_HOME目录。
2. 执行sh bin/hadoop jar /home/admin/hadoop/job.jar [jobMainClass] [jobArgs]
     杀死某个正在运行的Job
    
假设Job_Id为:job_201005310937_0053
1. 进入HADOOP_HOME目录。
2. 执行sh bin/hadoop job -kill job_201005310937_0053
     更多Hadoop的命令
    
上面介绍的这些Hadoop的操作命令是我们最常用的。如果你希望了解更多,可以按照如下的方式获取命令的说明信息。
1. 进入HADOOP_HOME目录。
2. 执行sh bin/hadoop
我们可以看到更多命令的说明信息:
Usage: hadoop [–config confdir] COMMAND
where COMMAND is one of:
namenode -format format the DFS filesystem
secondarynamenode run the DFS secondary namenode
namenode run the DFS namenode
datanode run a DFS datanode
dfsadmin run a DFS admin client
fsck run a DFS filesystem checking utility
fs run a generic filesystem user client
balancer run a cluster balancing utility
jobtracker run the MapReduce job Tracker node
pipes run a Pipes job
tasktracker run a MapReduce task Tracker node
job manipulate MapReduce jobs
queue get information regarding JobQueues
version print the version
jar <jar$amp;>amp;$nbsp; run a jar file
distcp <srcurl> <desturl> copy file or directories recursively
archive -archiveName NAME <src>* <dest> create a hadoop archive
daemonlog get/set the log level for each daemon
or
CLASSNAME run the class named CLASSNAME
Most commands print help when invoked w/o parameters.
    
    
   
windows
copy and paste key,点确认。
1.跳到文本的最后一行:按“G”,即“shift+g”
2.跳到最后一行的最后一个字符 : 先重复1的操作即按“G”,之后按“$”键,即“shift+4”。
3.跳到第一行的第一个字符:先按两次“g”,
5.vi加密。进入vi,输入”:” + “X” 之后就提示你输入两次密码。之后:wq 保存退出。再次进入时就提示你输入密码了。如果你不想要密码了,就:X 提示你输入密码时连续按两次回车,就搞定了
    
   
kerberos安全方面
kinit hive
klist
kdestroy
    hdfs dfs -ls /inceptorsql1/user/hive/warehouse/
    
   
hive –orcfiledump /inceptorsql1/tmp/delta_0497664_0497664
alter table tmp_test add partition (time=’xxx’) location ‘/inceptorsql1/tmp/time=xxx’;
alter table tmp_test add partition (time=’xxx’) location ‘hdfs:/inceptorsql1time=xxx’;
    hdfs dfs -ls /inceptorsql1/user/hive/warehouse/
    
   
hive –orcfiledump /inceptorsql1/tmp/delta_0497664_0497664
alter table tmp_test add partition (time=’xxx’) location ‘/inceptorsql1/tmp/time=xxx’;
alter table tmp_test add partition (time=’xxx’) location ‘hdfs:/inceptorsql1time=xxx’;
kadmin.local -q “listprincs hbase*”
     hdfs dfs -ls /inceptorsql1/user/hive/warehouse/
     
    
hive –orcfiledump /inceptorsql1/tmp/delta_0497664_0497664
alter table tmp_test add partition (time=’xxx’) location ‘/inceptorsql1/tmp/time=xxx’;
alter table tmp_test add partition (time=’xxx’) location ‘hdfs:/inceptorsql1time=xxx’;
 
