hdfs统计文件行数
使用hdfs有时候需要统计文件行数和文件的大小
1.hdfs下载文件夹中多个文件
hadoop fs -get /目录 目录
2.统计多个文件行数
hadoop fs -cat /文件* | wc -l
3.统计文件大小
hadoop fs -count /文件*
统计单个文件 只需要精确到文件即可
linux统计文件行数
语法:wc [选项] 文件…
说明:该命令统计给定文件中的字节数、字数、行数。如果没有给出文件名,则从标准输入读取。wc同时也给出所有指定文件的总统计数。字是由空格字符区分开的最大字符串。
该命令各选项含义如下:
– c 统计字节数。
– l 统计行数。
– w 统计字数。
这些选项可以组合使用。
输出列的顺序和数目不受选项的顺序和数目的影响。
总是按下述顺序显示并且每项最多一列。
行数、字数、字节数、文件名
如果命令行中没有文件名,则输出中不出现文件名。
例如:
$ wc – lcw file1 file2
4 33 file1
7 52 file2
11 11 85 total
举例分析:
1.统计demo目录下,js文件数量:
find demo/ -name “*.js” |wc -l
2.统计demo目录下所有js文件代码行数:
find demo/ -name “*.js” |xargs cat|wc -l 或 wc -l `find ./ -name “*.js”`|tail -n1
3.统计demo目录下所有js文件代码行数,过滤了空行:
find /demo -name “*.js” |xargs cat|grep -v ^$|wc -l