如果日期格式比较规定,还可以把‘-’替换成‘’间接起到删除的作用,替换函数时regexp_replace,3个参数,第一个是要替换的字段,第二个是要替换的字段中...
2017-01-16 15:09 回复了该问题A文件写到A数据块、B文件写到A数据块,这种说法应该是不正确的。只能说一个文件会根据其大小被切分成几块,假设集群的块大小被设置成64M,若A文件的大小是120M...
2016-08-31 09:32 回复了该问题此问题已解决,原本的参考文档是官方文档的Security Guide,后来在根据11g的文档在11g环境测试了,可以找到BISQLGroupProvider,然...
2015-11-05 14:44 回复了该问题你好,你提到的Hadoop、Python、Oracle功能和本质不一样。 Hadoop是目前比较流行的大数据平台,并且Spark是这方面的后起之秀,人气超强; ...
2016-07-27 14:22 回复了该问题可以自己写一套前端可视化工具; 也可以使用开源的工具,例如Pentaho,Zepplin等,后者是Apache的孵化项目,支持多种查询(shell/hive/s...
2016-07-15 08:26 回复了该问题放在Shell脚本后,该shell脚本执行时会有自己的环境变量,应该要在脚本前部分加入该加入的环境变量,例如$HAODOP_HOME之类
2016-10-26 19:06 回复了该问题方案1: ZK在集群的每个节点上都部署上,但最好保值节点单数个。 NN和DN是占据的,如果你的存储规模有那么大,全部部署,肯定要做一个HA吧,其余节点全部DN。...
2016-07-04 09:29 回复了该问题withFsUrl()中的参数就是HDFS集群的位置,例如你的集群在192.168.130.1,那么就应该是hdfs://192.168.130.1:portn...
2016-09-19 14:30 回复了该问题先查看HBase的HMaster和HRegionServer的日志吧。 有这么几种可能: 1,ZK没配置好,或者没有正常运行 2,HBase本身没配置好 查看日...
2016-07-04 16:28 回复了该问题hiveserver2是你写的程序连接到Hive的一个服务,默认和Iveserver2是10000端口,那么你的代码里要指明和和hiveserver2运行的机器...
2016-09-20 10:12 回复了该问题可以参考一下[url]https://edu.hellobi.com/course/93[/url] 这个课程当中的开源组件介绍,除了samza之外,其他都有提...
2016-09-20 10:13 回复了该问题此时需要进行HDFS的小文件合并,根据小文件数目定期合并。
2016-07-29 09:00 回复了该问题可以不装Hadoop,但是必须要有Hadoop的相关包(例如执行hdfs dfs所用),否则如何使用hdfs dfs -ls等命令呢? 所以建议拷贝一份Hado...
2016-06-06 10:27 回复了该问题有使用Ganglia+Nagios的组合,这俩都是做监控的,Ganglia对服务器性能做监控,Nagios可以加上对Hadoop、HBase等的具体服务进程(如...
2016-06-06 10:35 回复了该问题在/etc/hosts中,127.0.0.1 localhost localhost.localdomain localhost4 localhost4.l...
2016-06-21 14:19 回复了该问题