为什么80%的码农都做不了架构师?>>>
在使用spark-streaming的时候,调用了spark-sql,会执行hive语句,这个时候在hive的目录下回产生很多.staging_hive文件,而且是操作哪个表,就在哪个表中产生。hive也会产生.staging_hive,但是hive产生后会被移除,而spark-sql不会移除,所以我们需要手动处理这种情况。
- 在hive-site.xml中添加如下属性,所有的.staging-hive*文件都产生到/tmp/staging/目录下了。在cm的hive配置中,这一部分的配置需要加在“hive-site.xml 的 Hive 客户端高级配置代码段(安全阀)”这一项中,因为这一部分的配置是生效在hive的客户端中,加在服务器端是没用的,不生效。.hive-staging只是产生文件的前缀,不是目录。
<property>
<name>hive.exec.stagingdir</name>
<value>/tmp/staging/.hive-staging</value>
</property>
- 写shell脚本,定时去/tmp/hive/staging/.staging目录下清除文件,注意,清除文件一定要清除昨天的,今天产生的有可能正好在用,如果被移除了,则会报错,调试的时候碰到过这种情况。
参考:
hive任务中MoveTask的策略
hive insert overwrite1.2.1 无法删除旧文件的问题