再次强调
hive:小兄弟,没想到吧,咱可不是随便的人。😄
那么,这次又遇见了hadoop问题,问题描述是这样的。
hive> insert into test values(1, 'nucty', '男');
Query ID = atguigu_20240324175437_2cd7db4a-6216-40f8-88c0-cf828af66f7e
Total jobs = 3
Launching Job 1 out of 3
Number of reduce tasks determined at compile time: 1
In order to change the average load for a reducer (in bytes):
set hive.exec.reducers.bytes.per.reducer=<number>
In order to limit the maximum number of reducers:
set hive.exec.reducers.max=<number>
In order to set a constant number of reducers:
set mapreduce.job.reduces=<number>
[2]+ 已停止 bin/hive
等待了几分钟,无果,被迫Ctrl+z
了哈哈哈哈哈。
同时,我也查阅了相关的博主,有一篇是这样说的。
我也是直接进行了最后的3条指令,宝贝,结果还是卡着了。
最后,我发现这位博主写的其实没错,没有解决是因为我没进行前面的操作(1,2,3,4)。
其实呢,我最开始就开始尝试打开yarn客户端界面了,但是没有打开,其实我发觉到我用的地址错误了,因为yarn并没有部署在了hadoop102上面,而我发觉之后立马改正,可还是打不开,我不由得觉得我的地址是不是真的输错了,哈哈哈哈,挺逗的,卡了好几分钟,最后在部署yarn的虚拟机(hadoop103)上面jps了一下,发现真的没有启动集群。因为之前虚拟机都是处于挂起的状态,所以每次我没有直接启动集群,小伙伴们之后也不要犯这个错误了。
最后也是如期完成了插入操作。
以此记录我因未开启集群环境而发生错误的第二篇博客。
更多【hive-【Hive】HIVE运行卡死没反应】相关视频教程:www.yxfzedu.com