在spark 中运行链接mysql的scala 程序时,报
java.lang.NoSuchMethodError: io.netty.buffer.PooledByteBufAllocator.<init>(ZIIIIIIZ)V
这是因为你把hbase的依赖包导入spark 的时候,把hbase 的netty-****.jar包也导入了,而spark原本就自带了这个jar包,造成依赖包冲突。
解决方法
在maven依赖排除netty
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.12</artifactId>
<version>3.2.0</version>
<exclusions>
<exclusion>
<groupId>io.netty</groupId>
<artifactId>netty-all</artifactId>
</exclusion>
</exclusions>
</dependency>
注意:本文归作者所有,未经作者允许,不得转载