我想做一些非常简单的事情(我相信),我在EMR Spark中运行我的自定义jar。现在我做的事情就像而且它被创建了一个fat jar (80MB-120MB),这是一个痛苦的上传到S3。我想要的,是使用要获得文件夹中的所有jar,只需在S3中上传一次,然后,每次我想要上传新的jar时,都会上传编译后的jar,而不需要依赖项。我相信这可以通过一个将所有jars复制
我一直在尝试使用spark-shell。我所有的数据都在sql中。I used to include external jars using the --jars flag like /bin/spark-shell --jars /path/to/mysql-connector-java-5.1.23-bin.jar --master spark://sparkmaster.com:7077
I have included it