Spark集群地址
http://192.168.12.21:8080/
Spark常见编程问题解决办法及优化 (ie分层抽样,分块计算)
https://www.cnblogs.com/code2one/p/10100163.html
Master:
spark://192.168.12.21:7077
【转】Spark性能优化指南——基础篇 (推荐)
https://www.cnblogs.com/hark0623/p/5533803.html
spark submit参数调优
https://blog.csdn.net/chenjieit619/article/details/53421080
Spark性能优化
https://www.iteblog.com/archives/1672.html
spark使用总结
https://blog.csdn.net/pzw_0612/article/details/52826761
spark on yarn (Job history)的配置,主要是yarn处跳转到历史聚合页面
https://www.cnblogs.com/juncaoit/p/6393998.html
spark2.10安装部署(集成hadoop2.7+)
https://www.cnblogs.com/sorco/p/7070461.html
Spark on yarn启动日志服务
1. MR的job History服务启动(不需要启动)
mr-jobhistory-daemon.sh start historyserver
http://hadoop-senior01:19888/jobhistory
2. Spark的Job History服务启动
sbin/start-history-server.sh
访问地址:
http://192.168.12.21:18080
分享到:
相关推荐
忆苦思甜,为了避免项目组的其他同学走弯路,决定总结和梳理spark的使用经验。spark的核心是RDD(弹性分布式数据集),一种通用的数据抽象,封装了基础的数据操作,如map,filter,reduce等。RDD提供数据共享的抽象...
Spark是一个高效的分布式计算系统,发源...Spark立足于内存计算,相比Hadoop MapReduce,Spark在性能上要高100倍,而且Spark提供了比Hadoop更上层的API,同样的算法在Spark中实现往往只有Hadoop的1/10或者1/100的长度。
实际情况,与理想情况不同的,...那如果task数量设置成cpu core总数的2~3倍,那么一个task运行完了以后,另一个task马上可以补上来,就尽量让cpu core不要空闲,同时也是尽量提升spark作业运行的效率和速度,提升性能。
spark学习总结-入门
spark期末复习题总结
Spark生产优化总结 ,企业中Spark作业的调优等的总结,spark 任务详解、调度、资源分配
Spark零基础思维导图(内含spark-core ,spark-streaming,spark-sql),总结的很全面。 Spark零基础思维导图(内含spark-core ,spark-streaming,spark-sql)。 Spark零基础思维导图(内含spark-core ,spark-streaming,...
spark知识点个人总结
Spark总结PPT介绍spark常用的方法,shuffle,优化方法等
使用spark读取hbase中的数据,并插入到mysql中
实验八、Spark的安装与使用.doc
这是一位大数据分析开发者的一本Spark入门学习用的总结
我是何成俭,很高兴认识你
spark core的总结 包括分区 累加器。
spark3.0优化总结
个人spark学习总结文档,个人使用,个人spark学习总结文档,个人使用个人spark学习总结文档,个人使用
Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架
本次作业要完成在Hadoop平台搭建完成的基础上,利用Spark组件完成文本词频统计的任务,目标是学习Scala语言,理解Spark编程思想,基于Spark 思想,使用IDEA编写SparkWordCount程序,并能够在spark-shell中执行代码和...