当前位置:主页 > Spark大数据
Spark安装教程:Spark 本地安装配置

Spark安装教程:Spark 本地安装配置

学些Spark技术框架,首先对于安装配置这一关是一定要过的,Spark提供的三种安装部署模式,针对不同的需求场合可以自行选择。当然,不同模式的安装配置,部署要求也是不一样的。今...

查看详情 >>
Spark一般什么时候用?Spark应用场景选择

Spark一般什么时候用?Spark应用场景选择

针对不同阶段的大数据处理需求,大数据计算框架一直都在持续进化,以期能够更加符合当下的大数据处理需求,比较典型的一个例子,就是从Hadoop到Spark的过渡,就是顺应数据处理需求...

查看详情 >>
入门Spark:Spark数据模型RDD概念全解

入门Spark:Spark数据模型RDD概念全解

市面上的大数据计算框架当中,Spark凭借自身的实力获得广泛地认可,占据着重要的市场份额。而想要入行大数据发展,那么对于Spark框架技术的掌握也成为必要技能之一。入行大数据,...

查看详情 >>
Spark的基本原理:Spark数据处理任务调度原理

Spark的基本原理:Spark数据处理任务调度原理

基于内存进行分布式计算,Spark框架在大规模数据处理任务上,表现出了近实时的数据处理能力,面对越来越多的实时数据处理需求场景,Spark也就成为了企业大数据平台的主流选择之一...

查看详情 >>
什么是Spark的核心数据集?Spark RDD全面解析

什么是Spark的核心数据集?Spark RDD全面解析

在Spark框架当中,为了提升计算性能,对于数据模型做了创新性的调整,也就是引入了RDD。基于RDD数据模型,Spark运行计算得到了很好的支持。关于什么是Spark的核心数据集,RDD设计特点...

查看详情 >>
Spark大数据技术与应用:Spark框架的应用优势

Spark大数据技术与应用:Spark框架的应用优势

在大数据领域,基于大数据技术与应用,先后产生了不少用以支持大规模数据计算的框架,这其中Hadoop可以说是第一代框架代表,而Spark则是第二代框架的代表,凭借性能优势获得越来越...

查看详情 >>
谈谈Spark中的宽窄依赖:Spark窄依赖和宽依赖

谈谈Spark中的宽窄依赖:Spark窄依赖和宽依赖

在Spark框架当中,基于Spark弹性分布式数据集RDD,还涉及到很重要的两个概念就是宽窄依赖,这对于Spark计算性能的提升,起着关键性的作用。今天我们就来谈谈Spark中的宽窄依赖,看看窄...

查看详情 >>
Spark文本相似度:Spark相似度计算如何实现

Spark文本相似度:Spark相似度计算如何实现

在大数据平台系统当中,对于推荐系统、文本聚类、图像视频聚类等方面的计算需求,通常就涉及到相似度计算的相关问题。以文本聚类为例,如果在大数据计算当中遇到文本相似度计...

查看详情 >>
Pyspark实战指南:Spark Python实现原理解析

Pyspark实战指南:Spark Python实现原理解析

Spark在设计之初,考虑到更广泛的编程支持,提供了多种语言的高级API,因此除了自身的编程语言Scala,Spark框架还支持Java、Python等语言来进行编程。而以Python编程的一支,随着发展也形...

查看详情 >>
大数据Spark开发:Spark开发编程要点

大数据Spark开发:Spark开发编程要点

随着Spark框架成为越来越多的企业的选择,大数据开发工程师们对于大数据Spark开发的掌握也就成为普遍的技能要求。作为大数据技术开发人员,在Spark开发编程上,一方面要有扎实的理...

查看详情 >>
共15页/148条
  • 首页
  • 上一页
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 下一页
  • 末页
  • 热点排行
    推荐文章
    立即申请>>