大数据开发工程师需要具备哪些技能?[通俗易懂]

目录:1.典型需求2.40K以上专家必备技能3.项目中的迷宫场景部件制作4.Hadoop生态核心原理一、典型需求(互联网公司)二、40K以上专家必备技能三、大数从业者角色分类四、Hadoop生态核心原理1.大数据整体画像 数据流程 数据技术 2.大数据平台整体画像 大数据平台逻辑划…

大家好,又见面了,我是你们的朋友全栈君。

目录:

1.典型需求

2.40K以上专家必备技能

3.项目中的迷宫场景部件制作

4.Hadoop生态核心原理

一、典型需求(互联网公司)

大数据开发工程师需要具备哪些技能?[通俗易懂]

大数据开发工程师需要具备哪些技能?[通俗易懂]

大数据开发工程师需要具备哪些技能?[通俗易懂]

二、40K以上专家必备技能

大数据开发工程师需要具备哪些技能?[通俗易懂]

大数据开发工程师需要具备哪些技能?[通俗易懂]

大数据开发工程师需要具备哪些技能?[通俗易懂]

大数据开发工程师需要具备哪些技能?[通俗易懂]

 

三、大数从业者角色分类

大数据开发工程师需要具备哪些技能?[通俗易懂]

 

四、Hadoop生态核心原理

1.大数据整体画像

大数据开发工程师需要具备哪些技能?[通俗易懂]

 

  • 数据技术

大数据开发工程师需要具备哪些技能?[通俗易懂]

2.大数据平台整体画像

  • 大数据平台逻辑划分

数据相关的工具、产品和技术:比如批量数据采集传输的 Sqoop 、离线数据处理的Hadoop 和Hive 、实时流处理的 Storm和 Spark 以及数据分析的R语言等。

数据资产:不仅包含公司业务本身产生和沉淀的数据,还包括公司运作产生的数据(如财务、行政),以及从外界购买 交换或者爬虫等而来的数据等。

数据管理:有了数据工具,也有了数据资产,但是还必须对它们进行管理才能让数据产生最大价值并最小化风险,因此数据平台通常还包括数据管理的相关概念和技术,如数据仓库、数据建模、 数据质量、数据规范、 数据安全和元数据管理等。如果你对大数据开发感兴趣,想系统学习大数据的话,可以加入大数据技术学习交流扣扣君羊:522189307

  • 从数据处理的时效性划分

(1)离线数据平台。

(2)实时数据平台。

  • 和离线数据平台相关的技术

Hadoop 、Hive 、数据仓库、 ETL 、维度建模、 数据逻辑分层等。

  • 离线数据平台的整体架构

大数据开发工程师需要具备哪些技能?[通俗易懂]

 

3.Hadoop 核心原理

(1)系统简介

  • 正是 Hadoop 开启了大数据时代的大门,而大数据的发展也是和Hadoop 发展密不可的,甚至从某些方面来说大数据就是 Hadoop 。

  • Hadoop 是一种分析和处理大数据的软件平台,是一个用 Java 语言实现的 Apache 的开源软件框架,在大量计算机组成的集群中实现了对海量数据的分布式计算。

  • Hadoop 采用 MapReduce 分布式计算框架,根据 GFS 原理开发了 HDFS(分布式文件系统),并根据 BigTable 原理开发了 HBase 数据存储系统。

  • Yahoo、Facebook、Amazon,以及国内的百度、阿里巴巴等众多互联网公司都以 Hadoop 为基础搭建了自己的分布式计算系统。

  • Hadoop 是一个基础框架,允许用简单的编程模型在计算机集群上对大型数据集进行分布式处理。

  • 用户可以在不了解分布式底层细节的情况下,轻松地在 Hadoop 上开发和运行处理海量数据的应用程序。低成本、高可靠、高扩展、高有效、高容错等特性让 hadoop 成为最流行的大数据分析系统。

(2)Hadoop 生态里的最核心技术

  • HDFS:Hadoop 分布式文件系统,它是Hadoop 的核心子项目。

  • MapReduce :Hadoop 中的 MapReduce 是一个使用简单的软件框架,基于它写出来的应用程序能够运行在由上千个商用机器组成的大型集群上,并能可靠容错地并行处理 TB 级别的数据集。

  • Hive :是建立在 Hadoop 体系架构上的一层 SQL抽象,使得数据相关人员使用他们最为熟悉的 SQL 语言就可以进行海量数据的处理、分析和统计工作,而不是必须掌握 Java 等编程语言和具备开发MapReduce 程序的能力。HiveSQL 际上先被 SQL 解析器进行解析然后被 Hive 框架解析成一个MapReduce 可执行计划,并按照该计划生成 MapReduce 任务后交给 Hadoop 集群处理。

(3)HDFS

  • 文件系统

文件系统是操作系统提供的磁盘空间管理服务,该服务只需要用户指定文件的存储位置及文件读取路径,而不需要用户了解文件在磁盘上是如何存放的。对于我们编程人员也是这样的。

但是当文件所需空间大于本机磁盘空间时,应该如何处理呢?

加磁盘,但是加到一定程度就有限制了。

加机器,即用远程共享目录的方式提供网络化的存储,这种方式可以理解为分布式文件系统的雏形,它可以把不同文件放入不同的机器中,而且空间不足时可继续加机器,突破了存储空间的限制。

 

  • 传统的分布式文件系统—架构

大数据开发工程师需要具备哪些技能?[通俗易懂]

 

  • 传统的分布式文件系统—访问过程

大数据开发工程师需要具备哪些技能?[通俗易懂]

  • 传统的分布式文件系统带来的问题

各个存储结点的负载不均衡,单机负载可能极高。例如,如果某个文件是热门文件,则会有很多用户经常读取这个文件,这就会造成该文件所在机器的访问压力极高。

数据可靠性低。如果某个文件所在的机器出现故障,那么这个文件就不能访问了,甚至会造成数据的丢失。

文件管理困难。如果想把一些文件的存储位置进行调整,就需要查看目标机器的空间是否够用,并且需要管理员维护文件位置,在机器非常多的情况下,这种操作就极为复杂。

  • HDFS 的基本原理

大数据开发工程师需要具备哪些技能?[通俗易懂]

大数据开发工程师需要具备哪些技能?[通俗易懂]

大数据开发工程师需要具备哪些技能?[通俗易懂]

 

  • HDFS 的体系结构(一主多从)

大数据开发工程师需要具备哪些技能?[通俗易懂]

 

  • HDFS 的文件读取

大数据开发工程师需要具备哪些技能?[通俗易懂]

 

  • HDFS 的文件写入

大数据开发工程师需要具备哪些技能?[通俗易懂]

 

  • HDFS 异常处理之NameNode

(1) 两个核心文件

FsImage文件:

a.FsImage用于维护文件系统树以及文件树中所有的文件和文件夹的元数据

b.FsImage文件没有记录块存储在哪个数据节点。而是由名称节点把这些映射保留在内存中,这个信息单独在内存中一个区域维护,当数据节点加入HDFS集群时,数据节点会把自己所包含的块列表告知给名 称节点,此后会定期执行这种告知操作,以确保名称节点的块映射是最新的

EditLog文件:

操作日志文件EditLog中记录了所有针对文件的创建、删除、重命名等操作

(2)名称节点的启动

在名称节点启动的时候,它会将FsImage文件中的内容加载到内存中,之后再执行 EditLog文件中的各项操作,使得内存中的元数据和实际的同步,存在内存中的元数据支持客户端的读写操作。

接收所有datanodes上的文件块信息汇报,退出安全模式。

(3)名称节点的问题

名称节点运行期间,HDFS的所有更新操作都是直接写到EditLog中,久而久之,EditLog件将会变得很大,这对名称节点运行没有什么明显影响的,但是,名称节点重启的时候,需要先将FsImage里面的所有内容映像到内存中,然后再一条一条地执行EditLog中的记录,当EditLog文件非常大的时候,会导致名称节点启动操作非常慢,而在这段时间内HDFS系统处于安全模式,一直无法对外提供写操作,影响了用户的使用。

名称节点坏掉了。

(4)解决方案之一

大数据开发工程师需要具备哪些技能?[通俗易懂]

大数据开发工程师需要具备哪些技能?[通俗易懂]

 

(5)解决方案之二(Hadoop HA)

大数据开发工程师需要具备哪些技能?[通俗易懂]

 

(6)HDFS 异常处理之DataNode

  • 数据节点出错

每个数据节点会定期向名称节点发送“心跳”信息,向名称节点报告自己的状态 ,当数据节点发生故障,或者网络发生断网时,名称节点就无法收到来自一些数据节点的心跳信息,这时,这些数据节点就会被标记为“宕机”,节点上面的所有数据都 会被标记为“不可读”,名称节点不会再给它们发送任何I/O请求 这时,有可能出现一种情形,即由于一些数据节点的不可用,会导致一些数据块的 副本数量小于冗余因子 ,名称节点会定期检查这种情况,一旦发现某个数据块的副本数量小于冗余因子,就 会启动数据冗余复制,为它生成新的副本。HDFS和其它分布式文件系统的最大区别就是可以调整冗余数据的位。

 

  • 数据出错

客户端在读取到数据后,会采用md5等对数据块进行校验,以确定读取到正确 的数据 ,如果校验出错,客户端就会请求到另外一个数据节点读取该文件块,并且向名称节点报告这个文件块有错误,名称节点会定期检查并且重新复制这个块 。

 

(7)其他

  • 优点

a.存储非常大的文件

b.采用流式的数据访问方式

c.运行于普通商用机器

d.高容错、高可靠性

  • 不适合的应用场景:

a.低延时的数据访问

b.大量小文件的情况

c.多方读写,需要任意的文件修改

(8)扩展 GFS简介(Google File System)

谈到Hadoop的起源,就不得不提Google的三驾马车:Google FS、MapReduce、BigTable。虽然Google没有公布这三个产品的源码,但是他发布了这三个产品的详细设计论文,奠定了风靡全球的大数据算法的基础!

(9)问题

1、为什么不适用于处理大量小文件?

2、HDFS的Block为什么这么大?

3、读取或者写入文件,如果不调用Close方法关闭文件流会咋样?

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/127409.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)
blank

相关推荐

  • qtcreator生成动态库版本_qt添加动态库so文件

    qtcreator生成动态库版本_qt添加动态库so文件越来越厌恶CSDN的盈利模式本文已转移至https://www.cnblogs.com/isky0824/p/12096550.html

  • C++标准输入输出流_seekg函数详解

    C++标准输入输出流_seekg函数详解对文件输入输出流的操作函数主要有1/seekg()和tellg() //对输入流的操作(也就是读)2/seekp()和tellp() //对输出流的操作(也就是写) 1.seekg()是对输入文件定位,它有两个参数:第一个参数是偏移量,第二个参数是基地址。对于第一个参数,可以是正负数值,正的表示向后偏移,负的表示向前偏移。而第二个参数可以是:   ios::beg

  • SQL Server 2008备份数据库失败,拒绝访问的原因

    SQL Server 2008备份数据库失败,拒绝访问的原因

  • Java的文件读写操作

    Java的文件读写操作file(内存)—-输入流—->【程序】—-输出流—->file(内存)当我们读写文本文件的时候,采用Reader是非常方便的,比如FileReader,InputStreamReader和BufferedReader。其中最重要的类是InputStreamReader,它是字节转换为字符的桥梁。你可以在构造器重指定编码的方式,如果不指定的话将采用底层操作系统的默认编

  • Z平台-开源免费的JAVA快速开发平台

    Z平台-开源免费的JAVA快速开发平台Z平台是开源免费的JavaWeb快速开发平台。通过Z平台集成开发环境,以零编码、动态配置的方式能够快速开发出各类Web管理系统。Z平台框架组成所用到的各种功能组件与框架,都是开源免费的,不涉及到版权问题,商业与非商业项目都可以使用。

  • 适配器模式(Adapter模式)详解

    适配器模式(Adapter模式)详解http://c.biancheng.net/view/1361.html在现实生活中,经常出现两个对象因接口不兼容而不能在一起工作的实例,这时需要第三者进行适配。例如,讲中文的人同讲英文的人对话时需要一个翻译,用直流电的笔记本电脑接交流电源时需要一个电源适配器,用计算机访问照相机的SD内存卡时需要一个读卡器等。在软件设计中也可能出现:需要开发的具有某种业务功能的组件在现有的组件库中已经存在,但它们与当前系统的接口规范不兼容,如果重新开发这些组件成本又很高,这时用适配器模式能很好地解决这些问题。

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号