hive的元数据存储在derby和mysql_桌面云必须部署的组件包括

hive的元数据存储在derby和mysql_桌面云必须部署的组件包括搭建hive的环境需要hadoop的dfs和yarn可以正常运行的情况下。准备好apache-hive-1.2.1-bin.tar.gz和mysql-libs.zip两个包hive安装步骤:解压apache-hive-1.2.1-bin.tar.gz到/usr/local/src下,并且将其重命名为hivetar-zxvfapache-hive-1.2.1-bin.tar.gzmvapache-hive-1.2.1-binhive复制/hive/conf下的hive-en.

大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。

Jetbrains全家桶1年46,售后保障稳定

在这里插入图片描述

??‍?博主介绍:大家好,我是芝士味的椒盐,一名在校大学生,热爱分享知识,很高兴在这里认识大家?
?擅长领域:Java、大数据、运维、电子
??如果本文章各位小伙伴们有帮助的话,?关注+??点赞+?评论+?收藏,相应的有空了我也会回访,互助!!!
?另本人水平有限,旨在创作简单易懂的文章,在文章描述时如有错,恳请各位大佬指正,在此感谢!!!


  • 搭建hive的环境需要hadoop的dfsyarn可以正常运行的情况下。
  • 准备好apache-hive-1.2.1-bin.tar.gzmysql-libs.zip两个包

hive安装

  1. 解压apache-hive-1.2.1-bin.tar.gz 到/usr/local/src下,并且将其重命名为hive

    tar -zxvf apache-hive-1.2.1-bin.tar.gz
    mv apache-hive-1.2.1-bin hive
    

    Jetbrains全家桶1年46,售后保障稳定

  2. 复制/hive/conf下的hive-env.sh.template模板并重命名为hive-env.sh

    cp hive-env.sh.template hive-env.sh
    
  3. 在重命名的hive-env.sh里配置参数

    export HADOOP_HOME=/usr/local/src/hadoop
    export HIVE_HOME=/usr/local/src/hive/conf
    
  4. 修改/usr/local/src/hive/bin下的hive脚本

    # add Spark assembly jar to the classpath
    if [[ -n "$SPARK_HOME" ]]
    then
    #如果装有spark需要指定Spark目录下的jars目录下的所有的jar包
      sparkAssemblyPath=`ls ${ 
          SPARK_HOME}/jars/*.jar`
      CLASSPATH="${CLASSPATH}:${sparkAssemblyPath}"
    fi
    
    
    • 否则启动hive将报如下错误

    提示ls: 无法访问/home/software/spark-2.0.1-bin-hadoop2.7/lib/spark-assembly-*.jar: 没有那个文件或目录...

  5. 启动hadoop的hdfs和yarn

    start-dfs.sh
    start-yarn.sh
    
  6. 在hdfs上创建tmp和/user/hive/warehouse两个目录,修改为同组可读

    #创建文件夹
    hadoop fs -mkdir /tmp
    hadoop fs -mkdir /user/hive/warehouse
    #赋予文件夹权限
    hadoop fs -chmod g+w /tmp
    hadoop fs -chmod g+w /user/hive/warehouse
    
  7. 将hive下的jline-2.12.jar 复制替换hadoop中的jline-2.12.jar

    cp /usr/local/src/hive/lib/jline-2.12.jar /usr/local/src/hadoop/share/hadoop/yarn/lib/
    rm jline-2.12.jar -rf
    
    
    • 否则启动hive会报如下错误

    Exception in thread "main" java.lang.IncompatibleClassChangeError: Found class jline.Termina

hive启动并测试

  1. 启动hive并测试查询

    #在配了环境变量bin的情况下才能使用
    hive
    
    • 查看数据

      hive> show databases;
      
    • 选择默认数据库

      hive> use default;
      
    • 显示默认数据库中的表

      hive> show tables;
      

      • TIPS:hive在hdfs中的结构
        • 数据库:在hdfs中表现为${hive.metastore.warehouse.dir}目录下一个文件夹

        • 表:在hdfs中表现所属db目录下一个文件夹,文件夹中存放该表中的具体数据

        • 如果使用Metastore自带的derby数据库,在已经有一个对话的时候再打开一个对话将报错

          Exception in thread "main" java.lang.RuntimeException: java.lang.RuntimeException: Unable to instantiate

          • 原因:推荐MySQL存储Metastore元数据,替换默认的Derby数据库
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/230736.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)
blank

相关推荐

  • IDEA使用maven命令打包「建议收藏」

    IDEA使用maven命令打包「建议收藏」前言现在IDEA是最火的java集成开发环境,经常会用到一些maven命令进行必要的操作(例如打jar包),所以在这里做一些简单的总结1.常用打包命令:mvncleanpackage-DskipTests=true//打可执行jar包mvnclean-DskipTests=truedeploy//打包到相应服务器,供其他引用下载2.常用命令列表:mvn-v//…

  • day72Django

    day72Django

  • mysql前缀索引的索引选择性

    mysql前缀索引的索引选择性mysql前缀索引的索引选择性一.基础概念在mysql中建立前缀索引的意义在于相对于整列建立索引,前缀索引仅仅是选择该列的部分字符作为索引,减少索引的字符可以节约索引空间,从而提高索引效率,但这样也会降低索引的选择性关于索引的选择性,它是指不重复的索引值(也称为基数cardinality)和数据表的记录总数的比值,范围从1/(数据表记录总数)到1之间。索引的选择性越高则查询效率越高,因为选

  • python 二叉树中序遍历[通俗易懂]

    python 二叉树中序遍历[通俗易懂]根据树的递归性,使用List存储下面这棵树,然后编写函数对其进行中序遍历,最后删除节点D。递归实现中序遍历列表存储的二叉树python列表模拟二叉树存放,列表=[[左子树],根节点,[右子树]]列表里有列表,列表里又有列表。之前用treelist[1]==[]判断return,会有超限的问题。后来想了想,用列表长度判断是否return似乎是个不错的选择。d…

  • POJ-2499 Binary Tree

    POJ-2499 Binary Tree

  • C#中File和FileStream的用法

    C#中File和FileStream的用法在近期的工作过程中发现自己的基础比较薄弱,所以最近在恶补基础知识。下面就对我所学习的File类和FileStream进行简单的总结。1.首先先介绍File类和FileStream文件流1.1File类,是一个静态类,支持对文件的基本操作,包括创建,拷贝,移动,删除和打开一个文件。File类方法的参量很多时候都是路径path。主要提供有关文件的各种操作,在使用时需要引用System.IO命名…

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号