十二月下旬内容焕新丨技能实战、智慧提效与生态拓展

年终冲刺,进步不停!十二月下旬新内容聚焦技能实战、智慧提效、场景解析与开发拓展,助你在数据与智能的浪潮中更进一步!

一、场景化课程上线完结

驱动增长:汽车制造营销分析主题课程→聚焦汽车行业营销场景,学习如何利用数据驱动业务增长。

价值引擎:汽车制造财务分析主题课程→深入财务数据分析,助力企业价值挖掘与决策支持。

二、场景应用上线

【漏斗图】漏斗洞察:三分钟,看透流程的每一步→ 快速掌握漏斗分析,优化业务流程效率。

模型篇:如何构建支撑AlChat的证券数据模型》→ 解析证券行业数据模型构建,赋能AI助手智能基础。

【地图】先导篇:一眼看透数据在空间中的故事→ 入门地图可视化,发现数据背后的地理逻辑。

【地图】区域地图:直观对比,掌控全局→ 学习区域地图制作,实现跨区域数据对比分析。

三、技术经验分享

乱码大作战:从“乱码地狱”到“数据天堂”的爆“效”指南》→ 攻克数据乱码难题,带你高效实现数据质量的跃升。

四、二次开发视频

扩展包开发知识点——知识库升级以及查询对象》→ 深化扩展包开发能力,学习知识库升级与查询对象优化。

五、任务持续上线

【图表应用】绘制漏斗图,诊断转化瓶颈→ 学习漏斗图绘制,精准定位业务流程中的转化短板。

AlChat入门闯关计划 - 第二关》→ 继续AI助手探索之旅,掌握更智能的对话交互技能。

【图表应用】测测你是否真的“看懂”地图?》→ 检验地图图表理解能力,提升空间数据解读水平。

【场景实战系列】即席查询,赢取278麦豆!》→ 实战演练即席查询,灵活获取所需数据。

【场景实战系列】透视分析,赢取278麦豆!》→ 掌握数据透视技巧,实现多维度业务洞察。

【图表应用】区域地图在手,业绩分布一目了然→ 借助区域地图,直观掌握业务区域表现。

BI知识闯关】乱码大作战:从“乱码地狱”到“数据天堂”的爆“效”指南》→ 通过闯关巩固乱码处理知识,学以致用。

【调研】社区内容调研,1分钟即可得100麦豆!》→为了未来能为您提供更精彩的内容和活动,我们想聆听您的真实心声

六、全新素材上线

HTTP API接口测试工具》→ 提供便捷的接口测试支持,助力开发调试更高效。

七、互动活动开启

2025年售后服务问卷调研有奖活动》→ 参与调研反馈,助力产品优化,更有机会赢取好礼。

麦粉社区
>
帖子详情

大数据源-Smartbi通过JDBC方式连接SparkSQL

数据连接 发表于 2019-11-21 14:07
发表于 2019-11-21 14:07:53
Hive是支持JDBC方式连接的,因为它自带了一个Thrift Server。
这个Thrift Server是FaceBook开发的一个接口,可以让程序通过ODBC、JDBC的方式连接。
同样的,SparkSQL也自带了这个Thrift Server,所以SparkSQL也可以通过JDBC的方式连接,用来访问Hive里面建好的表的数据。
操作步骤如下:
第一步:启动SparkSQL中自带的Thrifter Server
1、从hive的安装目录下,找到conf/hive-site.xml文件,拷贝到Spark所有节点的安装目录下conf文件夹;
2、如果hive的元数据存储是用mysql的话,那么还需要把mysql的jdbc包放到Spark所有节点的安装目录下的jars目录(低版本的是lib目录);
3、启动Thrift server,在spark安装目录下执行:
内网连接:
sbin/start-thriftserver.sh --master spark://10.9.2.100:7077  --driver-class-path /usr/local/hive-1.2.1/lib/mysql-connector-java-5.1.31-bin.jar
   
外网连接:
sbin/start-thriftserver.sh   --hiveconf hive.server2.thrift.port=10000  --hiveconf hive.server2.thrift.bind.host=hadoop-master     --master spark://10.9.2.100:7077  --driver-class-path /usr/local/hive-1.2.1/lib/mysql-connector-java-5.1.31-bin.jar

        采用spark on yarn的方式
        sbin/start-thriftserver.sh  --hiveconf hive.server2.thrift.port=10000 --driver-class-path /usr/local/hive-1.2.1/lib/mysql-connector-java-5.1.31-bin.jar --master yarn --driver-cores 2 --driver-memory 2G --executor-cores 2 --executor-memory 2G --num-executors 8

其中:
spark://10.9.2.100:7077:是Spark的master地址,根据需要修改
/usr/local/hive-1.2.1/lib/mysql-connector-java-5.1.31-bin.jar:是mysql的jdbc的jar包的路径,根据需要修改
--hiveconf hive.server2.thrift.port=10000:端口是10000,如果跟hive的端口冲突了,可以根据需要修改
4、启动完成后,用jps命令,可以看到一个SparkSubmit的进程
5、用beeline连接测试一下是否OK,用法如下(IP地址和端口根据需要修改):
cd spark的安装目录/bin
[hadoop@node1 bin]$ ./beeline -u [url=]jdbc:hive2://192.168.1.26:10000/default -n hadoop[/url]
0: [url=]jdbc:hive2://192.168.1.26:10000/default[/url]> show databases;
0: [url=]jdbc:hive2://192.168.1.26:10000/default[/url]> show tables;
0: [url=]jdbc:hive2://192.168.1.26:10000/default[/url]> !quit

第二步:用Smartbi连接SparkSQL
1、把Thrift Server相关的jar包放到smartbi的lib目录下,从spark安装目录下的jars目录找到需要以下jar包:
hive-beeline-1.2.1.spark2.jar
hive-cli-1.2.1.spark2.jar
hive-exec-1.2.1.spark2.jar
hive-jdbc-1.2.1.spark2.jar
hive-metastore-1.2.1.spark2.jar
spark-hive_2.11-2.1.0.jar
spark-hive-thriftserver_2.11-2.1.0.jar
spark-network-common_2.11-2.1.0.jar
libfb303-0.9.2.jar
libthrift-0.9.2.jar
httpclient-4.5.2.jar
httpcore-4.4.4.jar
hadoop-common-2.7.3.jar

同时删除smartbi自带的httpclient-4.2.5.jar、httpcore-4.2.5.jar

2、重启Smartbi
3、新建数据源时,填写以下信息:
数据源类型:hadoop_hive
Driver:org.apache.hive.jdbc.HiveDriver
URL:[url=]jdbc:hive2://122.23.368.32:10000/default[/url]
用户:hadoop
密码:一般默认是空

高级模式
B Color Image Link Quote Code Smilies
您需要登录后才可以回帖 登录 | 立即注册

0回帖数 0关注人数 6621浏览人数
最后回复于:2019-11-21 14:07
快速回复 返回顶部 返回列表