当前位置: 首页 > news >正文

网站空间和数据库的关系宁德市人社局

网站空间和数据库的关系,宁德市人社局,江西宜春市城市建设档案馆网站,做网站卖什么发财文章目录 准备连接hive的配置申请kerberos tgt在scala项目启动本地spark本地Jupyter Notebook启动pyspark 解决在wsl下进行开发、调试时,需要连接kerberos鉴权的hdfs、hive的问题 准备连接hive的配置 core-site.xml、hdfs-site.xml、yarn-site.xml、hive-site.xml复…

文章目录

  • 准备连接hive的配置
  • 申请kerberos tgt
  • 在scala项目启动本地spark
  • 本地Jupyter Notebook启动pyspark

解决在wsl下进行开发、调试时,需要连接kerberos鉴权的hdfs、hive的问题

准备连接hive的配置

core-site.xml、hdfs-site.xml、yarn-site.xml、hive-site.xml复制到本地;
不知道为什么yarn-site.xml里的配置也必须存在,即使不使用yarn运行spark

申请kerberos tgt

在/etc/krb5.conf记录账户域名对应的授权服务地址,注意配置default_ccache_name(Ticket Granting Ticket存放路径)的格式,让java程序能够自动读取到tgt

[libdefaults]dns_lookup_realm = falseticket_lifetime = 24hrenew_lifetime = 7dforwardable = truerdns = falsepkinit_anchors = FILE:/etc/pki/tls/certs/ca-bundle.crtspake_preauth_groups = edwards25519default_realm = COMPANY.UAT.COM# default_ccache_name = KEYRING:persistent:%{uid}default_ccache_name = FILE:/tmp/krb5cc_%{uid}
[realms]
COMPANY.UAT.COM = {kdc = 10.0.0.1admin_server = 10.0.0.1
}

申请当前操作系统用户的进程都可使用的tgt(Ticket Granting Ticket)

# 24小时过期,每天要执行一次
kinit -kt /etc/kerberos/hive.keytab hive@COMPANY.UAT.COM

使用klist命令可以看到已申请的tgt存储在/tmp/krb5cc_%{uid}文件里;
java默认会访问/etc/krb5.conf记录的授权服务地址,使用/tmp/krb5cc_%{uid}文件里的tgt信息,申请访问具体服务的ticket

在scala项目启动本地spark

连接配置文件全放到项目的src/test/resources后,可执行单元测试

import org.scalatest.funsuite.AnyFunSuite
import org.apache.spark.sql.SparkSessionclass SparkTest extends AnyFunSuite with BeforeAndAfterAll {val catalogImpl: String = "hive"lazy val spark: SparkSession = SparkSession.builder().appName("scala test").master("local[1]").enableHiveSupport()// 如果不使用kinit命令预先申请tgt,也可让spark自行申请// .config("spark.kerberos.keytab", "/etc/kerberos/hive.keytab")// .config("spark.kerberos.principal", "hive@COMPANY.UAT.COM")    .getOrCreate()test("select hive") {val df = spark.sql("select * from default.temp_test1 limit 10")df.printSchema()df.show()}test("sleep") {// 挂起测试线程,可在localhost:4040访问spark控制台,确认是否加载了hdfs、spark相关配置Thread.sleep(1000000)}
}

本地Jupyter Notebook启动pyspark

vscode的Jupyter插件自动为一个打开的.ipynb文件在本地启动一个对应的ipykernel_launcher,并支持为每个.ipynb文件指定python venv;
修改spark启动配置后,需要点击重启ipykernel的按钮,再重新运行启动spark的代码单元格。

在指定的python venv下,安装pyspark:

pip3 install pyspark==3.2.4

连接配置文件全放到本地/apps/conf/SPARK目录内

from pyspark.sql import SparkSession
import os
# spark-submit能够读取环境变量SPARK_CONF_DIR指定的配置目录
os.environ["SPARK_CONF_DIR"] = "/apps/conf/SPARK"
# pyspark调用spark-submit,启动driver
# 查看driver的java进程: ps -ef | grep pyspark-shell
spark = (SparkSession.builder.appName("pyspark test").master("local[1]").enableHiveSupport()# 下载hive相关依赖包.config("spark.sql.hive.metastore.version", "3.1.3").config("spark.sql.hive.metastore.jars", "maven").config("spark.jars.repositories", "https://maven.aliyun.com/repository/public").getOrCreate()
)

在后续notebook代码单元格里随意编辑、执行spark代码

df1 = spark.sql("SHOW TABLES IN default")
df1.show()
http://www.yidumall.com/news/19857.html

相关文章:

  • ps做网站设计互联网营销师证书含金量
  • vps除了做网站还能做什么口碑营销的优势有哪些
  • 个人网站首页怎么做吸引顾客的营销策略
  • 网站开发怎么报价怎么建立自己的企业网站
  • 质量好网站建设商家会计培训班多少钱
  • 老河口市建设局网站湘潭网站seo磐石网络
  • 自己做发卡网站支付接口网络推广外包公司排名
  • 适合学生做的网站类型搜索 引擎优化
  • wordpress文章不显示发布时间深圳搜索引擎优化seo
  • 织梦网站响应式模板免费下载镇江关键字优化品牌
  • 桥头网站建设公司百度论坛
  • 网站开发建设费用包括那些长尾关键词挖掘爱站工具
  • 做产品包装的3d网站网络营销的效果是什么
  • 最权威的网站推广公司软件推广赚钱
  • 房屋 哪个网站做的最好关键字优化
  • 深圳企业排行榜宝鸡seo排名
  • 上海都有哪些公司郑州优化公司有哪些
  • wordpress 短视频主题seo服务加盟
  • 做 网站 技术支持 抓获武汉seo网站优化
  • 网站开发策划书今日新闻国际最新消息
  • 网上发布信息的网站怎么做的惠州网站建设
  • 网站营销公司简介荥阳网络推广公司
  • 做平台好还是自己建网站企业网站推广策划
  • 做网站前期需要准备什么seo基础知识
  • 舟山网站建设推荐合肥seo优化
  • php网站开发案例pdf品牌策略包括哪些内容
  • 江苏宏远建设集团网站推广普通话海报
  • 网站设计与网站建设seo推广策划
  • 果蔬网站规划建设方案网站排名优化系统
  • 微信官方网站建设百度客服怎么联系