当前位置: 首页 > article >正文

sparksession对象简介

什么是sparksession对象

spark2.0之后,sparksession对象是spark编码的统一入口对象,通常我们在rdd编程时,需要SparkContext对象作为RDD编程入口,但sparksession对象既可以作为RDD编程对象入口,在sparkcore编程中可以通过它来获取sparkcontext对象进行rdd编程,也可以直接作为sparksql编程入口对象
在这里插入图片描述

sparksession对象构建案例

# coding:utf8
# sparksql中入口对象是SparkSession对象
from pyspark.sql import SparkSession

if __name__ == '__main__':
    # 构建sparksession对象,构建器模式
    spark = SparkSession.builder.\
        appName("mysparkTest").\
        master("local[*]").\
        config("spark.sql.shuffle.partitions", "4").\
        getOrCreate()
    # appName设置程序名称
    # local: 表示 Spark 将在本地模式下运行,即不会连接到任何集群管理器(如 YARN、Mesos 或 Kubernetes)。这通常用于开发和测试目的。
    # [*]: 这是一个特殊的语法,它告诉 Spark 使用所有可用的处理器核心来执行。星号 (*) 是一个占位符,它会被替换为当前机器上的处理器核心数。

    # config设置一些常用属性,不想设置可以不用写
    # getOrCreate创建sparksession对象

    # 通过SparkSession来获取SparkContext对象
    sc = spark.SparkContext
    # 读取csv格式文件,返回DataFrame格式的数据
    df = spark.read.csv("my_csv_file.csv", sep=',', header = False)
    # 给df加上表头,并赋值给新的df2
    df2 = df.toDF("id", "name", "age")
    # 打印df2表结构
    df2.printSchema()
    # 展示df2
    df2.show()
    # 创建临时视图,用于sql操作
    df2.createTempView("score")
    # SQL风格操作
    spark.sql("SELECT * FROM score where age=11 limit 5").show()
    # DSL风格
    df2.where("age=11").limit(5).show()
    

http://www.kler.cn/a/274174.html

相关文章:

  • TCP/IP 模型中,网络层对 IP 地址的分配与路由选择
  • 仿真中产生的simv文件
  • 智能化军事【五】精确制导武器智能化实现
  • windows11家庭版安装docker无法识别基于wsl2的Ubuntu
  • 如何评估一个股票API接口
  • 掌握命令行参数的艺术:Python的`argparse`库
  • 网页的制作
  • Linux 建立链接(ln)
  • (学习日记)2024.03.16:UCOSIII第十八节:任务的删除
  • 数据结构奇妙旅程之红黑树
  • 大语言模型(LLM)Token 概念
  • SpringBoot集成Jasypt实现敏感信息加密
  • python连接mysql数据库步骤
  • nfs介绍与配置
  • 2024年企业经济管理与大数据国际会议(ICEEMBD 2024)
  • 【React 】如何提高组件的渲染效率?在React中如何避免不必要的render?
  • CTF题型 SSTI(2) Flask-SSTI典型题巩固
  • 【代码】YOLOv8标注信息验证
  • Flutter 事件传递简单概述、事件冒泡、事件穿透
  • 第十三届蓝桥杯(C/C++ 大学B组)
  • easyexcel读和写excel
  • gitlab仓库使用流程(开发)
  • jQuery 常用API
  • 【考研数学】张宇各阶段用书详细指南
  • 【图解物联网】第2章 物联网的架构
  • ByteArrayOutputStream流