当前位置: 首页>>代码示例>>Python>>正文


Python HiveContext.applySchema方法代码示例

本文整理汇总了Python中pyspark.sql.HiveContext.applySchema方法的典型用法代码示例。如果您正苦于以下问题:Python HiveContext.applySchema方法的具体用法?Python HiveContext.applySchema怎么用?Python HiveContext.applySchema使用的例子?那么恭喜您, 这里精选的方法代码示例或许可以为您提供帮助。您也可以进一步了解该方法所在pyspark.sql.HiveContext的用法示例。


在下文中一共展示了HiveContext.applySchema方法的2个代码示例,这些例子默认根据受欢迎程度排序。您可以为喜欢或者感觉有用的代码点赞,您的评价将有助于系统推荐出更棒的Python代码示例。

示例1: StructField

# 需要导入模块: from pyspark.sql import HiveContext [as 别名]
# 或者: from pyspark.sql.HiveContext import applySchema [as 别名]
        StructField("timestamp", TimestampType(), False),
        StructField("date", DateType(), False),
        StructField("array", ArrayType(IntegerType(), False), False),
        StructField("col_map", MapType(StringType(), StringType(), False), False),
        StructField(
            "struct",
            StructType(
                [
                    StructField("first", IntegerType(), False),
                    StructField("second", FloatType(), False),
                    StructField("third", StringType(), False),
                ]
            ),
            False,
        ),
    ]
)

table = hc.applySchema(source, schema)

table.registerAsTable("temp_table")

rows = hc.sql(
    "select byte, short, int, long, float, double, decimal, string, boolean, timestamp, date, array[0], array[1], array[2], col_map['key'], struct.first, struct.second, struct.third from temp_table"
).collect()

sc.stop()

for row in rows:
    print row
开发者ID:Leaderman,项目名称:pyspark,代码行数:32,代码来源:spark_sql_datatype.py

示例2: parse

# 需要导入模块: from pyspark.sql import HiveContext [as 别名]
# 或者: from pyspark.sql.HiveContext import applySchema [as 别名]
def parse(line):
    matcher = pattern.match(line)

    if matcher:
        return matcher.groups()
    else:
        return None

columns = source.map(parse).filter(
    lambda columns: columns and len(columns) == 3)

rows = columns.map(
    lambda columns: (columns[0], columns[1], columns[2]))

schema = StructType([StructField("col1", StringType(), False), StructField(
    "col2", StringType(), False), StructField("col3", StringType(), False)])


table = hc.applySchema(rows, schema)

table.registerAsTable("temp_mytable")

datas = hc.sql("select * from temp_mytable").collect()

sc.stop()

if datas:
    for data in datas:
        print data
开发者ID:Leaderman,项目名称:pyspark,代码行数:31,代码来源:spark_sql_regex_specify_schema.py


注:本文中的pyspark.sql.HiveContext.applySchema方法示例由纯净天空整理自Github/MSDocs等开源代码及文档管理平台,相关代码片段筛选自各路编程大神贡献的开源项目,源码版权归原作者所有,传播和使用请参考对应项目的License;未经允许,请勿转载。