当前位置: 首页>>代码示例 >>用法及示例精选 >>正文


Python pyspark read_sql_table用法及代码示例


本文简要介绍 pyspark.pandas.read_sql_table 的用法。

用法:

pyspark.pandas.read_sql_table(table_name: str, con: str, schema: Optional[str] = None, index_col: Union[str, List[str], None] = None, columns: Union[str, List[str], None] = None, **options: Any) → pyspark.pandas.frame.DataFrame

将 SQL 数据库表读入 DataFrame。

给定一个表名和一个 JDBC URI,返回一个 DataFrame。

参数

table_namestr

数据库中 SQL 表的名称。

constr

JDBC URI 可以作为 str 提供。

注意

URI 必须是 JDBC URI 而不是 Python 的数据库 URI。

schemastr,默认无

数据库中要查询的 SQL 模式的名称(如果数据库风格支持此)。如果 None (默认),则使用默认模式。

index_colstr 或 str 列表,可选,默认值:无

要设置为索引(MultiIndex)的列。

columns列表,默认无

要从 SQL 表中选择的列名列表。

optionsdict

所有其他选项直接传递到 Spark 的 JDBC 数据源。

返回

DataFrame

SQL 表作为带有标签轴的二维数据结构返回。

例子

>>> ps.read_sql_table('table_name', 'jdbc:postgresql:db_name')

相关用法


注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.pandas.read_sql_table。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。