本文简要介绍
pyspark.pandas.read_sql_table
的用法。用法:
pyspark.pandas.read_sql_table(table_name: str, con: str, schema: Optional[str] = None, index_col: Union[str, List[str], None] = None, columns: Union[str, List[str], None] = None, **options: Any) → pyspark.pandas.frame.DataFrame
将 SQL 数据库表读入 DataFrame。
给定一个表名和一个 JDBC URI,返回一个 DataFrame。
- table_name:str
数据库中 SQL 表的名称。
- con:str
JDBC URI 可以作为 str 提供。
注意
URI 必须是 JDBC URI 而不是 Python 的数据库 URI。
- schema:str,默认无
数据库中要查询的 SQL 模式的名称(如果数据库风格支持此)。如果 None (默认),则使用默认模式。
- index_col:str 或 str 列表,可选,默认值:无
要设置为索引(MultiIndex)的列。
- columns:列表,默认无
要从 SQL 表中选择的列名列表。
- options:dict
所有其他选项直接传递到 Spark 的 JDBC 数据源。
- DataFrame
SQL 表作为带有标签轴的二维数据结构返回。
参数:
返回:
例子:
>>> ps.read_sql_table('table_name', 'jdbc:postgresql:db_name')
相关用法
- Python pyspark read_sql_query用法及代码示例
- Python pyspark read_sql用法及代码示例
- Python pyspark read_spark_io用法及代码示例
- Python pyspark read_json用法及代码示例
- Python pyspark read_parquet用法及代码示例
- Python pyspark read_delta用法及代码示例
- Python pyspark read_orc用法及代码示例
- Python pyspark read_table用法及代码示例
- Python pyspark read_excel用法及代码示例
- Python pyspark read_csv用法及代码示例
- Python pyspark read_html用法及代码示例
- Python pyspark reverse用法及代码示例
- Python pyspark register_index_accessor用法及代码示例
- Python pyspark register_series_accessor用法及代码示例
- Python pyspark regexp_extract用法及代码示例
- Python pyspark repeat用法及代码示例
- Python pyspark register_dataframe_accessor用法及代码示例
- Python pyspark regexp_replace用法及代码示例
- Python pyspark range用法及代码示例
- Python pyspark rand用法及代码示例
- Python pyspark rpad用法及代码示例
- Python pyspark round用法及代码示例
- Python pyspark randn用法及代码示例
- Python pyspark create_map用法及代码示例
- Python pyspark date_add用法及代码示例
注:本文由纯净天空筛选整理自spark.apache.org大神的英文原创作品 pyspark.pandas.read_sql_table。非经特殊声明,原始代码版权归原作者所有,本译文未经允许或授权,请勿转载或复制。