本文簡要介紹
pyspark.pandas.read_sql
的用法。用法:
pyspark.pandas.read_sql(sql: str, con: str, index_col: Union[str, List[str], None] = None, columns: Union[str, List[str], None] = None, **options: Any) → pyspark.pandas.frame.DataFrame
將 SQL 查詢或數據庫表讀入 DataFrame。
此函數是
read_sql_table
和read_sql_query
的便捷包裝器(用於向後兼容)。它將根據提供的輸入委托給特定的函數。 SQL 查詢將被路由到read_sql_query
,而數據庫表名將被路由到read_sql_table
。請注意,委托函數可能有更多關於此處未列出的函數的具體說明。注意
某些數據庫可能會遇到 Spark 的問題:SPARK-27596
- sql:string
要執行的 SQL 查詢或表名。
- con:str
JDBC URI 可以作為 str 提供。
注意
URI 必須是 JDBC URI 而不是 Python 的數據庫 URI。
- index_col:字符串或字符串列表,可選,默認值:無
要設置為索引(MultiIndex)的列。
- columns:列表,默認:無
要從 SQL 表中選擇的列名列表(僅在讀取表時使用)。
- options:dict
所有其他選項直接傳遞到 Spark 的 JDBC 數據源。
- DataFrame
參數:
返回:
例子:
>>> ps.read_sql('table_name', 'jdbc:postgresql:db_name') >>> ps.read_sql('SELECT * FROM table_name', 'jdbc:postgresql:db_name')
相關用法
- Python pyspark read_sql_query用法及代碼示例
- Python pyspark read_sql_table用法及代碼示例
- Python pyspark read_spark_io用法及代碼示例
- Python pyspark read_json用法及代碼示例
- Python pyspark read_parquet用法及代碼示例
- Python pyspark read_delta用法及代碼示例
- Python pyspark read_orc用法及代碼示例
- Python pyspark read_table用法及代碼示例
- Python pyspark read_excel用法及代碼示例
- Python pyspark read_csv用法及代碼示例
- Python pyspark read_html用法及代碼示例
- Python pyspark reverse用法及代碼示例
- Python pyspark register_index_accessor用法及代碼示例
- Python pyspark register_series_accessor用法及代碼示例
- Python pyspark regexp_extract用法及代碼示例
- Python pyspark repeat用法及代碼示例
- Python pyspark register_dataframe_accessor用法及代碼示例
- Python pyspark regexp_replace用法及代碼示例
- Python pyspark range用法及代碼示例
- Python pyspark rand用法及代碼示例
- Python pyspark rpad用法及代碼示例
- Python pyspark round用法及代碼示例
- Python pyspark randn用法及代碼示例
- Python pyspark create_map用法及代碼示例
- Python pyspark date_add用法及代碼示例
注:本文由純淨天空篩選整理自spark.apache.org大神的英文原創作品 pyspark.pandas.read_sql。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。