當前位置: 首頁>>代碼示例 >>用法及示例精選 >>正文


Python pyspark read_sql用法及代碼示例


本文簡要介紹 pyspark.pandas.read_sql 的用法。

用法:

pyspark.pandas.read_sql(sql: str, con: str, index_col: Union[str, List[str], None] = None, columns: Union[str, List[str], None] = None, **options: Any) → pyspark.pandas.frame.DataFrame

將 SQL 查詢或數據庫表讀入 DataFrame。

此函數是read_sql_tableread_sql_query 的便捷包裝器(用於向後兼容)。它將根據提供的輸入委托給特定的函數。 SQL 查詢將被路由到 read_sql_query ,而數據庫表名將被路由到 read_sql_table 。請注意,委托函數可能有更多關於此處未列出的函數的具體說明。

注意

某些數據庫可能會遇到 Spark 的問題:SPARK-27596

參數

sqlstring

要執行的 SQL 查詢或表名。

constr

JDBC URI 可以作為 str 提供。

注意

URI 必須是 JDBC URI 而不是 Python 的數據庫 URI。

index_col字符串或字符串列表,可選,默認值:無

要設置為索引(MultiIndex)的列。

columns列表,默認:無

要從 SQL 表中選擇的列名列表(僅在讀取表時使用)。

optionsdict

所有其他選項直接傳遞到 Spark 的 JDBC 數據源。

返回

DataFrame

例子

>>> ps.read_sql('table_name', 'jdbc:postgresql:db_name')  
>>> ps.read_sql('SELECT * FROM table_name', 'jdbc:postgresql:db_name')

相關用法


注:本文由純淨天空篩選整理自spark.apache.org大神的英文原創作品 pyspark.pandas.read_sql。非經特殊聲明,原始代碼版權歸原作者所有,本譯文未經允許或授權,請勿轉載或複製。