我正在尝试在 ADW 更新表,但到目前为止我找到的唯一途径是通过 scala,我不太熟悉它,我希望与 PySpark 具有相同的功能。
这是 Scala 代码,但我被困在试图翻译它
import java.util.Properties
import java.sql.DriverManager
val jdbcUsername = "xxxxx"
val jdbcPassword = "xxxxx"
val driverClass = "com.microsoft.sqlserver.jdbc.SQLServerDriver"
val jdbcUrl = s"xxxx"
val connectionProperties = new Properties()
connectionProperties.put("user", s"${jdbcUsername}")
connectionProperties.put("password", s"${jdbcPassword}")
connectionProperties.setProperty("Driver", driverClass)
val connection = DriverManager.getConnection(jdbcUrl, jdbcUsername, jdbcPassword)
val stmt = connection.createStatement()
val sql = "delete from table where condition"
stmt.execute(sql)
connection.close()
我认为必须有一种使用 PySpark 在 Azure SQL 上执行命令的通用方法,但我还没有找到。
偶然的你
相关分类