这是我的Dataframe:
from pyspark.sql import SparkSession
from pyspark.sql import functions as F
spark = SparkSession.builder.getOrCreate()
dCols = ['c1', 'c2']
dData = [('a', 'b'),
('c', 'd'),
('e', None)]
df = spark.createDataFrame(dData, dCols)
有语法要包括吗 null
内部 .isin()
?
像这样的
df = df.withColumn(
'newCol',
F.when(F.col('c2').isin({'d', None}), 'true') # <=====?
.otherwise('false')
).show()
在执行了我得到的代码之后
+---+----+------+
| c1| c2|newCol|
+---+----+------+
| a| b| false|
| c| d| true|
| e|null| false|
+---+----+------+
而不是
+---+----+------+
| c1| c2|newCol|
+---+----+------+
| a| b| false|
| c| d| true|
| e|null| true|
+---+----+------+
我想找到一个解决方案,我不需要引用同一列两次,因为我们现在需要这样做:
(F.col('c2') == 'd') | F.col('c2').isNull()
3条答案
按热度按时间p1iqtdky1#
尝试以下操作:使用'or'操作测试空值
2wnc66cl2#
在这种情况下,仅引用一个列是不够的。要检查空值,需要使用单独的
isNull
方法。另外,如果你想要一列
true/false
,可以直接将结果强制转换为布尔值,而无需使用when
:okxuctiv3#
NULL
不是值,但表示缺少值,因此不能将其与none或null进行比较。这种比较总是给人错误的印象。你需要使用isNull
要检查: