hadoop—在spark/scala中将不同类型的值作为参数传递给单个函数

lskq00tm  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(371)

我刚到斯卡拉。我可以将不同类型的值作为spark/scala中的参数传递给单个函数吗。
我的意思是泛型函数,它可以访问每种类型的值作为参数(例如string、int、double等)
下面的函数只接受int值。

def Test(firstColumn : Int,secondColumn : Int) : (Int) = {
 //My Code here   
} 
val FLAG :Int =  Test(2,4)

请给我一些建议。
提前谢谢

knsnq2tg

knsnq2tg1#

您可以使用类型参数,让scala推断您的返回类型,而不指定如下返回类型:

def Test[A,B](firstColumn : A,secondColumn : B) = {
     //My Code here   
    }

相关问题