我想PageRank
从以下格式的边的CSV文件中进行计算:
12,13,1.0
12,14,1.0
12,15,1.0
12,16,1.0
12,17,1.0
...
我的代码:
var filename = "<filename>.csv"
val graph = Graph.fromCsvReader[Long,Double,Double](
env = env,
pathEdges = filename,
readVertices = false,
hasEdgeValues = true,
vertexValueInitializer = new MapFunction[Long, Double] {
def map(id: Long): Double = 0.0 } )
val ranks = new PageRank[Long](0.85, 20).run(graph)
我从Flink Scala Shell中收到以下错误:
error: type mismatch;
found : org.apache.flink.graph.scala.Graph[Long,_23,_24] where type _24 >: Double with _22, type _23 >: Double with _21
required: org.apache.flink.graph.Graph[Long,Double,Double]
val ranks = new PageRank[Long](0.85, 20).run(graph)
^
我究竟做错了什么?
(并且每个顶点的初始值0.0和每个边缘的1.0正确吗?)
问题是您要给Scalaorg.apache.flink.graph.scala.Graph
提供PageRank.run
Java语言org.apache.flink.graph.Graph
。
为了运行一个GraphAlgorithm
用于Scala的Graph
对象,你必须调用run
斯卡拉的方法Graph
用GraphAlgorithm
。
graph.run(new PageRank[Long](0.85, 20))
在使用PageRank
算法的情况下,请务必注意,该算法需要type的实例Graph[K, java.lang.Double, java.lang.Double]
。由于Java的Double
类型与Scala的Double
类型不同(就类型检查而言),因此必须加以考虑。
对于示例代码,这意味着
val graph = Graph.fromCsvReader[Long,java.lang.Double,java.lang.Double](
env = env,
pathEdges = filename,
readVertices = false,
hasEdgeValues = true,
vertexValueInitializer = new MapFunction[Long, java.lang.Double] {
def map(id: Long): java.lang.Double = 0.0 } )
.asInstanceOf[Graph[Long, java.lang.Double, java.lang.Double]]
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句