我正在尝试在python中使用200k +数据点实现1000维数据的算法。我想使用numpy,scipy,sklearn,networkx和其他有用的库。我想执行所有点之间的成对距离等操作,并在所有点上进行聚类。我已经实现了可以有效实现所需功能的有效算法,但是当我尝试将它们扩展到我的所有数据时,我的内存就用光了。当然可以,在200k +的数据上为成对距离创建矩阵会占用大量内存。
这里有个要注意的地方:我真的很想在内存低,内存不足的笨拙的计算机上执行此操作。
有没有一种可行的方法可以使我在没有低内存限制的情况下进行这项工作。只要时间要求不等于无穷大,那将花费更长的时间确实不是问题!
我希望能够使用我的算法,然后一小时或五个小时再返回,并且不会卡死,因为它用完了内存!我想在python中实现此功能,并且能够使用numpy,scipy,sklearn和networkx库。我希望能够计算到我所有点的成对距离等
这可行吗?我将如何处理它,我可以开始阅读什么?
最好的问候//梅斯默
九州编程
守着星空守着你
倚天杖
相关分类