我有180000个Pandas系列,我需要将它们合并到一个DataFrame中。逐个添加它们需要花费大量时间,显然是因为当 Dataframe 的大小增加时,追加会变得越来越慢。即使我使用比Pandas更快的numpy,同样的问题仍然存在。
从Series创建DataFrame的更好方法是什么?
编辑:一些更多的背景信息。系列赛被存储在一个列表中。这是体育数据,列表被称为球员库,有180000+项目。我没有意识到它是足够的写
pd.concat(player_library, axis=1)
而不是列出所有单独的项目。现在它工作得又快又好。
2条答案
按热度按时间mctunoxg1#
您可以尝试
pd.concat
而不是append
。如果希望每个系列都是一列,则
有关迭代和追加开销的更多详细信息,请参阅this question
e4yzc0pl2#
输入-
(“宝马”、“丰田”、“本田”)系列
输出-
0宝马
1辆丰田
2本田
dtype:对象
输入-
colors = pd.系列([“红色”、“蓝色”、“白色”])颜色
输出-
0红色
1个蓝色
2白色
dtype:对象
输入-
汽车数据= pd. Dataframe ({“汽车制造商”:系列,“颜色”:颜色})汽车数据
输出-
| | 汽车品牌|颜色|
| - -|- -|- -|
| 第0页|宝马|红色|
| 一个|丰田汽车|蓝色|
| 2个|本田|白色|