精品国产人成在线_亚洲高清无码在线观看_国产在线视频国产永久2021_国产AV综合第一页一个的一区免费影院黑人_最近中文字幕MV高清在线视频

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Pandas DataFrame的存儲格式性能對比

科技綠洲 ? 來源:Python數據科學 ? 作者:Python數據科學 ? 2023-11-03 09:58 ? 次閱讀

Pandas 支持多種存儲格式,在本文中將對不同類型存儲格式下的Pandas Dataframe的讀取速度、寫入速度和大小的進行測試對比。

創建測試Dataframe

首先創建一個包含不同類型數據的測試Pandas Dataframe。

import pandas as pd
import random
import string
import numpy as np

# Config DF
df_length= 10**6
start_date= '2023-01-01'
all_string= list(string.ascii_letters + string.digits)
string_length= 10**1
min_number= 0
max_number= 10**3

# Create Columns
date_col= pd.date_range(start= start_date, periods= df_length, freq= 'H')
str_col= [''.join(np.random.choice(all_string, string_length)) for i in range(df_length)]
float_col= np.random.rand(df_length)
int_col= np.random.randint(min_number,max_number, size = df_length)

# Create DataFrame
df= pd.DataFrame({'date_col' : date_col,
'str_col' : str_col,
'float_col' : float_col,
'int_col' : int_col})
df.info()
df.head()

以不同的格式存儲

接下來創建測試函數,以不同的格式進行讀寫。

import time
import os

def check_read_write_size(df, file_name, compression= None) :
format= file_name.split('.')[-1]
# Write
begin= time.time()
if file_name.endswith('.csv') : df.to_csv(file_name, index= False, compression= compression)
elif file_name.endswith('.parquet') : df.to_parquet(file_name, compression= compression)
elif file_name.endswith('.pickle') : df.to_pickle(file_name, compression= compression)
elif file_name.endswith('.orc') : df.to_orc(file_name)
elif file_name.endswith('.feather') : df.to_feather(file_name)
elif file_name.endswith('.h5') : df.to_hdf(file_name, key= 'df')
write_time= time.time() - begin
# Read
begin= time.time()
if file_name.endswith('.csv') : pd.read_csv(file_name, compression= compression)
elif file_name.endswith('.parquet') : pd.read_parquet(file_name)
elif file_name.endswith('.pickle') : pd.read_pickle(file_name, compression= compression)
elif file_name.endswith('.orc') : pd.read_orc(file_name)
elif file_name.endswith('.h5') : pd.read_hdf(file_name)
read_time= time.time() - begin
# File Size
file_size_mb = os.path.getsize(file_name) / (1024 * 1024)
return [format, compression, read_time, write_time, file_size_mb]

然后運行該函數并將結果存儲在另一個Pandas Dataframe中。

test_case= [
['df.csv','infer'],
['df.csv','gzip'],
['df.pickle','infer'],
['df.pickle','gzip'],
['df.parquet','snappy'],
['df.parquet','gzip'],
['df.orc','default'],
['df.feather','default'],
['df.h5','default'],
]

result= []
for i in test_case :
result.append(check_read_write_size(df, i[0], compression= i[1]))

result_df= pd.DataFrame(result, columns= ['format','compression','read_time','write_time','file_size'])
result_df

測試結果

下面的圖表和表格是測試的結果。

圖片

我們對測試的結果做一個簡單的分析:

CSV

  • 未壓縮文件的大小最大
  • 壓縮后的尺寸很小,但不是最小的
  • CSV的讀取速度和寫入速度是最慢的

Pickle

  • 表現得很平均
  • 但壓縮寫入速度是最慢的

Feather(再見 CSV,速度提升 150 倍!

  • 最快的讀寫速度,文件的大小也是中等,非常的平均

ORC

  • 所有格式中最小的
  • 讀寫速度非???,幾乎是最快的

Parquet

  • 總的來說,快速并且非常小,但是并不是最快也不是最小的

總結

從結果來看,我們應該使用ORC或Feather,而不再使用CSV了,是嗎?

這取決于需求。

如果你正在做一些單獨的項目,那么使用最快或最小的格式肯定是有意義的。

但大多數時候,我們必須與他人合作。所以,除了速度和大小,還有更多的因素。

未壓縮的CSV可能很慢,而且最大,但是當需要將數據發送到另一個系統時,它非常容易。

ORC作為傳統的大數據處理格式(來自Hive)對于速度的和大小的優化是做的最好的,Parquet比ORC更大、更慢,但是它卻是在速度和大小中取得了最佳的平衡,并且支持他的生態也多,所以在需要處理大文件的時候可以優先選擇Parquet。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 數據
    +關注

    關注

    8

    文章

    6898

    瀏覽量

    88834
  • 存儲
    +關注

    關注

    13

    文章

    4265

    瀏覽量

    85675
  • 函數
    +關注

    關注

    3

    文章

    4307

    瀏覽量

    62433
收藏 人收藏

    評論

    相關推薦

    Python利用pandas讀寫Excel文件

    使用pandas模塊讀取Excel文件可以更為方便和快捷。pandas可以將Excel文件讀取為一個DataFrame對象,方便進行數據處理和分析。
    的頭像 發表于 12-16 11:22 ?1277次閱讀
    Python利用<b class='flag-5'>pandas</b>讀寫Excel文件

    Nanopi系列板子資源性能對比

    Nanopi系列板子資源性能對比對比性能 選擇適合你的板子
    發表于 08-05 14:21

    在PyODPS DataFrame自定義函數中使用pandas、scipy和scikit-learn

    背景PyODPS DataFrame 提供了類似 pandas 的接口,來操作 ODPS 數據,同時也支持在本地使用 pandas,和使用數據庫來執行。PyODPS DataFrame
    發表于 05-17 19:48

    SparkRDMA基于BigDataBench的性能對比測試

    SparkRDMA基于BigDataBench 性能對比測試
    發表于 05-04 13:16

    Linux下AWTK與Qt的性能對比

    為了比較直觀的看到AWTK的基本性能,我們對產品開發者比較關心GUI的一些參數做了測試,如界面刷新幀數、啟動時間等。讓我們從參數上直觀了解Linux下AWTK與Qt的性能對比。
    發表于 10-29 08:26

    Arm Cortex-A35性能對比分析

    Arm Cortex-A35性能對比
    發表于 01-19 07:44

    步進電機和交流伺服電機性能對比分析哪個好?

    步進電機和交流伺服電機性能對比分析哪個好?
    發表于 10-09 06:03

    常用無線收發芯片性能對比分析哪個好?

    常用無線收發芯片性能對比分析哪個好?選擇收發芯片時有哪些注意事項?
    發表于 10-21 06:14

    步進電機和交流伺服電機性能對比分析哪個好?

    步進電機和交流伺服電機性能對比分析哪個好?
    發表于 11-15 07:25

    arduino和stm32性能對比究竟誰更厲害?

    一些DIY和各種小項目?arduino和stm32性能對比究竟誰更厲害呢?我們一起來討論一下。比較兩者之前首先我們來了解下arduino和stm32的特點:Arduino:Arduino UNO-DFRobot商城1. Arduino更傾向于創意,它弱化了具體的硬件的操作,它的函數...
    發表于 01-24 07:14

    關于STM32各系列MCU性能對比及測試說明

    STM32各系列MCU性能對比及測試說明
    的頭像 發表于 03-04 10:20 ?1.3w次閱讀

    高頻型直流充電機性能對比檢驗試驗總結報告

    高頻型直流充電機性能對比檢驗試驗總結報告(開關電源技術課程設計)-高頻型直流充電機性能對比檢驗試驗總結報告? ? ? ? ? ?
    發表于 08-31 19:55 ?19次下載
    高頻型直流充電機<b class='flag-5'>性能對比</b>檢驗試驗總結報告

    什么格式是保存Pandas數據的最好格式

    在數據分析相關項目工作時,我通常使用Jupyter筆記本和pandas庫來處理和傳遞我的數據。對于中等大小的數據集來說,這是一個非常直接的過程,你甚至可以將其存儲為純文本文件而沒有太多的開銷。 然而
    的頭像 發表于 10-30 15:05 ?666次閱讀
    什么<b class='flag-5'>格式</b>是保存<b class='flag-5'>Pandas</b>數據的最好<b class='flag-5'>格式</b>

    如何實現PandasDataFrame轉換交互式表格

    Pivottablejs是一個通過IPython widgets集成到Python中的JavaScript庫,允許用戶直接從DataFrame數據創建交互式和靈活的匯總報表??梢赃M行高效、清晰的數據分析和表示,幫助將數據從Pandas
    的頭像 發表于 11-21 16:15 ?813次閱讀
    如何實現<b class='flag-5'>Pandas</b>的<b class='flag-5'>DataFrame</b>轉換交互式表格

    ICL5101與ICL5102性能對比

    ICL5101與ICL5102性能對比-中文
    發表于 06-17 14:26 ?1次下載