pandas.read_hdf(path_or_buf, key=None, mode='r', errors='strict', where=None, start=None, stop=None, columns=None, iterator=False, chunksize=None, **kwargs) [源代码]
如打开存储读取数据,之后关闭它。
根据位置条件检索存储在文件中的pandas对象。
注意:Pandas使用PyTables来读写HDF5文件,这允许在使用 "fixed" 格式时用pickle序列化object-dtype对象。加载从不可信源接收的pickle数据可能是不安全的。
更多信息查看:https://docs.python.org/3/library/pickle.html
参数: | path_or_buffer: 任何有效的字符串路径都可以接受。仅支持本地文件系统, 不支持远程url和类文件对象。 如想传入一个路径对象,pandas接受任何 或者,pandas接受打开的 key: 存储中的组标识符。如果HDF文件包含单个pandas对象, 则可以省略。 mode: 打开文件时使用的模式。如果 是 errors: 指定如何处理编码和解码错误。有关选项的完整列表, 请参阅open()的errors参数。 where: Term(或可转换)对象的列表。 start: 开始选择的行号。 stop: 停止选择的行号。 columns: 要返回的列名列表。 iterator: 返回一个可迭代的对象 chunksize: 使用迭代器时在迭代中包含的行数。 **kwargs:传递给 |
返回: | item:object 选择的对象。返回类型取决于存储的对象。 |
例如,
>>> df = pd.DataFrame([[1, 1.0, 'a']], columns=['x', 'y', 'z'])
>>> df.to_hdf('./store.h5', 'data')
>>> reread = pd.read_hdf('./store.h5')