主流数据⽂件类型(.json.csv)导⼊到python ⼿写很累,复制的同学请点赞犒劳下在下哦 ^_^
⼀、对于.CSV类型的数据
它们的数据导⼊都很简单
且看下⾯⼀顿操作:
我平时⼀般是读取整个⽂件,直接这样就可以了:
1import pandas as pd
2 data = pd.read_csv('test.csv',encoding = 'GBK', engine="python")
得到的,是⼀个DataFrame类型的data,不熟悉处理⽅法可以参考
如有 OSError: Initializing from file failed 这样的错误,就是没有加 engine = "python"
还有⼀种⽅法就是⽤CSV库:
1import csv
2
3 with open("test.csv","r") as csvfile:
4 data = ader(csvfile)
5#这⾥不需要readlines
6for line in data:
7print line
其次是写⼊,⼀般简单的写⼊只需要:
1import pandas as pd
2
3#这⾥只是范例,a,b可根据实际替换为你想写⼊的内容
4#搞出来⼀个字典,然后转成dataframe类型
5 a = [1,2,3]
6 b = [4,5,6]
7 dataframe = pd.DataFrame({'a_name':a,'b_name':b})
8
9#将DataFrame存储为csv格式, index表⽰是否显⽰⾏名,default=True
_csv("test.csv",index=False,sep=',')
ok 完⼯
需求⾼⼀点的就是逐⾏写。
1import csv
2
3 with open("test.csv","w") as csvfile:
4 data = csv.writer(csvfile)
5
6#先写⼊columns_name
7 data.writerow(["index","a_name","b_name"])
8#写⼊多⾏⽤writerows
9 data.writerows([[0,1,3],[1,2,3],[2,3,4]])
⼆、.txt 就简单了
直接上去三板斧
1 f = open('/')
2
ad()
4
5 f.close()
需要注意的是,f.write()有坑,要注意模式,
1 f1 = open('/','w')
2 f1.write('hello buddy!')
但此时数据只写到了缓存中,并未保存到⽂件,⽽且从下⾯的输出可以看到,原先⾥⾯的配置被清空了然后就囧了。
三郎神使⽤r+ 模式不会先清空,但是会替换掉原先的⽂件。
如果在写之前先读取⼀下⽂件,再进⾏写⼊,则写⼊的数据会添加到⽂件末尾⽽不会替换掉原先的⽂件。这是因为指针引起的,r+ 模式的指针默认是在⽂件的开头,如果直接写⼊,则会覆盖源⽂件,通过read() 读取⽂件后,指针会移到⽂件的末尾,再写⼊数据就不会有问题了。这⾥也可以使⽤a 模式。
三、.dat⽂件很⽅便,因为他既能转成.txt,他的格式也很⽅便,⼀般都是⽤”,“或者”::“分割开。
处理的话,我是⽤
users = pd.read_table(path+'users.dat',sep = '::',header=None, names = unames,engine='python')
这种⽅法的,path可以定义⼀个绝对路径,移植的时候也很⽅便。
四、.json⽂件的读写
pandas库还为我们提供了可以读取很多种类⽂件类型的函数。
我就不⼀⼀列举⽰例了,调⽤很简单,⽽且很多编辑器也会给你⼀些参数上的提⽰。
Json⽂件是相当常见⼀种⽂件类型。对于这类数据的读取,极其极其简单。
直接上个例⼦:
设Json⽂件
{
"fontFamily": "微软雅⿊",
"fontSize": 12,
"BaseSettings":{
"font":1,
"size":2
}
}
只需要这样读取:
1import json
2
3def loadFont():
4 f = open("Settings.json", encoding='utf-8') //设置以utf-8解码模式读取⽂件,encoding参数必须设置,否则默认以gbk模式读取⽂件,当⽂件中包含中⽂时,会报错
5 setting = json.load(f) //其实读取的核⼼就是这个函数
6 family = setting['BaseSettings']['size'] //注意多重结构的读取语法
7 size = setting['fontSize']
8return family, size
9
10 t,x = loadFont()
11
12print(t)
13 #将会返回t值为2, x为12
how easy it is
.txt⽂件可以直接⽤pandas中的pd.read_csv('filename')直接傻⽠式读写。参见最上⾯csv⽂件的读写。
类型转换格式对应表:
JSON Python
Object dict
array list
String unicode
number(int)int, long
number(real)float
oracle考试题库true True
false False
null None
使⽤第三⽅库:Demjson
Demjson是python的第三⽅模块库,可⽤于编码和解码JSON数据,包括了JSONLint的格式化及校验功能。linux安装:
环境配置
在使⽤ Demjson 编码或解码 JSON 数据前,我们需要先安装 Demjson 模块。本教程我们会下载并安装:$ tar -xvzf demjson-2.2.
$ cd demjson-2.2.3
$ python setup.py install
更多安装介绍查看:
照片直方图常见的七种形态JSON函数
函数描述
encode将python对象编码成JSON字符串
decode将⼀遍吗的JSON字符串解码为Python对象
Encode语法:
实例:
以下实例将数组编码为 JSON 格式数据:
#!/usr/bin/python
import demjson
data = [ { 'a' : 1, 'b' : 2, 'c' : 3, 'd' : 4, 'e' : 5 } ]
json = de(data)
print json
执⾏结果为: [{"a":1,"b":2,"c":3,"d":4,"e":5}]
Decode:解码 JSON 数据。该函数返回 Python 字段的数据类型。
head in the clouds语法:
demjson.decode(self, txt)
⽰例:
import demjson
json = '{"a":1,"b":2,"c":3,"d":4,"e":5}';
text = demjson.decode(json)
print text
执⾏结果为: {u'a': 1, u'c': 3, u'b': 2, u'e': 5, u'd': 4}
导⼊数据
pd.DataFrame(dict):从字典对象导⼊数据,Key是列名,Value是数据
导出数据
<_csv(filename):导出数据到CSV⽂件
<_excel(filename):导出数据到Excel⽂件
<_sql(table_name, connection_object):导出数据到SQL表
<_json(filename):以Json格式导出数据到⽂本⽂件
创建测试对象
pd.DataFrame(np.random.rand(20,5)):创建20⾏5列的随机数组成的DataFrame对象pd.Series(my_list):从可迭代对象my_list创建⼀个Series对象
df.index = pd.date_range('1900/1/30', periods=df.shape[0]):增加⼀个⽇期索引
查看、检查数据
df.head(n):查看DataFrame对象的前n⾏
df.tail(n):查看DataFrame对象的最后n⾏
df.shape():查看⾏数和列数
:查看索引、数据类型和内存信息
df.describe():查看数值型列的汇总统计
s.value_counts(dropna=False):查看Series对象的唯⼀值和计数
df.apply(pd.Series.value_counts):查看DataFrame对象中每⼀列的唯⼀值和计数
数据选取
df[col]:根据列名,并以Series的形式返回列
df[[col1, col2]]:以DataFrame形式返回多列
苹果手机c语言编译器s.iloc[0]:按位置选取数据
s.loc['index_one']:按索引选取数据
df.iloc[0,:]:返回第⼀⾏
df.iloc[0,0]:返回第⼀列的第⼀个元素
数据清理
pd.isnull():检查DataFrame对象中的空值,并返回⼀个Boolean数组
df.dropna():删除所有包含空值的⾏
df.dropna(axis=1):删除所有包含空值的列
df.dropna(axis=1,thresh=n):删除所有⼩于n个⾮空值的⾏
df.fillna(x):⽤x替换DataFrame对象中所有的空值
s.astype(float):将Series中的数据类型更改为float类型
df.set_index('column_one'):更改索引列
数据处理:Filter、Sort和GroupBypython解析json文件
df[df[col] > 0.5]:选择col列的值⼤于0.5的⾏
df.sort_values(col1):按照列col1排序数据,默认升序排列
df.sort_values(col2, ascending=False):按照列col1降序排列数据
df.sort_values([col1,col2], ascending=[True,False]):先按列col1升序排列,后按col2降序排列数据
df.pivot_table(index=col1, values=[col2,col3], aggfunc=max):创建⼀个按列col1进⾏分组,并计算col2和col3的最⼤值的数据透视表df.groupby(col1).an):返回按列col1分组的所有列的均值
data.an):对DataFrame中的每⼀列应⽤函数np.mean
data.apply(np.max,axis=1):对DataFrame中的每⼀⾏应⽤函数np.max
数据合并
df1.append(df2):将df2中的⾏添加到df1的尾部
df1.join(df2,on=col1,how='inner'):对df1的列和df2的列执⾏SQL形式的join
数据统计
df.describe():查看数据值列的汇总统计
<():返回列与列之间的相关系数
df.max():返回每⼀列的最⼤值
df.min():返回每⼀列的最⼩值
df.std():返回每⼀列的标准差
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论