我是靠谱客的博主 清爽金鱼,最近开发中收集的这篇文章主要介绍pandas学习笔记 Series结构DataFrame数据类型(重要)常用属性和方法:pandas读取文件缺失值处理分组聚合       数据合并字符串操作 三板斧map-apply-applymappandas绘图 常用操作,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

 Series结构

  • Series结构是pandas常用的数据结构之一,由一组数据之和一组标签组成,其中标签和数据之具有对应关系,标签不必是唯一的.
  • Series可以保存任何数据类型,整形,字符串,浮点型,python对象等,默认值是整数,从0开始递增

引入pandas:import pandas as pd

pd.Series(data=None,index=None,dtype=None,name=None,copy=False)

  • data 输入的数据
  • index 指定索引值
  • dtype 输出的类型
  • name 定义一个名称
  • copy 对data进行拷贝

获取下标标签值和属性值

p.index        获取下标值,默认是0到n

list(p.values)        获取所有属性值,可以将转list直接输出

通过标签获取索引和赋值

s1[1]        通过行索引获取第二个数据

s1[0]=50        更改行索引为0的值

s1[-1]        找的是标签值为-1的,不存在从后往前找,但是可以新增,就像添加一行数据

s1["a"]=1        新增不同类型的索引数据,索引类型会发生变化

字典作为数据源创建series

pd.Series({"a":1,"b":1})        创建之后key会变成索引,也就是行

索引取值

标签如果不存在数值型的数据,我们就可以使用标签取值也可以用索引0-n获取值

如果存在,则不可以使用标签的index获取,只可以用对应的值获取数据

访问多个元素值s1[["a","b"]]

指定索引创建series

如果指定索引,然后用字典构建则只有对应索引的数据会被创建,不存在的补NAN

指定name列名

s1.name        获取列名

s1.name="aa"        指定列名

我们也可以在创建的时候指定name属性

转换成DataFrame之后就会称为列名

切片

s[1:3]        使用python切片

基本方法

s.head()        默认看前5条,可以指定

s.tail()        默认看后五条,可以指定

s.reindex()        重新指定索引

s1 + s2        相同索引的会相加,没有的NaN

s.drop("a",inplace=True)        删除标签为a的值,修改原值

DataFrame数据类型(重要)

  • DataFrame是pandas的重要数据结构之一
  • 结构有行有多列的.类似表格
  • 每个列可以有不同的数据类型
  • 同列都是相同数据类型
  • 有索引index

pandas.DataFrame(data=None,index=None,columns=None,dtype=None,copy=None)

  • data 输入的数据
  • index 行标签
  • columns 列标签
  • dtype 只允许指定一个数据类型,一般不指定
  • copy 是否从输入复制数据

嵌套列表创建:每个元素代表一行数据

列表嵌套字典创建:每个元素的key会作为列名称,值为value

字典嵌套列表创建:每个key作为列名称,值的列表每一个元素作为当前key列的数据

指定需要哪些列:构建DataFrame的时候columns指定想要的列就可以筛选

列操作:

        df['列名']        获取列

        df[['列名','列名']]        获取多列

        注意:获取列不能用切片操作,也不能用索引获取列

        

        df['新列名']=pd.Series([1,2,3])        添加新的一列

        df['新列名']=df['列名']+df['列名']        可以进行运算返回新的列

        del df['列名']        删除一列

        df.pop('列名')        删除一列并且返回删除数据

行操作:

        行操作需要借助loc属性来完成

        df.loc['b']        选取行标签为b的数据

        df.loc['b','one']        获取行标签为b,列名为one列的数据

        df.loc['a':'b','one']        获取行标签a-b(包含尾),列为one的数据

        df.loc[['a','b'],['one','two']]        获取多行多列

索引获取数据:

        我们需要使用iloc来完成

        df.iloc[2]        获取行索引为2的数据

        df.iloc[[0,2]]        获取行索引0和2的数据

        df.iloc[0,1]        获取行索引0和列索引1的数据

添加行数据:

        使用append(other,ignore_index=False,verify_integrity=False,sort=False)

  •         other:DataFrame或series或字典等类对象
  •         ignore_index:如果是True将按照原本自动添加索引
  •         verify_integrity:如果为True,则在创建具有重复项的索引报错
  •         sort:排序

        list添加是一维为一行

删除行数据:

        使用drop删除某一行数据,如果有重复则一起删除

        df.drop('行标签')        默认不会修改原数据,要修改加上inplace=True

设置index列:

       #将索引设置为“month”列:

                df.set_index('month')

        # 将month列设置为index之后,并保留原来的列

                df.set_index('month',drop=False)

        # 保留原来的index列

                df.set_index('month', append=True)

        # 使用inplace参数取代原来的对象

                df.set_index('month', inplace=True)

        # 通过新建Series并将其设置为index

                df.set_index(pd.Series(range(4)))

常用属性和方法:

        T:转置

        axes:返回一个仅以行标签和列标签的列表

        dtypes:返回每列数据的类型

        empty:判断数据是否长度为0

        columns:返回所有列标签

        shape:返回一个数组,获取行数和列数

        size:元素数量

        values:返回所有元素值

        head():返回前n条

        tail():返回后n条

        rename():rename({"old","new"}),修改列名

        info():查看基本信息

        sort_index():根据行标签对所有行进行排序,或者根据列标签

        sort_values():可以根据列数据排序,也可以行数据排序

时间转换:

        to_datetime转换时间戳

        大部分字符串直接传入即可转换

去重函数:

        # 默认情况下,它会基于所有列删除重复的行,就是删除所有列都相同的保留第一行

                df.drop_duplicates()

        # 删除特定列上的重复项,使用子集,就是删除brand这一列数据相同的数据保留第一行

                df.drop_duplicates(subset=['brand'])

        # 删除重复项并保留最后出现的项,请使用“保留”。就是删除brand和style这两列相同的数据只保留最后一行                 df.drop_duplicates(subset=['brand', 'style'], keep='last')

pandas读取文件

csv文件读取:

        pd.read_csv(文件路径,encoding="utf-8",sep="|",header=0,names=["编号", "姓名", "地址", "性别", "出生日期"],index_col="birthday")

  •         encoding:编码
  •         sep:分隔符
  •         header:设置列名第几行
  •         names:添加列名
  •         index_col:指定index

设置编码:

        df = pd.read_csv(r"datastudents_step.csv", encoding="gbk")


设置分隔符

        df = pd.read_csv(r"datastudents_step.csv", sep="|")


delim_whitespace:

        默认为 False,设置为 True 时,表示分割符为空白字符,可以是空格、"t"等等。不管分隔符是什么,只要是空白字符,那么可以通过delim_whitespace=True进行读取。


指定表头行:

        pd.read_csv(r"datastudents.csv", header=1)


设置表行头内容,并且设定第一行是表头覆盖原表头:

        pd.read_csv(r"datastudents.csv", names=["编号", "姓名", "地址", "性别", "出生日期"], header=0)


指定索引index列:

        df = pd.read_csv(r"datastudents.csv", index_col="birthday")

        第二种方式

        df.index=df['birthday']

        del df['birthday']

        df.set_index('Date',inplace=True)


指定多列为index:

        df2 = pd.read_csv(r"datastudents.csv", index_col=["gender","birthday"])


展示指定列的数据:

        pd.read_csv(r"datastudents.csv", usecols=["name","birthday"])


指定某一列的数据类型:

        df = pd.read_csv(r"datastudents_step_001.csv", sep="|", dtype ={"id":str}) #用于保存其原本的格式


读取数据对一列进行运算:

        pd.read_csv('datastudents.csv', converters={"id": lambda x: int(x) + 10})


指定哪些数据清洗为true或false:

        pd.read_csv('datastudents.csv', true_values=['男'], false_values=['女'])


过滤指定行:

        pd.read_csv('datastudents.csv', skiprows=[0,3]) # 先进行跳过0和3行,先跳过才会确定表头

        pd.read_csv('datastudents.csv', skiprows=lambda x: x > 0 and x % 2 == 0) # 也可以传入一个函数


过滤文件末尾行:

        pd.read_csv('datastudents.csv', skipfooter=1)

        pd.read_csv('datastudents.csv', skipfooter=1, engine="python", encoding="utf-8") #报错需要指定


设置一次性读取的行数:

        pd.read_csv('datastudents.csv', nrows=3)


配置哪些值需要处理成NaN:

        pd.read_csv('datastudents.csv', na_values=["女", "朱梦雪"])


指定某一列为时间列:

        df = pd.read_csv('datastudents.csv', parse_dates=["birthday"]) #指定为时间列

        df2 = pd.read_csv('datastudents_年月日.csv', parse_dates=["birthday"], date_parser=lambda x: datetime.strptime(x, "%Y年%m月%d日")) # 自定义格式解析


分块读取数据:

chunk = pd.read_csv('datastudents.csv', iterator=True) # 开启迭代器默认为false分批读取
# 文件还剩下三行,但是我们指定读取100,那么也不会报错,不够指定的行数,那么有多少返回多少
print(chunk.get_chunk(100))
try:
    # 但是在读取完毕之后,再读的话就会报错了
    chunk.get_chunk(5)
except StopIteration as e:
    print("读取完毕")
# 读取完毕



chunk = pd.read_csv('datastudents.csv', chunksize=2)
# 还是返回一个类似于迭代器的对象
print(chunk)  
# <pandas.io.parsers.TextFileReader object at 0x0000025501143AF0>

# 调用get_chunk,如果不指定行数,那么就是默认的chunksize

# 也可以指定
print(chunk.get_chunk(100))

try:
    chunk.get_chunk(5)
except StopIteration as e:
    print("读取完毕")
# 读取完毕  

缺失值处理

        df.info()        查看基本信息可以可以看出是否有缺失值的列

        df.isnull()        返回对应原数据的boolean是否是空

        df.dropna(axis=0,how='any',thresh=None,subset=None,inplace=False)

  •                 axis:0或index,1或columns,默认为0表示删除包含学是指的行
  •                 how:any,all 默认是any,删除至少有一个na的行或者所有na的列
  •                 thresh:输入int,保留至少有几个非空的行
  •                 subset:定义在那些列找缺少的值
  •                 inplace:是否更改原数据

  df.fillna(value=None,method=None,axis=None,inplace=False,limit=None,downcast=None)

  •                 value:用于填充的值  
  •                 method:两个选择ffill->用空值上面有值的值填充,bfill->用空值下面有值的值填充   
  •                 axis:用于填充缺失值的轴
  •                 inplace:是否需改原数据
  •                 limit:设置填充最大几个连续NaN的值
#    删除缺失值
# 删除至少缺少一个元素的行。
df.dropna()
# 删除至少缺少一个元素的列。 
df.dropna(axis='1')
# 删除缺少所有元素的行
df.dropna(how='all')
# 仅保留至少有2个非NA值的行
df.dropna(thresh=2)
# 定义在哪些列中查找缺少的值
df.dropna(subset=['toy'])
# 在同一个变量中保留操作数据,修改原本数据
df.dropna(inplace=True)
#  填充缺失值
# 将所有NaN元素替换为0
df.fillna(0)
# 我们还可以向前或向后传播非空值,最近一个值是什么后面的就是什么
df.fillna(method="ffill")
df.fillna(method="bfill")
# 将列“A”、“B”、“C”和“D”中的所有NaN元素分别替换为0、1、2和3。
values = {"A": 0, "B": 1, "C": 2, "D": 3}

df.fillna(value=values)
# 只替换第一个NaN元素
df.fillna(0, limit=1)
# 当使用数据填充时,替换会沿着相同的列名和索引进行
df2 = pd.DataFrame(np.random.rand(4,4), columns=list("ABCE"))
df.fillna(value=df2)

      

分组聚合       

        根据数据进行分组,然后应用过滤转换统计函数

  •         拆分:对数据进行分组
  •         应用:对分组数据应用聚合函数,进行计算
  •         合并:最后汇总计算结果

        groupby分组:

                df.groupby('列名')   根据列的数据进行分组

        agg聚合:

                data.groupby("company").agg('mean') #求均值                 data.groupby('company').agg({'salary':'median','age':'mean'}) #对不同列求不同的值                 data.groupby('company').agg({'salary':['median',np.max],'age':'mean'}) # 执行多种操作                 data.groupby('company').agg({'salary':lambda x:x**2}) # 可以传入自定义函数

                1.0之后得groupby('岗位')[['工资']].agg([('工资','max')])

        transform转换

                和agg的区别在于,agg聚合之后如果新增一列不能直接添加

                第一种方式:

                        # to_dict将表格中的数据转换成字典格式

                        avg_salary_dict= data.groupby('company')['salary'].mean().to_dict()

                        # map()函数可以用于Series对象或DataFrame对象的一列,接收函数作为或字典对象作为参数,返回经过函数或字典映射处理后的值。

                        data['avg_salary'] = data['company'].map(avg_salary_dict) #对company列和要映射的数据一一对应

                第二种方式:

                        data['avg_salary1'] = data.groupby('company')['salary'].transform('mean') #分组之后统计的均值映射一一对应并且返回那一列

        apply操作:

                apply比agg和transform更加灵活,能够传入任意自定义的函数,实现复杂的数据操作

                案例:

# 假设我现在需要获取各个公司年龄最大的员工的数据 def get_oldest_staff(x): # 输入的数据按照age字段进行排序 df = x.sort_values(by = 'age',ascending=True) # 返回最后一条数据 return df.iloc[-1,:]

oldest_staff = data.groupby('company',as_index=False).apply(get_oldest_staff) #传入函数的时候不需要括号

# '地区'作为索引分组,'年份'与分组列'地区'聚合
# 第一种方法
df_1.groupby(by=['地区'], as_index=True).agg({'年份': ['max', 'min', 'median']}).head()
# 第二种方法,两种方法是等效的
df_1.groupby(by=['地区'], as_index=True).年份.agg(['max', 'min', 'median']).head()
# 指定多列列是聚合列,如:年份、国内生产总值
df_1.groupby(by=['地区'], as_index=True).agg({'年份': 'max', '国内生产总值': 'describe'}).head()
# 返回所有列中的最大值
df_1.groupby(by=['地区'], as_index=True).max().head()
# 获取分组之后的当前索引
df.groupby('item_name').agg({'qu':'sum'}).idxmax()

数据合并

# 取交集
    df_1.merge(df_2,on='userid')     #两种方式inner
    pd.merge(df_1, df_2, on='userid')
    
# 左连接和右连接,如果没有对应的数据就填空值
    pd.merge(df_1, df_2,how='left', on="userid") # 左连接,on指的是根据哪个来连接
    pd.merge(df_1, df_2,how='right', on="userid") # 右连接
    
# 取并集
    pd.merge(df_1, df_2,how='outer',on='userid') # 把所有的都展示

#通常用来连接DataFrame对象。默认情况下是对两个DataFrame对象进行纵向连接, 
# 当然通过设置参数,也可以通过它实现DataFrame对象的横向连接
    df_1 = pd.concat(objs=[df1, df2, df3])  # 合并数据,以行的维度合并
    df_1.sample(n=7, replace=False)  # 随机不放回抽样 7 个数据
    
    
    
# 横向纵向表堆叠
    pd.concat([df1,df2]) # 纵向堆叠
    pd.concat([df1,df2],axis=1) # 横向堆叠
    pd.concat([df1,df2],join="outer") # 在拼接的时候取两张表的并集,没有的nan填充
    pd.concat([df1,df2],join="inner") # 在拼接的时候取两张表的交集,有一边没有的就不拼接

字符串操作

        pandas中.str方法,之后就可以使用,会自动忽略缺失值

 三板斧map-apply-applymap

  • apply应用在DataFrame的行或列中
  • applymap应用在DataFrame的每个元素中
  • map应用在单独一列(Series)的每个元素中
# 默认是一列一列也就是axis=0
    df.apply(np.sum)
# 1或“列”:将函数应用于每一行一行一行的进行求和
    df.apply(np.sum, axis=1)
# 传入匿名函数进行操作,axis默认等于0则是通过一列一列的数据传入进行操作
    df.apply(lambda x: x + 1)
# 当然我们也可以自定义传入多个参数
    def cal_result(df, x, y):
        df['C'] = (df['A'] + df['B']) * x
        df['D'] = (df['A'] + df['B']) * y
        return df
    有三种方式传参:            
    df.apply(cal_result, x=3, y=8, axis=1)
    df.apply(cal_result, args=(3, 8), axis=1) 
    df.apply(cal_result, **{'x': 3, 'y': 8}, axis=1)

# 保留两位小数
    df.apply(lambda x : format(x,'.2%'))
# 保留两位小数
    df.applymap(lambda x: '%.2f'%x)
#取列,注意一个[]获取的是series数据,[[]]获取的是dataframe数据,而且这个只能操作dataframe数据不能操作series数据
    df[['A']].applymap(lambda x: '%.2f'%x)
#map是操作series数据的
        df['A'].map(lambda x: '%.2f'%x)
# 替换操作
        df['Sex'] = df['Sex'].map({"male":1, "female":0})

pandas绘图

# 默认绘图就是线型图,我们只需要数据.plot()即可
# index会作为y轴坐标,列名则会作为图例名称作为展示
# df里没有自带的show()方法,我们想要使用则需要导入matplotlib来使用,可以消除第一行显示的东西
    from matplotlib import pyplot as plt
# 设置中文:
# 设置中文字体
    plt.rcParams['font.sans-serif'] = ['SimHei']
# 中文负号
    plt.rcParams['axes.unicode_minus'] = False
    df.plot(title="我的图形")
# 设置x轴xticks旋转
    df["A"].plot(rot=70)   或者
    plt.xticks(rotation=70)
# 我们可以单独设置索引和数据
    plt.plot(df["A"].index,df["A"])
# 柱状图
    df.plot.bar()  或者
    df.plot(kind="bar")
    # 柱状堆叠图
    df.plot(kind="bar",stacked=True) 或者
    df.plot.bar(stacked="True")
    # 横向水平图
    df.plot.barh(stacked=True) 或者
    df.plot(kind="barh", stacked=True)
# 直方图
    #指定箱数为15
    df.plot.hist(bins=15)
    #使用diff绘制,给每一列都绘制直方图
    df.diff().hist(color="r",alpha=0.5,bins=15)
# 箱线图
    df.plot.box()
# 区域图,类似与线型图,但是他把其他空位填充了
    df.plot.area()
# 散点图,x和y是散点图的点的坐标,但是x和y只能是列名
    df.plot.scatter(x="a",y='b')
# 饼状图
    # 饼状图需要添加subplots
    df.plot.pie(subplots=True)

 

 

 常用操作

df.head(2) # 显示前面两行
df.tail(2) # 显示最后两行
df.info # 相关信息预览
df.describe() #快速综合统计结果

异常值处理

# 通过绘制一列的箱线图可以看出异常值
    plt.boxplot(data['a']) # 超出上边线的和下边线的点就是有异常值
# 我们定义一个函数来将异常值转换为空值
    def replace(x):
        import numpy as np
        QU = x.quantile(0.75)
        QL = x.quantile(0.25)
        IQR = QU - QL
        x[(x > (QU + 1.5*IQR)) | (x < (QL - 1.5*IQR))] = np.nan
        return x
# 我们把有异常值的数据传入进去即可将缺失值转换为空值

转换成列表数据:

df.index.tolist() #转换索引为数组
list(df['brand']) #转换brand这一列为数组
dict(df['brand']) #转换brand这一列为字典
df['brand'].to_dict() #转换brand这一列为字典

去重操作

chipo['item_name'].unique() # 返回的是去重之后的数据
chipo['item_name'].nunique() # 返回的是去重之后的数量

统计个数并且排序

# value_counts() 函数可以对Series里面的每个值进行计数并且排序
chipo['choice_description'].value_counts().head()

判断字符串存在这一列?

# 接受一个列表,判断该列中元素是否在列表中
euro12.loc[euro12.Team.isin(['England', 'Italy', 'Russia'])][["Team","Shooting Accuracy"]]

描述性统计describe

drinks.groupby('continent').wine_servings.describe() # 返回各种统计之后的均值平均值等信息

迭代器循环

for (columnName, columnData) in df.iteritems(): 
    print('行 Name : ', columnName) 
    print('列 Contents : ', columnData.values) 
    print("===============")

数据抽样

# replace允许或不允许对同一行进行多次采样,默认就是False
data = df.sample(n=5, replace=False)  # 不放回随机抽样 5 个数据

重置索引

# 注意在取消索引操作时,inplace=True 设置为 True,以便后面可以查看到取消后的情况
d.reset_index(inplace=True) 

重复值处理

# 查找重复值,subset参数指定列
    print('>>>n', df_1.duplicated(subset=['年份'], keep='first').head())  
# 删除重复值,keep是删除第一次出现的重复值
    print('>>>n', df_1.drop_duplicates(subset=['年份'], keep='first', inplace=False).iloc[:, :4])
# 查找重复索引
    print('n>>>', df_1.index.duplicated())

query函数(类似where)

df.query('列名   判断   值'),如df.query('column1 > 2 and column 2<1')
等于
df[df[列名] 判断 值],如 df[df[column1]>2 & df[column2]<1]

filter函数

# DataFrame.filter(items=None, like=None, regex=None, axis=None)
#items对列进行筛选#regex表示用正则进行匹配#like进行筛选#axis=0表示对行操作,axis=1表示对列操作
# 选择指定的列,类似于 df[['某列', '某列']]
df_1.filter(items=['地区', '年份'])  # 选择指定的列
df_1.filter(like='产业', axis=1)  # 选择(含有) "产业" 的列

数据透视表

# 第一个参数data表示我们要传入的数据,index表示索引,columns表示行名称,aggfunc表示要进行的操作
pd.pivot_table(detail[['订单id','菜品名称','下单数量']],index='订单id',colomns='菜品名称',aggfunc='sum')
# aggfunc默认是均值mean
pd.pivot_table(detail[['订单id','菜品名称','下单数量']],index='订单id',colomns='菜品名称',values='counts',fill_value=0)

 创建交叉表

# index指定索引,columns指定行名称,values指定数据,aggfunc指定进行什么操作,因为没有fill_value参数
pd.crosstab(idnex=detail['订单id'],columns=detail['菜品名称'],values=detail['下单数量'],aggfunc='sum').fillna(0)

 

 使用unstack和pivot实现数据二维透视

# 分组之后的数据df_group
df_group.unstack()
# 执行上面操作之后还原原来格式
df_group.stack()
# 参数x,y,数据
df_reset.pivot("pdate","Rating","pv")

cut分组等级

pd.cut(fh_data['总无机养分百分比'],bins=10,labels=group_names)

最后

以上就是清爽金鱼为你收集整理的pandas学习笔记 Series结构DataFrame数据类型(重要)常用属性和方法:pandas读取文件缺失值处理分组聚合       数据合并字符串操作 三板斧map-apply-applymappandas绘图 常用操作的全部内容,希望文章能够帮你解决pandas学习笔记 Series结构DataFrame数据类型(重要)常用属性和方法:pandas读取文件缺失值处理分组聚合       数据合并字符串操作 三板斧map-apply-applymappandas绘图 常用操作所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(47)

评论列表共有 0 条评论

立即
投稿
返回
顶部