pandas-合并(append与assign、combine与update、concat、merge与join)

pandas-合并

本文将介绍常用的合并方法,包括append、assign、combine、update、concat、merge、join等。append常用于行添加,assign主要用于列添加,combine与update应用于表的填充,更新,concat可以用于横、纵向维度的拼接。merge和join可以横向拼接。
文章中所用数据示例

import numpy as np
import pandas as pd
df = pd.read_csv('C:/Users/Kingfish/Desktop/joyful-pandas-master/joyful-pandas-master/data/table.csv')
df.head()

在这里插入图片描述

一、append与assign

1、append

利用序列Series添加行(必须指定name),用DataFrame添加表。

#(a)利用序列添加行(必须指定name)
df_append = df.loc[:3,['Gender','Height']].copy()
s = pd.Series({'Gender':'F','Height':188},name='new_row')
df_append.append(s)
#(b)用DataFrame添加表
df_temp = pd.DataFrame({'Gender':['F','M'],'Height':[188,176]},index=['new_1','new_2'])
df_append.append(df_temp)

在这里插入图片描述

2、assign

assign方法主要用于添加列,列名直接由参数指定,也可以一次添加多个列。

s = pd.Series(list('abcd'),index=range(4))
df_append.assign(Letter=s)
df_append.assign(col1=lambda x:x['Gender']*2, col2=s)#一次添加多个列

二、combine与update

combine和update都是用于表的填充函数,可以根据某种规则填充。

1、combine

combine方法是按照表的顺序轮流进行逐列循环的,而且自动索引对齐,缺失值为NaN,理解这一点很重要。可以根据列均值的大小填充,索引对齐特性(默认状态下,后面的表没有的行列都会设置为NaN)。combine_first功能比较简单,多时候会比combine更常用。

#(a)填充对象
df_combine_2 = df.loc[10:11,['Gender','Height']].copy()
df_combine_2

f_combine_1 = df.loc[:1,['Gender','Height']].copy()
df_combine_2 = df.loc[10:11,['Gender','Height']].copy()
df_combine_1.combine(df_combine_2,lambda x,y:print(x,y))
#(b)一些例子
#例①:根据列均值的大小填充
# 例子1
df1 = pd.DataFrame({'A': [1, 2], 'B': [3, 4]})
df2 = pd.DataFrame({'A': [8, 7], 'B': [6, 5]})
df1.combine(df2,lambda x,y:x if x.mean()>y.mean() else y)#根据较大的均值填充
#例②:索引对齐特性(默认状态下,后面的表没有的行列都会设置为NaN)
df2 = pd.DataFrame({'B': [8, 7], 'C': [6, 5]},index=[1,2])
df1.combine(df2,lambda x,y:x if x.mean()>y.mean() else y)

索引对齐特性(默认状态下,后面的表没有的行列都会设置为NaN)在这里插入图片描述

#例③:overwrite=false可以使得df1原来符合条件的值不会被覆盖
df1.combine(df2,lambda x,y:x if x.mean()>y.mean() else y,overwrite=False) 

在这里插入图片描述

#例④:在新增匹配df2的元素位置填充-1
df1.combine(df2,lambda x,y:x if x.mean()>y.mean() else y,fill_value=-1)#默认状态下,后面的表没有的行列都会设置为NaN,此处填充为-1

在这里插入图片描述
(c)combine_first方法

这个方法作用是用df2填补df1的缺失值,功能比较简单,但很多时候会比combine更常用,下面举两个例子:

df1 = pd.DataFrame({'A': [None, 0], 'B': [None, 4]})
df2 = pd.DataFrame({'A': [1, 1], 'B': [3, 3]})
df1.combine_first(df2)

在这里插入图片描述

df1 = pd.DataFrame({'A': [None, 0], 'B': [4, None]})
df2 = pd.DataFrame({'B': [3, 3], 'C': [1, 1]}, index=[1, 2])
df1.combine_first(df2)

在这里插入图片描述

2、update

update的三个特点

①返回的框索引只会与被调用框的一致(默认使用左连接)
②第二个框中的nan元素不会起作用
③没有返回值,直接在df上操作

#例①:索引完全对齐情况下的操作
df1 = pd.DataFrame({'A': [1, 2, 3],
                    'B': [400, 500, 600]})
df2 = pd.DataFrame({'B': [4, 5, 6],
                    'C': [7, 8, 9]})
df1.update(df2)
df1

在这里插入图片描述

#例②:部分填充
df1 = pd.DataFrame({'A': ['a', 'b', 'c'],
                    'B': ['x', 'y', 'z']})
df2 = pd.DataFrame({'B': ['d', 'e']}, index=[1,2])
df1.update(df2)
df1

在这里插入图片描述

#例③:缺失值不会填充
df1 = pd.DataFrame({'A': [1, 2, 3],
                    'B': [400, 500, 600]})
df2 = pd.DataFrame({'B': [4, np.nan, 6]})
df1.update(df2)
df1

在这里插入图片描述

三、concat方法

concat方法可以在两个维度上拼接,默认纵向拼接(axis=0),拼接方式默认外连接。所谓外连接,就是取拼接方向的并集,而’inner’时取拼接方向(若使用默认的纵向拼接,则为列的交集)的交集。下面介绍几种参数不同应用的例子。

df1 = pd.DataFrame({'A': ['A0', 'A1'],
                    'B': ['B0', 'B1']},
                    index = [0,1])
df2 = pd.DataFrame({'A': ['A2', 'A3'],
                    'B': ['B2', 'B3']},
                    index = [2,3])
df3 = pd.DataFrame({'A': ['A1', 'A3'],
                    'D': ['D1', 'D3'],
                    'E': ['E1', 'E3']},
                    index = [1,3])

默认状态拼接,默认纵向拼接(axis=0),拼接方式默认外连接

pd.concat([df1,df2])#默认外连接并集,纵向拼接

在这里插入图片描述
axis=1时沿列方向拼接

pd.concat([df1,df2],axis=1)

在这里插入图片描述
join设置为内连接(由于axis=0,因此列取交集):

pd.concat([df3,df1],join='inner')

在这里插入图片描述
join设置为外链接

pd.concat([df3,df1],join='outer',sort=True) #sort设置列排序,默认为False

在这里插入图片描述
verify_integrity检查列是否唯一

#pd.concat([df3,df1],verify_integrity=True,sort=True) 报错

同样,可以添加Series

s = pd.Series(['X0', 'X1'], name='X')
pd.concat([df1,s],axis=1)#添加列

key参数用于对不同的数据框增加一个标号,便于索引

pd.concat([df1,df2], keys=['x', 'y'])
pd.concat([df1,df2], keys=['x', 'y']).index

四、merge与join

merge函数的作用是将两个pandas对象横向合并,遇到重复的索引项时会使用笛卡尔积,默认inner连接,可选left、outer、right连接。
所谓左连接,就是指以第一个表索引为基准,右边的表中如果不再左边的则不加入,如果在左边的就以笛卡尔积的方式加入。
merge/join与concat的不同之处在于on参数,可以指定某一个对象为key来进行连接。

1、merge

left = pd.DataFrame({'key1': ['K0', 'K0', 'K1', 'K2'],
                     'key2': ['K0', 'K1', 'K0', 'K1'],
                      'A': ['A0', 'A1', 'A2', 'A3'],
                      'B': ['B0', 'B1', 'B2', 'B3']}) 
right = pd.DataFrame({'key1': ['K0', 'K1', 'K1', 'K2'],
                      'key2': ['K0', 'K0', 'K0', 'K0'],
                      'C': ['C0', 'C1', 'C2', 'C3'],
                      'D': ['D0', 'D1', 'D2', 'D3']})
right2 = pd.DataFrame({'key1': ['K0', 'K1', 'K1', 'K2'],
                      'key2': ['K0', 'K0', 'K0', 'K0'],
                      'C': ['C0', 'C1', 'C2', 'C3']})

以key1为准则连接,如果具有相同的列,则默认suffixes=(’_x’,’_y’):

pd.merge(left, right, on='key1')#right里面的k1索引重复,所以使用笛卡尔积

在这里插入图片描述
以多组键连接

pd.merge(left, right, on=['key1','key2'])#两个建共同作用连接

在这里插入图片描述
默认使用inner连接,因为merge只能横向拼接,所以取行向上keys的交集,下面看如果使用how=outer参数
注意:这里的how就是concat的join

pd.merge(left, right, how='outer', on=['key1','key2'])

在这里插入图片描述
左连接:

pd.merge(left, right, how='left', on=['key1', 'key2'])

在这里插入图片描述

右连接:

pd.merge(left, right, how='right', on=['key1', 'key2'])

在这里插入图片描述
如果还是对笛卡尔积不太了解,请务必理解下面这个例子,由于B的所有元素为2,因此需要6行:

left = pd.DataFrame({'A': [1, 2], 'B': [2, 2]})
right = pd.DataFrame({'A': [4, 5, 6], 'B': [2, 2, 2]})
pd.merge(left, right, on='B', how='outer')

在这里插入图片描述
validate检验的是到底哪一边出现了重复索引,如果是“one_to_one”则两侧索引都是唯一,如果"one_to_many"则左侧唯一。

left = pd.DataFrame({'A': [1, 2], 'B': [2, 2]})
right = pd.DataFrame({'A': [4, 5, 6], 'B': [2, 3, 4]})
#pd.merge(left, right, on='B', how='outer',validate='one_to_one') #报错
left = pd.DataFrame({'A': [1, 2], 'B': [2, 1]})
pd.merge(left, right, on='B', how='outer',validate='one_to_one')

在这里插入图片描述
indicator参数指示了,合并后该行索引的来源

df1 = pd.DataFrame({'col1': [0, 1], 'col_left': ['a', 'b']})
df2 = pd.DataFrame({'col1': [1, 2, 2], 'col_right': [2, 2, 2]})
pd.merge(df1, df2, on='col1', how='outer', indicator=True) #indicator='indicator_column'也是可以的

在这里插入图片描述

2、join

join函数作用是将多个pandas对象横向拼接,遇到重复的索引项时会使用笛卡尔积,默认左连接,可选inner、outer、right连接。对于many_to_one模式下的合并,往往join更为方便。

left = pd.DataFrame({'A': ['A0', 'A1', 'A2'],
                     'B': ['B0', 'B1', 'B2']},
                    index=['K0', 'K1', 'K2'])
right = pd.DataFrame({'C': ['C0', 'C2', 'C3'],
                      'D': ['D0', 'D2', 'D3']},
                    index=['K0', 'K2', 'K3'])
left.join(right)

在这里插入图片描述
对于many_to_one模式下的合并,往往join更为方便。同样可以指定key

left = pd.DataFrame({'A': ['A0', 'A1', 'A2', 'A3'],
                     'B': ['B0', 'B1', 'B2', 'B3'],
                     'key': ['K0', 'K1', 'K0', 'K1']})
right = pd.DataFrame({'C': ['C0', 'C1'],
                      'D': ['D0', 'D1']},
                     index=['K0', 'K1'])
left.join(right, on='key')

在这里插入图片描述
多层key

left = pd.DataFrame({'A': ['A0', 'A1', 'A2', 'A3'],
                     'B': ['B0', 'B1', 'B2', 'B3'],
                     'key1': ['K0', 'K0', 'K1', 'K2'],
                     'key2': ['K0', 'K1', 'K0', 'K1']})
index = pd.MultiIndex.from_tuples([('K0', 'K0'), ('K1', 'K0'),
                                   ('K2', 'K0'), ('K2', 'K1')],names=['key1','key2'])
right = pd.DataFrame({'C': ['C0', 'C1', 'C2', 'C3'],
                      'D': ['D0', 'D1', 'D2', 'D3']},
                     index=index)
left.join(right, on=['key1','key2'])

在这里插入图片描述

五、练习

【练习一】有2张公司的员工信息表,每个公司共有16名员工,共有五个公司,请解决如下问题:

df1 = pd.read_csv('C:/Users/Kingfish/Desktop/joyful-pandas-master/joyful-pandas-master/data/Employee1.csv')
df1.head()

在这里插入图片描述

df2=pd.read_csv('C:/Users/Kingfish/Desktop/joyful-pandas-master/joyful-pandas-master/data/Employee2.csv')
df2.head()

在这里插入图片描述
(a) 每个公司有多少员工满足如下条件:既出现第一张表,又出现在第二张表。

result1=pd.merge(df1, df2, how='inner', on=['Company','Name'])
L=list(result1['Name'])
L
['a1',
 'a3',
 'a6',
 'b1',
 'b3',
 'b7',
 'b15',
 'c3',
 'c10',
 'c12',
 'c13',
 'd5',
 'd10',
 'e8',
 'e10',
 'e11']

(b) 将所有不符合(a)中条件的行筛选出来,合并为一张新表,列名与原表一致。

df_b1 = df1[~df1['Name'].isin(L)]
df_b2 = df2[~df2['Name'].isin(L)]
result2=pd.concat([df_b1 ,df_b2 ],axis=0)
result2.head()

在这里插入图片描述
【练习二】有2张课程的分数表(分数随机生成),但专业课(学科基础课、专业必修课、专业选修课)与其他课程混在一起,请解决如下问题:

df11=pd.read_csv('C:/Users/Kingfish/Desktop/joyful-pandas-master/joyful-pandas-master/data/Course1.csv')
df11.head()

在这里插入图片描述

df12=pd.read_csv('C:/Users/Kingfish/Desktop/joyful-pandas-master/joyful-pandas-master/data/Course2.csv').head()
df12.head()

在这里插入图片描述
(a) 将两张表分别拆分为专业课与非专业课(结果为四张表)。

df_a11,df_a12,df_a13,df_a14 =0,0,0,0
df_a11= df11.query('课程类别 in ["学科基础课","专业必修课","专业选修课"]')
df_a12= df11.query('课程类别 not in ["学科基础课","专业必修课","专业选修课"]')
df_a13= df12.query('课程类别 in ["学科基础课","专业必修课","专业选修课"]')
df_a14= df12.query('课程类别 not in ["学科基础课","专业必修课","专业选修课"]')

(b) 将两张专业课的分数表和两张非专业课的分数表分别合并。

result_b1=pd.concat([df_a11,df_a13],axis=0)
result_b2=pd.concat([df_a12,df_a14],axis=0)

© 不使用(a)中的步骤,请直接读取两张表合并后拆分。

df31=pd.concat([df11,df12],axis=0)
result31= df31.query('课程类别 in ["学科基础课","专业必修课","专业选修课"]')
result32= df31.query('课程类别 not in ["学科基础课","专业必修课","专业选修课"]')
print(result32.equals(result_b2),result31.equals(result_b1))

(d) 专业课程中有缺失值吗,如果有的话请在完成(3)的同时,用组内(3种类型的专业课)均值填充缺失值后拆分。

#判断是否存在缺失值
df31[df31.isnull().values==True] 

在这里插入图片描述

df31['分数'] = df31.groupby('课程类别').transform(lambda x: x.fillna(x.mean()))['分数']
df31.isnull().all()
课程名字    False
课程类别    False
学分      False
分数      False
dtype: bool
#缺失值填充后拆分
result41 = df31.query('课程类别 in ["学科基础课","专业必修课","专业选修课"]')
result42 = df31.query('课程类别 not in ["学科基础课","专业必修课","专业选修课"]')
result41.query('课程类别 not in ["学科基础课","专业必修课","专业选修课"]')
不定期更新的Melicai
关注 关注
  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
数据分析之Pandas合并操作总结
Datawhale
06-30 6814
↑↑↑关注后"星标"Datawhale每日干货 &每月组队学习,不错过 Datawhale干货 作者:耿远昊,Datawhale成员,华东师范大学 pand...
pandascombine 详解,如果 df 不存在、other 中存在,会如何处理
jieru_liu的博客
04-02 1217
语法: df.combine(other: 'DataFrame', func, fill_value=None, overwrite=True) 举例: df1 = pd.DataFrame({'A': [1, 1], 'B': [4, 4]}) df2 = pd.DataFrame({'B': [3, 3], 'C': [1, 1], }, index=[1, 2]) df1 Out[7...
Pandas知识点-合并操作combine
weixin_43790276的博客
06-24 3164
Pandas知识点-合并操作combine
Python pandas.DataFrame.update函数方法的使用
weixin_42098295的博客
07-31 2825
Pandas是基于NumPy 的一种工具,该工具是为了解决数据分析任务而创建的。Pandas 纳入了大量库和一些标准的数据模型,提供了高效地操作大型数据集所需的工具。Pandas提供了大量能使我们快速便捷地处理数据的函数和方法。你很快就会发现,它是使Python成为强大而高效的数据分析环境的重要因素之一。本文主要介绍一下Pandaspandas.DataFrame.update方法的使用。 原文地址:Python pandas.DataFrame.update函数方法的使用 ...
structure streaming 使用小结3-输出模式(append,update,complete)
jin6872115的博客
07-28 727
常规使用不提,主要是使用不同模式完成排序,数据更新操作,算是对小结2的补充优化。 1、排序,使用complete模式,将数据流看做静态表,不断追加数据,通过order by可以实现排序功能。 val df =spark.readStream .format("kafka") .option("kafka.bootstrap.servers", "*:9092") // .option("kafka.bootstrap.servers", "*:9092")
pandas合并 append,assign,combine,update,concat,merge,join
12-21
快速浏览一、appendassign1.append方法(加行)(a)append利用序列添加行(必须指定name)(b)append用DataFrame添加表(多行)2.assign方法(加列)二、combineupdate(表的填充)1.comine方法(a)填充对象(b...
Pandas学习总结——5. 合并appendassigncombineupdateconcatmergejoin
12-21
内容概览1 appendassign1.1append方法1.2 assign方法2 combineupdate2.1 combine方法2.2 update方法3 concat方法4 mergejoin4.1 merge函数4.2 join函数5 问题与练习5.1 问题5.2 练习练习一:公司员工信息练习...
详解PANDAS 数据合并与重塑(join/merge篇)
09-19
主要介绍了详解PANDAS 数据合并与重塑(join/merge篇),文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
详解pandas数据合并与重塑(pd.concat篇)
09-19
主要介绍了详解pandas数据合并与重塑(pd.concat篇),文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
Pandas学习笔记—合并
lz你ps的博客
04-30 265
目录1. appendassign1.1 append方法1.2 assign方法2. combineupdate2.1 comine方法 1. appendassign 1.1 append方法 利用序列添加行(必须指定name) 用DataFrame添加表 1.2 assign方法 该方法主要用于添加列,列名直接由参数指定: 可以一次添加多个列 2. combine与upda...
Pandas更新
weixin_47347346的博客
06-20 2万+
pandas版本原来是0.18.1,现已成功更新到0.24.2 命令行指令 查看pandas版本为0.18.1: 使用指令pip update pandas更新失败: 提示更新pip版本,按要求复制指令python -m pip install --upgrade pip,pip更新成功 输入命令行pip install --upgrade pandas更新pandas,更新成功,大功告成!如图 ...
pandas 基础操作 更新
onemorepoint的博客
12-09 4666
pandas 基础操作 更新 创建一个Series,同时让pandas自动生成索引列 创建一个DataFrame数据框 查看数据 数据的简单统计 数据的排序 选择数据(类似于数据库中sql语句) 另外可以使用标签来选择 通过位置获取数据 布尔值索引 设定数值(类似于sql update 或者add) 缺失值处理 数据操作 统计个数与离散化 pandas 处...
使用Object.assign()对数组对象的子元素进行拼接
lucky_ax的博客
11-18 738
原数组格式 let arr = [ [ {sellingPrice: 43535, discountPrice: 4534, freight: 12}, {sellingPrice: 4536, discountPrice: 342, freight: 3}, ], [ {stockNum: 2141, skuId: 168}, {stockNum: 345, skuId: 654} ], [ { Color:{colorName: "灰色",
list添加 append()和extend()的异同;tuple添加 add()和update()的异同
Art_Smart的博客
01-20 3019
#本文纯菜鸟,所有博客为个人学习记录所用。不对的地方希望大家多多指教。 首先,先看一下help文档中对append()和extend()的说明。 L.extend(iterable) -> None     - - extend list by appending elements from the iterable L.append(object) -> None      - - app
python update函数会调用哪些内置函数_Python字典的内置函数中没有 append()操作,可以用 update()来更新字典内容...
weixin_35639680的博客
02-19 933
Python字典的内置函数中没有 append()操作,可以用 update()来更新字典内容答:√在同一代昭穆的兄弟中,以年岁序位。答:对《舆服志》主要描写了唐代的流行服饰样式,它是《新唐书》中的一章。()答:×IMF分配的特别提款权取决于会员国的答:份额蒋先生,45岁,肝硬化腹水1个月,2日来神志恍惚,答非所问,行为反常,呼吸有异味。该患者处于肝性脑病答:昏迷前期以下哪一地貌的人口分布最为密集...
Spark Structured Stream: 输出模式(appendupdate,complete)
a8131357leo的博客
09-23 3372
1.complete: 每一个trigger到来时,就输出整个完整的dataframe 完整的不是说这个时间点的完整的dataframe,而是从开始流到结束的所有的dataframe,效果大概是这样的 这个时window下的,如果非window的话还是一个完整的sink,所以window下容易内存爆炸。。用的时候要注意 2. append 只输出新添加的(原来没有的)Row()(...
提高数据更新效率(UPDATE/INSERT)
dolphin_ygj
08-04 1427
有多种方法可以提高更新的效率.简单说来:1、暂停索引,更新后恢复.避免在更新的过程中涉及到索引的重建.2、批量更新,每更新一些记录后及时进行提交动作.避免大量占用回滚段和或临时表空间.3、创建一临时的大的表空间用来应对这些更新动作.=========================================================================不同看法如果UPDAT...
ES6对象合并Object.assign()
热门推荐
Yuan_vertueux的博客
05-21 2万+
使用ES6语法Object.assign方法将对象的合并var obj1 = { a : 1 };var obj2 = { b : 2 };var obj3 = { c : 3 };console.log(Object.assign(obj1, obj2, obj3))//{ a : 1, b : 2, c:3 }
pandas中dataframe数据合并,连接(concat,merge,join)的实例
最新发布
08-30
pandas中,可以使用concatmergejoin这三种方法来进行DataFrame数据的合并和连接。 首先,使用concat方法可以将两个或多个DataFrame按照行或列的方式进行连接。例如,有两个DataFrame分别为df1和df2,可以使用concat方法按列连接这两个DataFrame,代码如下: ``` result = pd.concat([df1, df2], axis=1) ``` 其中,axis=1表示按列连接。 其次,使用merge方法可以根据共同的列将两个DataFrame进行合并。例如,有两个DataFrame分别为df1和df2,它们都包含一个共同的列key,可以使用merge方法将这两个DataFrame基于key列进行合并,代码如下: ``` result = pd.merge(df1, df2, on='key') ``` 以上代码将根据共同的key列将df1和df2进行合并。 最后,使用join方法可以根据索引将两个DataFrame进行连接。例如,有两个DataFrame分别为df1和df2,它们的索引为date,可以使用join方法将这两个DataFrame基于索引进行连接,代码如下: ``` result = df1.join(df2, lsuffix='_left', rsuffix='_right') ``` 以上代码将df1和df2根据索引进行连接,并在列名后分别加上"_left"和"_right"后缀。 综上所述,concatmergejoin这三种方法都可以实现DataFrame数据的合并和连接,具体使用取决于数据集之间的关系和需要实现的操作。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
写文章

热门文章

  • pandas-合并(append与assign、combine与update、concat、merge与join) 1047
  • pandas-分组 710
  • pandas练习 366
  • 零基础入门数据挖掘 - EDA数据探索性分析 338
  • pandas-索引 333

最新评论

  • 机器学习-条件随机场学习笔记

    ctotalk: 学习

您愿意向朋友推荐“博客详情页”吗?

  • 强烈不推荐
  • 不推荐
  • 一般般
  • 推荐
  • 强烈推荐
提交

最新文章

  • pandas练习
  • 机器学习-SVM
  • pandas-变形
2020年16篇

目录

目录

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

聚圣源非侓宾男孩子徐姓起名秋月白非主流个性头像商务楼起名诗经和楚辞 起名字园林公司起名字啊我被宿敌校草标记了雪豹坚强岁月演员表水瓶蔬菜公司取名起名大全大全集恋爱高手小说骨头辐射4配置美雅8八字缺金怎么起名子建筑公司起名大全参考10月10号色厉内荏的意思app起名字鼠孩子起名大全娱乐门户专业起名网站免费版对孩子起名网站灯光公司起名黄皮子坟百度云属鼠的双胞胎宝宝起名宜用字电击小子1黑海夺金电影为女孩起名免费淀粉肠小王子日销售额涨超10倍罗斯否认插足凯特王妃婚姻让美丽中国“从细节出发”清明节放假3天调休1天男孩疑遭霸凌 家长讨说法被踢出群国产伟哥去年销售近13亿网友建议重庆地铁不准乘客携带菜筐雅江山火三名扑火人员牺牲系谣言代拍被何赛飞拿着魔杖追着打月嫂回应掌掴婴儿是在赶虫子山西高速一大巴发生事故 已致13死高中生被打伤下体休学 邯郸通报李梦为奥运任务婉拒WNBA邀请19岁小伙救下5人后溺亡 多方发声王树国3次鞠躬告别西交大师生单亲妈妈陷入热恋 14岁儿子报警315晚会后胖东来又人满为患了倪萍分享减重40斤方法王楚钦登顶三项第一今日春分两大学生合买彩票中奖一人不认账张家界的山上“长”满了韩国人?周杰伦一审败诉网易房客欠租失踪 房东直发愁男子持台球杆殴打2名女店员被抓男子被猫抓伤后确诊“猫抓病”“重生之我在北大当嫡校长”槽头肉企业被曝光前生意红火男孩8年未见母亲被告知被遗忘恒大被罚41.75亿到底怎么缴网友洛杉矶偶遇贾玲杨倩无缘巴黎奥运张立群任西安交通大学校长黑马情侣提车了西双版纳热带植物园回应蜉蝣大爆发妈妈回应孩子在校撞护栏坠楼考生莫言也上北大硕士复试名单了韩国首次吊销离岗医生执照奥巴马现身唐宁街 黑色着装引猜测沈阳一轿车冲入人行道致3死2伤阿根廷将发行1万与2万面值的纸币外国人感慨凌晨的中国很安全男子被流浪猫绊倒 投喂者赔24万手机成瘾是影响睡眠质量重要因素春分“立蛋”成功率更高?胖东来员工每周单休无小长假“开封王婆”爆火:促成四五十对专家建议不必谈骨泥色变浙江一高校内汽车冲撞行人 多人受伤许家印被限制高消费

聚圣源 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化