python爬虫案例——证券之星股票数据采集

1 篇文章 0 订阅
订阅专栏

全栈工程师开发手册 (作者:栾鹏)
python教程全解

通过python爬取证券之星股票数据相对来说比较容易。不需要安装第三方库。股票数据基本都在html代码中,而且网址有规律,不需要登陆,不需要设置cookie,只需要设置一个MIME头。

证券之星网址:http://quote.stockstar.com/stock/ranklist_a_3_1_1.html

这里写图片描述

本案例获取当天的股票情况,共有114页的股票内容,这里只获取前8页。每只股票可以获取13列的信息。

python2.7下

# coding: utf-8
import urllib
import urllib2
import re
import random
import time
#抓取所需内容
user_agent = ["Mozilla/5.0 (Windows NT 10.0; WOW64)", 'Mozilla/5.0 (Windows NT 6.3; WOW64)',
              'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.11 (KHTML, like Gecko) Chrome/23.0.1271.64 Safari/537.11',
              'Mozilla/5.0 (Windows NT 6.3; WOW64; Trident/7.0; rv:11.0) like Gecko',
              'Mozilla/5.0 (Windows NT 5.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/28.0.1500.95 Safari/537.36',
              'Mozilla/5.0 (Windows NT 6.1; WOW64; Trident/7.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; .NET4.0C; rv:11.0) like Gecko)',
              'Mozilla/5.0 (Windows; U; Windows NT 5.2) Gecko/2008070208 Firefox/3.0.1',
              'Mozilla/5.0 (Windows; U; Windows NT 5.1) Gecko/20070309 Firefox/2.0.0.3',
              'Mozilla/5.0 (Windows; U; Windows NT 5.1) Gecko/20070803 Firefox/1.5.0.12',
              'Opera/9.27 (Windows NT 5.2; U; zh-cn)',
              'Mozilla/5.0 (Macintosh; PPC Mac OS X; U; en) Opera 8.0',
              'Opera/8.0 (Macintosh; PPC Mac OS X; U; en)',
              'Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.8.1.12) Gecko/20080219 Firefox/2.0.0.12 Navigator/9.0.0.6',
              'Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.1; Win64; x64; Trident/4.0)',
              'Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.1; Trident/4.0)',
              'Mozilla/5.0 (compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; InfoPath.2; .NET4.0C; .NET4.0E)',
              'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Maxthon/4.0.6.2000 Chrome/26.0.1410.43 Safari/537.1 ',
              'Mozilla/5.0 (compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; InfoPath.2; .NET4.0C; .NET4.0E; QQBrowser/7.3.9825.400)',
              'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:21.0) Gecko/20100101 Firefox/21.0 ',
              'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.92 Safari/537.1 LBBROWSER',
              'Mozilla/5.0 (compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0; BIDUBrowser 2.x)',
              'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.11 (KHTML, like Gecko) Chrome/20.0.1132.11 TaoBrowser/3.0 Safari/536.11']
stock_total=[]   #stock_total:所有页面的股票数据   stock_page:某页的股票数据
for page in range(1,8):   #设置读取的页数,目前共114页
    url='http://quote.stockstar.com/stock/ranklist_a_3_1_'+str(page)+'.html'
    request=urllib2.Request(url=url,headers={"User-Agent":random.choice(user_agent)})#随机从user_agent列表中抽取一个元素
    try:
        response=urllib2.urlopen(request)
    except urllib2.HTTPError as e:            #异常检测
        print('page=',page,'',e.code)
    except urllib2.URLError as e:
        print('page=',page,'',e.reason)
    html = response.read()  #python2返回字符串
    print('get page',page)                  #打印成功获取的页码
    pattern=re.compile('<tbody[\s\S]*</tbody>')
    body=re.findall(pattern,html)
    pattern=re.compile('>(.*?)<')
    stock_page=re.findall(pattern,body[0])      #正则匹配
    stock_total.extend(stock_page)
    time.sleep(random.randrange(1,4))        #每抓一页随机休眠几秒,数值可根据实际情况改动
#删除空白字符
stock_last=stock_total[:]  #stock_last为最终所要得到的股票数据
for data in stock_total:
    if data=='':
        stock_last.remove('')
#打印部分结果
print u'代码','       ',u'简称','       ',u'最新价','       ',u'涨跌幅',u'       ',u'涨跌额',u'       ',u'5分钟涨幅'
for i in range(0,len(stock_last),13):  #原网页有13列数据,所以步长为13,这里只打印6列
    print stock_last[i],'       ',
    print unicode(stock_last[i+1],'gbk'),'       ',
    print stock_last[i+2],'       ',
    print stock_last[i+3],'       ',
    print stock_last[i+4],'       ',
    print stock_last[i+5]

python3.6下

# -*- coding:utf-8 -*-
import urllib
import urllib.request
import re
import random
import time
#抓取所需内容
user_agent = ["Mozilla/5.0 (Windows NT 10.0; WOW64)", 'Mozilla/5.0 (Windows NT 6.3; WOW64)',
              'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.11 (KHTML, like Gecko) Chrome/23.0.1271.64 Safari/537.11',
              'Mozilla/5.0 (Windows NT 6.3; WOW64; Trident/7.0; rv:11.0) like Gecko',
              'Mozilla/5.0 (Windows NT 5.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/28.0.1500.95 Safari/537.36',
              'Mozilla/5.0 (Windows NT 6.1; WOW64; Trident/7.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; .NET4.0C; rv:11.0) like Gecko)',
              'Mozilla/5.0 (Windows; U; Windows NT 5.2) Gecko/2008070208 Firefox/3.0.1',
              'Mozilla/5.0 (Windows; U; Windows NT 5.1) Gecko/20070309 Firefox/2.0.0.3',
              'Mozilla/5.0 (Windows; U; Windows NT 5.1) Gecko/20070803 Firefox/1.5.0.12',
              'Opera/9.27 (Windows NT 5.2; U; zh-cn)',
              'Mozilla/5.0 (Macintosh; PPC Mac OS X; U; en) Opera 8.0',
              'Opera/8.0 (Macintosh; PPC Mac OS X; U; en)',
              'Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.8.1.12) Gecko/20080219 Firefox/2.0.0.12 Navigator/9.0.0.6',
              'Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.1; Win64; x64; Trident/4.0)',
              'Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.1; Trident/4.0)',
              'Mozilla/5.0 (compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; InfoPath.2; .NET4.0C; .NET4.0E)',
              'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Maxthon/4.0.6.2000 Chrome/26.0.1410.43 Safari/537.1 ',
              'Mozilla/5.0 (compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; InfoPath.2; .NET4.0C; .NET4.0E; QQBrowser/7.3.9825.400)',
              'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:21.0) Gecko/20100101 Firefox/21.0 ',
              'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.92 Safari/537.1 LBBROWSER',
              'Mozilla/5.0 (compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0; BIDUBrowser 2.x)',
              'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.11 (KHTML, like Gecko) Chrome/20.0.1132.11 TaoBrowser/3.0 Safari/536.11']
stock_total=[]   #stock_total:所有页面的股票数据   stock_page:某页的股票数据
for page in range(1,8):
    url='http://quote.stockstar.com/stock/ranklist_a_3_1_'+str(page)+'.html'
    request=urllib.request.Request(url=url,headers={"User-Agent":random.choice(user_agent)})#随机从user_agent列表中抽取一个元素
    try:
        response=urllib.request.urlopen(request)
    except urllib.error.HTTPError as e:            #异常检测
        print('page=',page,'',e.code)
    except urllib.error.URLError as e:
        print('page=',page,'',e.reason)
    content=response.read().decode('gbk')       #读取网页内容
    print('get page',page)                  #打印成功获取的页码
    pattern=re.compile('<tbody[\s\S]*</tbody>')
    body=re.findall(pattern,str(content))
    pattern=re.compile('>(.*?)<')
    stock_page=re.findall(pattern,body[0])      #正则匹配
    stock_total.extend(stock_page)
    time.sleep(random.randrange(1,4))        #每抓一页随机休眠几秒,数值可根据实际情况改动
#删除空白字符
stock_last=stock_total[:]  #stock_last为最终所要得到的股票数据
for data in stock_total:
    if data=='':
        stock_last.remove('')
#打印部分结果
print('代码','\t','简称','   ','\t','最新价','\t','涨跌幅','\t','涨跌额','\t','5分钟涨幅')
for i in range(0,len(stock_last),13):  #原网页有13列数据,所以步长为13
    print(stock_last[i],'\t',stock_last[i+1],' ','\t',stock_last[i+2],'  ','\t',stock_last[i+3],'  ','\t',stock_last[i+4],'  ','\t',stock_last[i+5])

Python网络爬虫数据采集.pdf
08-14
Python网络爬虫数据采集
Python抓取证券之星股票数据
人生苦短, 还不用Python?
08-19 933
获取数据是数据分析中必不可少的一部分,而网络爬虫是是获取数据的一个重要渠道之一。鉴于此,我拾起了Python这把利器,开启了网络爬虫之路。 本篇使用的版本为python3.5,意在抓取证券之星上当天所有A股数据。程序主要分为三个部分:网页源码的获取、所需内容的提取、所得结果的整理。 一、网页源码的获取 很多人喜欢用python爬虫的原因之一就是它容易上手。只需以下几行代码既可抓取大部分网...
Python数据分析之证券之星沪深A股基本信息爬取与分析
molaum的博客
12-26 1397
Python数据分析之证券之星沪深A股基本信息爬取与分析 上周爬取了证券之星上沪深A股的信息,我对股票完全是小白,对流通市值这些完全不了解,是上网先了解了一下,老实说虽然有了基本概念,但在数据分析时还是一头雾水,所以今天只说一下我在爬取和分析时遇到的问题,希望能对大家有帮助,也希望得到大家的意见! 爬取数据 获取网页内容 爬取方面依旧是我常用的结构,使用的pyquery,因为要爬取的内容直接...
python 学习 爬取证券之星股票信息
qq_42105477的博客
09-14 919
python 学习 爬取证券之星股票信息 选择原因,数据好获取,便于操作! 第一步,找到股票相关的信息,先去东方财富网,找到股票的代码查询一览表网站 ![在这里插入图片描述](https://img-blog.csdnimg.cn/20190914212532135.png 在这里,我们能找到所以的股票信息,比如名称,代号等等!! 然后,我们来到证券之星网站,随便找一只股, 我们发现,所有的股...
python爬虫概述——深入了解爬虫原理
04-26
一篇让你深入了解爬虫原理,快速入门爬虫
python 全行情数据_python爬虫成长之路(三):基础爬虫架构及爬取证券之星全站行情数据...
weixin_39999209的博客
12-09 128
爬虫成长之路(一)里我们介绍了如何爬取证券之星网站上所有A股数据,主要涉及网页获取和页面解析的知识。爬虫成长之路(二)里我们介绍了如何获取代理IP并验证,涉及了多线程编程和数据存储的知识。此次我们将在前两节的基础上,对证券之星全站的行情数据进行爬取。第一节的思路爬一个栏目的数据尚可,爬上百个栏目的数据工作量就有点大了。下面我们先介绍下基础的爬虫架构。本文主要包含爬虫框架六大基础模块,分别为爬虫调度...
python如何爬虫股票数据_如何抓取股票数据_用Python抓取新浪的股票数据
weixin_39566914的博客
11-23 791
python爬虫成长之路(一)抓取证券之星股票数据其中编译匹配模式findall方法使用这个匹配模式来匹配所需的信息并以列表的形式返回。正则表达式的语法非常多。下面我只列出使用的符号的含义。匹配除换行字符“\n”*以外的任何字符?匹配前一个字符0次还是无限次?内容正则表达式的语法相当多。也许只有一个正则表达式可以提取我想要提取的内容。在提取股票主体部分的代码时,发现有人使用xpath表达式来提取...
Python爬虫——爬取股票信息
weixin_42546755的博客
06-27 1854
一、功能描述 目标:获取证券之星股票的名称和信息 输出:保存到文件中二、使用的模块及功能import urllib import urllib.request import re import random import time#抓取所需内容 stock_total=[] #stock_total:所有页面的股票数据 stock_page:某页的股票数据 for page in rang...
python 爬虫 stock 信息
abc
06-03 682
参考: https://zhuanlan.zhihu.com/p/50099084 http://quote.eastmoney.com/center/gridlist.html#hs_a_board 完整源码: 需要在 当前目录下面提前 创建 股票目录,不然会报错 ''' 数据来源:东方财富网-行情中心 http://quote.eastmoney.com/center ''' import requests import re import pandas as pd #用get方法访问服务器并提取
Python来爬取股票数据进行分析,冲一波!
xxue345678的博客
07-26 2910
最近手头有点紧,但是作为一个男人,身上怎么能够没有大把钞票呢?
python爬虫实战之实时数据挖掘.md
01-24
python爬虫实战之实时数据挖掘,通过使用Selenium库实现对新浪财经股票实时数据、东方财富网、裁判文书网、巨潮资讯网的实时数据挖掘。由于这部分内容涉及爬虫进阶知识,所以我把这部分内容归于爬虫专栏,通过对一些网站的信息爬取,掌握了一些爬取方法以及爬虫技巧,还能熟练使用Python语言编写代码,从而有利于人们对这些数据的分析以及利用,从而为社会作出更好的决策。
【图文详解】python爬虫实战——5分钟做个图片自动下载器.zip
03-01
爬虫(Web Crawler)是一种自动化程序,用于从互联网上收集信息。其主要功能是访问网页、提取数据并存储,以便后续分析或展示。爬虫通常由搜索引擎、数据挖掘工具、监测系统等应用于网络数据抓取的场景。 爬虫的工作流程包括以下几个关键步骤: URL收集: 爬虫从一个或多个初始URL开始,递归或迭代地发现新的URL,构建一个URL队列。这些URL可以通过链接分析、站点地图、搜索引擎等方式获取。 请求网页: 爬虫使用HTTP或其他协议向目标URL发起请求,获取网页的HTML内容。这通常通过HTTP请求库实现,如Python中的Requests库。 解析内容: 爬虫对获取的HTML进行解析,提取有用的信息。常用的解析工具有正则表达式、XPath、Beautiful Soup等。这些工具帮助爬虫定位和提取目标数据,如文本、图片、链接等。 数据存储: 爬虫将提取的数据存储到数据库、文件或其他存储介质中,以备后续分析或展示。常用的存储形式包括关系型数据库、NoSQL数据库、JSON文件等。 遵守规则: 为避免对网站造成过大负担或触发反爬虫机制,爬虫需要遵守网站的robots.txt协议,限制访问频率和深度,并模拟人类访问行为,如设置User-Agent。 反爬虫应对: 由于爬虫的存在,一些网站采取了反爬虫措施,如验证码、IP封锁等。爬虫工程师需要设计相应的策略来应对这些挑战。 爬虫在各个领域都有广泛的应用,包括搜索引擎索引、数据挖掘、价格监测、新闻聚合等。然而,使用爬虫需要遵守法律和伦理规范,尊重网站的使用政策,并确保对被访问网站的服务器负责。
Python项目开发实战_网络爬虫批量采集股票数据保存到Excel中_编程案例实例课程教程.pdf
05-02
本章将通过具体的案例,让读者掌握 Python爬虫项目中的应用。通过本章的学习,读者可以掌握分析网页的技巧、Python 编写网络程序的方法、Excel 的操作,以及正则表达式的使用。这些都是爬虫项目中必备的知识和技能。通过编写爬虫,将指定日期时段内的全部上市公司股票数据爬取下来,并按照股票代码保存到相应的 Excel 文件中。 这个案例主要分为两大步骤: (1)要知道上市公司有哪些; (2)根据每一个上市公司的股票编号爬取数据。 由于两部分代码相对比较独立,可以做成两个代码文件。一个文件用来爬取股票代码,另一个文件用来爬取股票内容。
python爬虫实例——基于BeautifulSoup与urllib.request
08-12
python爬虫实例——基于BeautifulSoup与urllib.request,思路是打开目标链接,并爬取通过BeautifulSoup一定区域中的img标签中的src进行保存。
可执行源码python爬虫实例——基于python实现有道云翻译接口
01-01
可执行源码python爬虫实例——基于python实现有道云翻译接口
Python爬虫获取公开股票数据.zip案例学习
04-30
Python案例学习,Python数据获取,Python爬虫案例学习,模拟登录,python获取公开网站数据,数据处理与分析,数据切割。爬虫案例。如何学习Python爬虫python如何自动获取网页数据。
Python爬虫案例学习获取公开倒闭公司数据.zip
最新发布
04-30
Python案例学习,Python数据获取,Python爬虫案例学习,模拟登录,python获取公开网站数据,数据处理与分析,数据切割。爬虫案例。如何学习Python爬虫python如何自动获取网页数据。
python复习(三)
qq_43710593的博客
04-29 307
类是一种面向。
python爬虫招聘网站数据分析_Python爬虫实例——基于招聘网站发帖数据
06-06
好的,您的问题是关于Python爬虫和数据分析的实例,基于招聘网站发帖数据。这是一个非常有趣和实用的应用场景,以下是一个简单的实现步骤: 1. 确定目标网站:选择一个大型的招聘网站,比如智联招聘、拉钩网等; 2. 学习网站结构:分析网站结构,确定需要爬取哪些信息,比如职位名称、薪资、公司名称、工作地点等; 3. 编写爬虫程序:使用Python爬虫库(比如requests、BeautifulSoup、Scrapy等)编写爬虫程序,爬取目标网站的数据; 4. 数据清洗和处理:对爬取的数据进行清洗和处理,比如去除重复数据、格式化数据等; 5. 数据分析和可视化:使用Python的数据分析库(比如pandas、matplotlib、seaborn等)对数据进行分析和可视化,比如职位数量、薪资分布、热门岗位等。 这是一个简单的实现步骤,具体的实现细节还需要根据实际情况进行调整。希望能对您有所帮助!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
写文章

热门文章

  • python系列文章(基础,应用,后端,运维,自动化测试,爬虫,数据分析,可视化,机器学习,深度学习系列内容) 201783
  • java使用javax.mail包发送电子邮件:设置账号、密码、主题、文本、附件 164663
  • python测试系列教程——python+Selenium+chrome自动化测试框架 101804
  • python神经网络案例——CNN卷积神经网络实现mnist手写体识别 77128
  • kafka实战教程(python操作kafka),kafka配置文件详解 73576

分类专栏

  • 代码炒股,量化交易 付费 1篇
  • 开源
  • matlab2c数据分析 c++ 系列课程 105篇
  • OPNET网络仿真分析 10篇
  • c++ 开发 手册 10篇
  • go开发 3篇
  • python 机器学习 后端 爬虫 系列课程 183篇
  • 大数据 系列课程 63篇
  • 云原生/微服务架构/运维 系列课程 163篇
  • java 系列课程 50篇
  • Echarts数据可视化 26篇
  • android安卓 开发 手册 40篇
  • js 系列课程 44篇
  • css 开发 手册 9篇
  • jquery 开发 手册 35篇
  • c# 系列课程 45篇
  • jquery mobile 开发 手册 27篇
  • 闲情雅致 20篇

最新评论

  • OPNET网络仿真分析-目 录

    不曾呀.: 购买opnet书籍,已赞赏 1928226536@qq.com

  • Echarts数据可视化开发参数配置全解

    Yigezxy: https://echarts.apache.org/zh/cheat-sheet.html 官网这个也不错

  • python数据挖掘案例系列教程——python实现搜索引擎

    WDddd986: 老师您好,在第二部分搜索部分,select这些不是SQL里面的语句吗,请问在python里如何运行搜索

  • matlab2c使用c++实现matlab函数系列教程-find函数

    sinat_16643333: matlab2c动态链接库下载的链接怎么跳转到了一个大众娱乐网站

  • OPNET网络仿真分析-目 录

    华夏林更新: 购买opnet书籍,已赞赏,834780329@qq.com

最新文章

  • github 仓库中的多次代码提交,如何合并为一次的代码提交
  • 京东、携程、B站、唯品会等大厂都在探索哪些大数据新技术应用?
  • ai个性化 国庆 头像 合成
2023年1篇
2022年21篇
2021年7篇
2020年41篇
2019年70篇
2018年208篇
2017年452篇

目录

目录

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

腾讯数据架构师

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或 充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

聚圣源《斗罗大陆》全集免费版高清企二哥起名身份证借款马云19年前保密项目重启湖南都市农家小媳妇开个饭店不知道怎么起名方做姓女孩起名大全新生儿起名网免费取名网2017年双胞胎女孩起名主角是岳风的小说免费阅读张信起名便利店超市起名字乌青商标起哪个名字李成阳是好的吗爱在高中给婴儿起乳名男孩桃缘山神叫魂1768年中国妖术大恐慌邮箱名字怎么起比较好起名笔画数吉凶怎么看家纺店起名字好听起名解名软件下载取什么店名起名大全农资有限公司起名字镜双城小说免费阅读个体工商 取名起名大全惠普笔记本键盘usb共享网络淀粉肠小王子日销售额涨超10倍罗斯否认插足凯特王妃婚姻让美丽中国“从细节出发”清明节放假3天调休1天男孩疑遭霸凌 家长讨说法被踢出群国产伟哥去年销售近13亿网友建议重庆地铁不准乘客携带菜筐雅江山火三名扑火人员牺牲系谣言代拍被何赛飞拿着魔杖追着打月嫂回应掌掴婴儿是在赶虫子山西高速一大巴发生事故 已致13死高中生被打伤下体休学 邯郸通报李梦为奥运任务婉拒WNBA邀请19岁小伙救下5人后溺亡 多方发声王树国3次鞠躬告别西交大师生单亲妈妈陷入热恋 14岁儿子报警315晚会后胖东来又人满为患了倪萍分享减重40斤方法王楚钦登顶三项第一今日春分两大学生合买彩票中奖一人不认账张家界的山上“长”满了韩国人?周杰伦一审败诉网易房客欠租失踪 房东直发愁男子持台球杆殴打2名女店员被抓男子被猫抓伤后确诊“猫抓病”“重生之我在北大当嫡校长”槽头肉企业被曝光前生意红火男孩8年未见母亲被告知被遗忘恒大被罚41.75亿到底怎么缴网友洛杉矶偶遇贾玲杨倩无缘巴黎奥运张立群任西安交通大学校长黑马情侣提车了西双版纳热带植物园回应蜉蝣大爆发妈妈回应孩子在校撞护栏坠楼考生莫言也上北大硕士复试名单了韩国首次吊销离岗医生执照奥巴马现身唐宁街 黑色着装引猜测沈阳一轿车冲入人行道致3死2伤阿根廷将发行1万与2万面值的纸币外国人感慨凌晨的中国很安全男子被流浪猫绊倒 投喂者赔24万手机成瘾是影响睡眠质量重要因素春分“立蛋”成功率更高?胖东来员工每周单休无小长假“开封王婆”爆火:促成四五十对专家建议不必谈骨泥色变浙江一高校内汽车冲撞行人 多人受伤许家印被限制高消费

聚圣源 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化