• linkedu视频
  • 平面设计
  • 电脑入门
  • 操作系统
  • 办公应用
  • 电脑硬件
  • 动画设计
  • 3D设计
  • 网页设计
  • CAD设计
  • 影音处理
  • 数据库
  • 程序设计
  • 认证考试
  • 信息管理
  • 信息安全
菜单
linkedu.com
  • 网页制作
  • 数据库
  • 程序设计
  • 操作系统
  • CMS教程
  • 游戏攻略
  • 脚本语言
  • 平面设计
  • 软件教程
  • 网络安全
  • 电脑知识
  • 服务器
  • 视频教程
  • MsSql
  • Mysql
  • oracle
  • MariaDB
  • DB2
  • SQLite
  • PostgreSQL
  • MongoDB
  • Redis
  • Access
  • 数据库其它
  • sybase
  • HBase
您的位置:首页 > 数据库 >MongoDB > python实现爬虫数据存到 MongoDB

python实现爬虫数据存到 MongoDB

作者:千里追风 字体:[增加 减小] 来源:互联网 时间:2017-05-11

千里追风通过本文主要向大家介绍了python爬虫,python爬虫是什么,python爬虫教程,python爬虫视频教程,python爬虫入门教程等相关知识,希望本文的分享对您有所帮助

在以上两篇文章中已经介绍到了 Python 爬虫和 MongoDB , 那么下面我就将爬虫爬下来的数据存到 MongoDB 中去,首先来介绍一下我们将要爬取的网站, readfree 网站,这个网站非常的好,我们只需要每天签到就可以免费下载三本书,良心网站,下面我就将该网站上的每日推荐书籍爬下来。

利用上面几篇文章介绍的方法,我们很容易的就可以在网页的源代码中寻找到书籍的姓名和书籍作者的信息。

找到之后我们复制 XPath ,然后进行提取即可。源代码如下所示

# coding=utf-8

import re
import requests
from lxml import etree
import pymongo
import sys

reload(sys)
sys.setdefaultencoding('utf-8')

def getpages(url, total):
  nowpage = int(re.search('(\d+)', url, re.S).group(1))
  urls = []

  for i in range(nowpage, total + 1):
    link = re.sub('(\d+)', '%s' % i, url, re.S)
    urls.append(link)

  return urls

def spider(url):
  html = requests.get(url)

  selector = etree.HTML(html.text)

  book_name = selector.xpath('//*[@id="container"]/ul/li//div/div[2]/a/text()')
  book_author = selector.xpath('//*[@id="container"]/ul/li//div/div[2]/div/a/text()')

  saveinfo(book_name, book_author)

def saveinfo(book_name, book_author):
  connection = pymongo.MongoClient()
  BookDB = connection.BookDB
  BookTable = BookDB.books

  length = len(book_name)

  for i in range(0, length):
    books = {}
    books['name'] = str(book_name[i]).replace('\n','')
    books['author'] = str(book_author[i]).replace('\n','')
    BookTable.insert_one(books)

if __name__ == '__main__':
  url = 'http://readfree.me/shuffle/?page=1'
  urls = getpages(url,3)

  for each in urls:
    spider(each)

</div>

注意,在写入数据库的过程中不要一下子将字典中的数据写入数据库,我一开始就这么写的,但是我发现数据库中只有三条信息,其他信息都不见了。所以采用一条一条的写入。

还有源代码的开头部分,对默认编码的设置一定不可以省略,否则可能会报编码错误(真心感觉 Python 在编码这方面好容易出错,尴尬)。

有的人可能发现了,我将提取的信息转换成了字符串,然后使用 replace() 方法将 \n 去掉了,因为我发现在提取的书籍信息前后存在换行符,看着十分碍眼。

热情提醒一下,在程序运行的时候别忘记将你的 Mongo DB 运行起来,下来看看结果

好了,就这样,如果发现代码哪里存在错误或者说有可以改善的地方,希望留言给我,感谢。

</div>
分享到:QQ空间新浪微博腾讯微博微信百度贴吧QQ好友复制网址打印

您可能想查找下面的文章:

  • python实现爬虫数据存到 MongoDB

相关文章

  • 2017-05-11MongoDB系列教程(三):Windows中下载和安装MongoDB
  • 2017-08-25MongoDB安装为service报错100(windows系统)
  • 2017-05-11MongoDB学习笔记之MapReduce使用示例
  • 2017-05-11Mongodb启动命令参数中文说明
  • 2017-05-11深入理解MongoDB分片的管理
  • 2017-05-11MongoDB常用操作命令大全
  • 2017-05-11MongoDB aggregate 运用篇个人总结
  • 2017-05-11MongoDB入门教程之Windows下的MongoDB数据库安装图解
  • 2017-05-11MongoDB系列教程(一):NoSQL起源
  • 2017-05-11高效mongodb的php分页类(不使用skip)

文章分类

  • MsSql
  • Mysql
  • oracle
  • MariaDB
  • DB2
  • SQLite
  • PostgreSQL
  • MongoDB
  • Redis
  • Access
  • 数据库其它
  • sybase
  • HBase

最近更新的内容

    • 详解MongoDB中创建集合与删除集合的操作方法
    • MongoDB的安装及配置文件选项全解
    • 如何对 MongoDB 进行性能优化(五个简单步骤)
    • MongoDB在Windows平台的安装及配置方法
    • PHP中的mongodb group操作实例
    • MongoDB.NET 2.2.4驱动版本对Mongodb3.3数据库中GridFS增删改查
    • 详解MongoDB管理命令
    • mongodb replica set 配置高性能多服务器详解
    • MongoDB数据库的特色和优点介绍
    • MongoDB学习笔记之MapReduce使用示例

关于我们 - 联系我们 - 免责声明 - 网站地图

©2020-2025 All Rights Reserved. linkedu.com 版权所有