Python快乐编程:网络爬虫/21世纪高等学校计算机专业实用规划教材
出版时间:
2019-09
版次:
1
ISBN:
9787302529125
定价:
49.80
装帧:
平装
-
随着网络技术的迅速发展,万维网成为大量信息的载体,如何有效地提取并利用这些信息成为一个巨大的挑战,网络爬虫应运而生。
《Python快乐编程:网络爬虫/21世纪高等学校计算机专业实用规划教材》介绍了如何利用Python3.x来开发网络爬虫,并通过爬虫原理讲解以及Web前端基础知识代领读者入门,结合企业实战,让读者快速学会编写Python网络爬虫。
《Python快乐编程:网络爬虫/21世纪高等学校计算机专业实用规划教材》适用于中等水平的Python开发人员、高等院校及培训学校的老师和学生。
通过《Python快乐编程:网络爬虫/21世纪高等学校计算机专业实用规划教材》的学习可以轻松领会Python在网络爬虫、数据挖掘领域的精髓,可胜任Python网络爬虫工程师的工作以及完成各种网络爬虫项目的代码编写。 第1章 Python网络爬虫入门
1.1 所需技能与Python版本
1.1.1 所需技术能力
1.1.2 选择Python的原因
1.1.3 选择Python 3.x的原因
1.2 初识网络爬虫
1.2.1 网络爬虫的概念
1.2.2 网络爬虫的应用
1.2.3 Robots协议
1.3 搜索引擎核心
1.4 快速爬取网页示例
1.5 本章小结
1.6 习题
第2章 爬虫基础知识
2.1 Cookie的使用
2.1.1 Cookie的概念
2.1.2 使用Cookiejar处理Cookie
2.2 正则表达式
2.2.1 正则表达式的概念
2.2.2 正则表达式详解
2.3 标记语言
2.4 Xpath
2.5 JSON
2.6 BeautifulSoup
2.6.1 安装BeautifulSoup
2.6.2 BeautifulSoup的使用
2.7 本章小结
2.8 习题
第3章 urllib与requests
3.1 urllib库
3.1.1 urllib库的概念
3.1.2 urllib库的使用
3.2 设置HTTP请求方法
3.2.1 GET请求实战
3.2.2 设置代理服务
3.3 异常处理
3.3.1 URLError异常处理
3.3.2 HTTPError异常处理
3.4 requests库
3.4.1 安装requests库
3.4.2 发送请求
3.4.3 响应接收
3.4.4 会话对象
3.5 本章小结
3.6 习题
第4章 网络爬虫实例
4.1 图片爬虫实例
4.2 链接爬虫实例
4.3 文字爬虫实例
4.4 微信文章爬虫
4.5 多线程爬虫及实例
4.6 本章小结
4.7 习题
第5章 数据处理
5.1 存储HTML正文内容
5.1.1 存储为JSON格式
5.1.2 存储为CSV格式
5.2 存储媒体文件
5.3 Email提醒
5.4 pymysql模块
5.5 本章小结
5.6 习题
第6章 数据库存储
6.1 SQLite
6.1.1 SQLite介绍
6.1.2 安装SQLite
6.1.3 Python与SQLite
6.1.4 创建SQLite表
6.1.5 添加SQLite表记录
6.1.6 查询SQLite表记录
6.1.7 更新SQLite表记录
6.1.8 删除SQLite表记录
6.2 MongoDB
6.2.1 MongoDB简介
6.2.2 MongoDB适用场景
6.2.3 MongoDB的安装
6.2.4 MongoDB基础
6.2.5 在Python中操作MongoDB
6.3 Redis
6.3.1 Redis简介
6.3.2 Redis适用场景
6.3.3 Redis的安装
6.3.4 Redis数据类型与操作
6.3.5 在Python中操作Redis
6.4 本章小结
6.5 习题
第7章 抓取动态网页内容
7.1 JavaScript简介
7.1.1 JS语言特性
7.1.2 JS简单示例
7.1.3 JavaScript库
7.1.4 Ajax简介
7.2 爬取动态网页的工具
7.2.1 Selenium库
7.2.2 PhantomJS浏览器
7.2.3 Firefox的headless模式
7.2.4 Selenium的选择器
7.2.5 Selenium等待方式
7.2.6 客户端重定向
7.3 爬取动态网页实例
7.4 本章小结
7.5 习题
第8章 浏览器伪装与定向爬取
8.1 浏览器伪装介绍
8.1.1 抓包工具Fiddler
8.1.2 浏览器伪装过程分析
8.1.3 浏览器伪装技术实战
8.2 定向爬虫
8.2.1 定向爬虫分析
8.2.2 定向爬虫实战
8.3 本章小结
8.4 习题
第9章 初探Scrapy爬虫框架
9.1 了解爬虫框架
9.1.1 初识Scrapy框架
9.1.2 初识Crawley框架
9.1.3 初识Portia框架
9.1.4 初识Newspaper框架
9.2 Scrapy介绍
9.2.1 安装Scrapy
9.2.2 Scrapy程序管理
9.2.3 Scrapy项目的目录结构
9.3 常用命令
9.3.1 Scrapy全局命令
9.3.2 Scrapy项目命令
9.3.3 Scrapy的Item对象
9.4 编写Spider程序
9.4.1 初识Spider
9.4.2 Spider文件参数传递
9.5 Spider反爬虫机制
9.6 本章小结
9.7 习题
第10章 深入Scrapy爬虫框架
10.1 Scrapy核心架构
10.2 Scrapy组件详解
10.3 Scrapy数据处理
10.3.1 Scrapy数据输出
10.3.2 Scrapy数据存储
10.4 Scrapy自动化爬取
10.4.1 创建项目并编写items.py
10.4.2 编写pipelines.py
10.4.3 修改settings.py
10.4.4 编写爬虫文件
10.4.5 执行自动化爬虫
10.5 CrawlSpider
10.5.1 创建CrawlSpider
10.5.2 LinkExtractor
10.5.3 CrawlSpider部分源代码分析
10.5.4 实例CrawlSpider
10.6 本章小结
10.7 习题
第11章 Scrapy实战项目
11.1 文章类项目
11.1.1 需求分析
11.1.2 实现思路
11.1.3 程序设计
11.1.4 请求分析
11.1.5 循环网址
11.1.6 爬虫运行
11.2 图片类项目
11.2.1 需求分析
11.2.2 实现思路
11.2.3 程序设计
11.2.4 项目实现
11.3 登录类项目
11.3.1 需求分析
11.3.2 实现思路
11.3.3 程序设计
11.3.4 项目实现
11.4 本章小结
11.5 习题
第12章 分布式爬虫
12.1 简单分布式爬虫
12.1.1 进程及进程间通信
12.1.2 简单分布式爬虫结构
12.1.3 控制节点
12.1.4 爬虫节点
12.2 Scrapy与分布式爬虫
12.2.1 Scrapy中集成Redis
12.2.2 MongoDB集群
12.3 Scrapy分布式爬虫实战
12.3.1 创建爬虫
12.3.2 定义Item
12.3.3 爬虫模块
12.3.4 编写Pipeline
12.3.5 修改Settings
12.3.6 运行项目
12.4 去重优化
12.5 本章小结
12.6 习题
-
内容简介:
随着网络技术的迅速发展,万维网成为大量信息的载体,如何有效地提取并利用这些信息成为一个巨大的挑战,网络爬虫应运而生。
《Python快乐编程:网络爬虫/21世纪高等学校计算机专业实用规划教材》介绍了如何利用Python3.x来开发网络爬虫,并通过爬虫原理讲解以及Web前端基础知识代领读者入门,结合企业实战,让读者快速学会编写Python网络爬虫。
《Python快乐编程:网络爬虫/21世纪高等学校计算机专业实用规划教材》适用于中等水平的Python开发人员、高等院校及培训学校的老师和学生。
通过《Python快乐编程:网络爬虫/21世纪高等学校计算机专业实用规划教材》的学习可以轻松领会Python在网络爬虫、数据挖掘领域的精髓,可胜任Python网络爬虫工程师的工作以及完成各种网络爬虫项目的代码编写。
-
目录:
第1章 Python网络爬虫入门
1.1 所需技能与Python版本
1.1.1 所需技术能力
1.1.2 选择Python的原因
1.1.3 选择Python 3.x的原因
1.2 初识网络爬虫
1.2.1 网络爬虫的概念
1.2.2 网络爬虫的应用
1.2.3 Robots协议
1.3 搜索引擎核心
1.4 快速爬取网页示例
1.5 本章小结
1.6 习题
第2章 爬虫基础知识
2.1 Cookie的使用
2.1.1 Cookie的概念
2.1.2 使用Cookiejar处理Cookie
2.2 正则表达式
2.2.1 正则表达式的概念
2.2.2 正则表达式详解
2.3 标记语言
2.4 Xpath
2.5 JSON
2.6 BeautifulSoup
2.6.1 安装BeautifulSoup
2.6.2 BeautifulSoup的使用
2.7 本章小结
2.8 习题
第3章 urllib与requests
3.1 urllib库
3.1.1 urllib库的概念
3.1.2 urllib库的使用
3.2 设置HTTP请求方法
3.2.1 GET请求实战
3.2.2 设置代理服务
3.3 异常处理
3.3.1 URLError异常处理
3.3.2 HTTPError异常处理
3.4 requests库
3.4.1 安装requests库
3.4.2 发送请求
3.4.3 响应接收
3.4.4 会话对象
3.5 本章小结
3.6 习题
第4章 网络爬虫实例
4.1 图片爬虫实例
4.2 链接爬虫实例
4.3 文字爬虫实例
4.4 微信文章爬虫
4.5 多线程爬虫及实例
4.6 本章小结
4.7 习题
第5章 数据处理
5.1 存储HTML正文内容
5.1.1 存储为JSON格式
5.1.2 存储为CSV格式
5.2 存储媒体文件
5.3 Email提醒
5.4 pymysql模块
5.5 本章小结
5.6 习题
第6章 数据库存储
6.1 SQLite
6.1.1 SQLite介绍
6.1.2 安装SQLite
6.1.3 Python与SQLite
6.1.4 创建SQLite表
6.1.5 添加SQLite表记录
6.1.6 查询SQLite表记录
6.1.7 更新SQLite表记录
6.1.8 删除SQLite表记录
6.2 MongoDB
6.2.1 MongoDB简介
6.2.2 MongoDB适用场景
6.2.3 MongoDB的安装
6.2.4 MongoDB基础
6.2.5 在Python中操作MongoDB
6.3 Redis
6.3.1 Redis简介
6.3.2 Redis适用场景
6.3.3 Redis的安装
6.3.4 Redis数据类型与操作
6.3.5 在Python中操作Redis
6.4 本章小结
6.5 习题
第7章 抓取动态网页内容
7.1 JavaScript简介
7.1.1 JS语言特性
7.1.2 JS简单示例
7.1.3 JavaScript库
7.1.4 Ajax简介
7.2 爬取动态网页的工具
7.2.1 Selenium库
7.2.2 PhantomJS浏览器
7.2.3 Firefox的headless模式
7.2.4 Selenium的选择器
7.2.5 Selenium等待方式
7.2.6 客户端重定向
7.3 爬取动态网页实例
7.4 本章小结
7.5 习题
第8章 浏览器伪装与定向爬取
8.1 浏览器伪装介绍
8.1.1 抓包工具Fiddler
8.1.2 浏览器伪装过程分析
8.1.3 浏览器伪装技术实战
8.2 定向爬虫
8.2.1 定向爬虫分析
8.2.2 定向爬虫实战
8.3 本章小结
8.4 习题
第9章 初探Scrapy爬虫框架
9.1 了解爬虫框架
9.1.1 初识Scrapy框架
9.1.2 初识Crawley框架
9.1.3 初识Portia框架
9.1.4 初识Newspaper框架
9.2 Scrapy介绍
9.2.1 安装Scrapy
9.2.2 Scrapy程序管理
9.2.3 Scrapy项目的目录结构
9.3 常用命令
9.3.1 Scrapy全局命令
9.3.2 Scrapy项目命令
9.3.3 Scrapy的Item对象
9.4 编写Spider程序
9.4.1 初识Spider
9.4.2 Spider文件参数传递
9.5 Spider反爬虫机制
9.6 本章小结
9.7 习题
第10章 深入Scrapy爬虫框架
10.1 Scrapy核心架构
10.2 Scrapy组件详解
10.3 Scrapy数据处理
10.3.1 Scrapy数据输出
10.3.2 Scrapy数据存储
10.4 Scrapy自动化爬取
10.4.1 创建项目并编写items.py
10.4.2 编写pipelines.py
10.4.3 修改settings.py
10.4.4 编写爬虫文件
10.4.5 执行自动化爬虫
10.5 CrawlSpider
10.5.1 创建CrawlSpider
10.5.2 LinkExtractor
10.5.3 CrawlSpider部分源代码分析
10.5.4 实例CrawlSpider
10.6 本章小结
10.7 习题
第11章 Scrapy实战项目
11.1 文章类项目
11.1.1 需求分析
11.1.2 实现思路
11.1.3 程序设计
11.1.4 请求分析
11.1.5 循环网址
11.1.6 爬虫运行
11.2 图片类项目
11.2.1 需求分析
11.2.2 实现思路
11.2.3 程序设计
11.2.4 项目实现
11.3 登录类项目
11.3.1 需求分析
11.3.2 实现思路
11.3.3 程序设计
11.3.4 项目实现
11.4 本章小结
11.5 习题
第12章 分布式爬虫
12.1 简单分布式爬虫
12.1.1 进程及进程间通信
12.1.2 简单分布式爬虫结构
12.1.3 控制节点
12.1.4 爬虫节点
12.2 Scrapy与分布式爬虫
12.2.1 Scrapy中集成Redis
12.2.2 MongoDB集群
12.3 Scrapy分布式爬虫实战
12.3.1 创建爬虫
12.3.2 定义Item
12.3.3 爬虫模块
12.3.4 编写Pipeline
12.3.5 修改Settings
12.3.6 运行项目
12.4 去重优化
12.5 本章小结
12.6 习题
查看详情
-
九品
重庆市南岸区
平均发货6小时
成功完成率95.67%
-
九品
-
九五品
-
八五品
山东省枣庄市
平均发货8小时
成功完成率94.43%
-
九品
广东省深圳市
平均发货15小时
成功完成率92.34%
-
九品
河南省鹤壁市
平均发货11小时
成功完成率89.61%
-
八五品
河南省鹤壁市
平均发货18小时
成功完成率51.61%
-
八五品
陕西省咸阳市
平均发货8小时
成功完成率93.5%
-
八五品
湖南省长沙市
平均发货11小时
成功完成率94.14%
-
八五品
湖南省长沙市
平均发货13小时
成功完成率96.17%
-
九品
北京市昌平区
平均发货6小时
成功完成率93.61%
-
九品
北京市昌平区
平均发货5小时
成功完成率93.37%
-
八五品
湖北省武汉市
平均发货5小时
成功完成率96.63%
-
九品
四川省广安市
平均发货10小时
成功完成率86.67%
-
八五品
山东省滨州市
平均发货9小时
成功完成率90.99%
-
八五品
湖北省武汉市
平均发货5小时
成功完成率96.63%
-
九五品
四川省成都市
平均发货11小时
成功完成率94.51%
-
九五品
四川省成都市
平均发货10小时
成功完成率94.35%
-
八五品
湖北省武汉市
平均发货14小时
成功完成率73.04%
-
八五品
陕西省咸阳市
平均发货13小时
成功完成率66.67%
-
八五品
重庆市沙坪坝区
平均发货10小时
成功完成率86.73%
-
八五品
重庆市沙坪坝区
平均发货9小时
成功完成率88.35%
-
八五品
陕西省西安市
平均发货9小时
成功完成率91.79%
-
八五品
安徽省滁州市
平均发货17小时
成功完成率90.19%
-
九品
湖北省武汉市
平均发货14小时
成功完成率73.04%
-
八五品
重庆市沙坪坝区
平均发货9小时
成功完成率88.35%
-
八五品
重庆市沙坪坝区
平均发货8小时
成功完成率86.8%
-
八五品
陕西省西安市
平均发货10小时
成功完成率94.84%
-
八五品
陕西省咸阳市
平均发货8小时
成功完成率94.99%
-
八五品
河南省鹤壁市
平均发货9小时
成功完成率96.52%
-
八五品
四川省成都市
平均发货8小时
成功完成率79.53%
-
八五品
四川省成都市
平均发货8小时
成功完成率93.74%
-
八五品
福建省福州市
平均发货15小时
成功完成率77.61%
-
八五品
山东省济南市
平均发货8小时
成功完成率95.18%
-
八品
河南省安阳市
平均发货10小时
成功完成率94.96%
-
八五品
河南省郑州市
平均发货11小时
成功完成率41.38%
-
八五品
湖北省武汉市
平均发货5小时
成功完成率96.63%
-
九品
湖北省孝感市
平均发货3小时
成功完成率97.73%
-
八五品
北京市昌平区
平均发货12小时
成功完成率97.96%
-
九品
北京市通州区
平均发货8小时
成功完成率92.74%
-
九品
北京市通州区
平均发货8小时
成功完成率92.74%
-
八五品
四川省成都市
平均发货9小时
成功完成率90.43%
-
八五品
河北省石家庄市
平均发货15小时
成功完成率95.88%
-
八五品
湖北省孝感市
平均发货10小时
成功完成率92.98%
-
八五品
河南省郑州市
平均发货9小时
成功完成率94.2%
-
八五品
湖北省孝感市
平均发货12小时
成功完成率91.96%
-
八五品
湖北省孝感市
平均发货7小时
成功完成率96.55%
-
八五品
湖南省长沙市
平均发货15小时
成功完成率83.15%
-
八五品
山西省临汾市
平均发货13小时
成功完成率77.14%
-
八五品
河南省鹤壁市
平均发货10小时
成功完成率96.72%