经验首页 前端设计 程序设计 Java相关 移动开发 数据库/运维 软件/图像 大数据/云计算 其他经验
当前位置:技术经验 » 程序设计 » Python3 » 查看文章
详解Python3网络爬虫(二):利用urllib.urlopen向有道翻译发送数据获得翻译结果
来源:jb51  时间:2019/5/8 8:41:17  对本文有异议

上一篇内容,已经学会了使用简单的语句对网页进行抓取。接下来,详细看下urlopen的两个重要参数url和data,学习如何发送数据data

一、urlopen的url参数 Agent

url不仅可以是一个字符串,例如:http://www.baidu.com。url也可以是一个Request对象,这就需要我们先定义一个Request对象,然后将这个Request对象作为urlopen的参数使用,方法如下:

  1. # -*- coding: UTF-8 -*-
  2. from urllib import request
  3.  
  4. if __name__ == "__main__":
  5. req = request.Request("http://fanyi.baidu.com/")
  6. response = request.urlopen(req)
  7. html = response.read()
  8. html = html.decode("utf-8")
  9. print(html)

同样,运行这段代码同样可以得到网页信息。可以看一下这段代码和上个笔记中代码的不同,对比一下就明白了。

urlopen()返回的对象,可以使用read()进行读取,同样也可以使用geturl()方法、info()方法、getcode()方法。

geturl()返回的是一个url的字符串;

info()返回的是一些meta标记的元信息,包括一些服务器的信息;

getcode()返回的是HTTP的状态码,如果返回200表示请求成功。

关于META标签和HTTP状态码的内容可以自行百度百科,里面有很详细的介绍。

了解到这些,我们就可以进行新一轮的测试,新建文件名urllib_test04.py,编写如下代码:

  1. # -*- coding: UTF-8 -*-
  2. from urllib import request
  3.  
  4. if __name__ == "__main__":
  5. req = request.Request("http://fanyi.baidu.com/")
  6. response = request.urlopen(req)
  7. print("geturl打印信息:%s"%(response.geturl()))
  8. print('**********************************************')
  9. print("info打印信息:%s"%(response.info()))
  10. print('**********************************************')
  11. print("getcode打印信息:%s"%(response.getcode()))

可以得到如下运行结果:

二、urlopen的data参数

我们可以使用data参数,向服务器发送数据。根据HTTP规范,GET用于信息获取,POST是向服务器提交数据的一种请求,再换句话说:

从客户端向服务器提交数据使用POST;

从服务器获得数据到客户端使用GET(GET也可以提交,暂不考虑)。

如果没有设置urlopen()函数的data参数,HTTP请求采用GET方式,也就是我们从服务器获取信息,如果我们设置data参数,HTTP请求采用POST方式,也就是我们向服务器传递数据。

data参数有自己的格式,它是一个基于application/x-www.form-urlencoded的格式,具体格式我们不用了解, 因为我们可以使用urllib.parse.urlencode()函数将字符串自动转换成上面所说的格式。

三、发送data实例

向有道翻译发送data,得到翻译结果。

1.打开有道翻译界面,如下图所示:

2.鼠标右键检查,也就是审查元素,如下图所示:

3.选择右侧出现的Network,如下图所示:

4.在左侧输入翻译内容,输入Jack,如下图所示:

5.点击自动翻译按钮,我们就可以看到右侧出现的内容,如下图所示:

6.点击上图红框中的内容,查看它的信息,如下图所示:

7.记住这些信息,这是我们一会儿写程序需要用到的。

新建文件translate_test.py,编写如下代码:

  1. # -*- coding: UTF-8 -*-
  2. from urllib import request
  3. from urllib import parse
  4. import json
  5.  
  6. if __name__ == "__main__":
  7. #对应上图的Request URL
  8. Request_URL = 'http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule&smartresult=ugc&sessionFrom=https://www.baidu.com/link'
  9. #创建Form_Data字典,存储上图的Form Data
  10. Form_Data = {}
  11. Form_Data['type'] = 'AUTO'
  12. Form_Data['i'] = 'Jack'
  13. Form_Data['doctype'] = 'json'
  14. Form_Data['xmlVersion'] = '1.8'
  15. Form_Data['keyfrom'] = 'fanyi.web'
  16. Form_Data['ue'] = 'ue:UTF-8'
  17. Form_Data['action'] = 'FY_BY_CLICKBUTTON'
  18. #使用urlencode方法转换标准格式
  19. data = parse.urlencode(Form_Data).encode('utf-8')
  20. #传递Request对象和转换完格式的数据
  21. response = request.urlopen(Request_URL,data)
  22. #读取信息并解码
  23. html = response.read().decode('utf-8')
  24. #使用JSON
  25. translate_results = json.loads(html)
  26. #找到翻译结果
  27. translate_results = translate_results['translateResult'][0][0]['tgt']
  28. #打印翻译信息
  29. print("翻译的结果是:%s" % translate_results)

这样我们就可以查看翻译的结果了,如下图所示:

JSON是一种轻量级的数据交换格式,我们需要从爬取到的内容中找到JSON格式的数据,这里面保存着我们想要的翻译结果,再将得到的JSON格式的翻译结果进行解析,得到我们最终想要的样子:杰克。

以上所述是小编给大家介绍的Python3网络爬虫(二):利用urllib.urlopen向有道翻译发送数据获得翻译结果详解整合,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对w3xue网站的支持!

 友情链接:直通硅谷  点职佳  北美留学生论坛

本站QQ群:前端 618073944 | Java 606181507 | Python 626812652 | C/C++ 612253063 | 微信 634508462 | 苹果 692586424 | C#/.net 182808419 | PHP 305140648 | 运维 608723728

W3xue 的所有内容仅供测试,对任何法律问题及风险不承担任何责任。通过使用本站内容随之而来的风险与本站无关。
关于我们  |  意见建议  |  捐助我们  |  报错有奖  |  广告合作、友情链接(目前9元/月)请联系QQ:27243702 沸活量
皖ICP备17017327号-2 皖公网安备34020702000426号