我是靠谱客的博主 善良冰棍,最近开发中收集的这篇文章主要介绍python爬虫 urllib模块 有道翻译,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

import urllib.request
import urllib.parse
import json

content = input('The content you want to translate: ')
# 发请求获取响应 注意接口url需要去掉translate后面的_o
url = 'https://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule'
data = {}
data = {
    'i': content,
    'from': 'AUTO',
    'smartresult': 'dict',
    'client': 'fanyideskweb',
    'salt': '16673915898530',
    'sign': 'e2f49821c22865440f19a45cb1c72b8a',
    'lts': '1667391589853',
    'bv': '50b61ff102560ebc7bb0148b22d7715c',
    'doctype': 'json',
    'version': '2.1',
    'keyfrom':'fanyi.web',
    'action': 'FY_BY_CLICKBUTTION'
}
# data参数必须符合application/x-www-form-urlencode的格式,需要用urllib.parse.urlencode转换
data = urllib.parse.urlencode(data).encode('utf-8')
headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/104.0.0.0 Safari/537.36'
    }
# 此处不使用headers,可以在req对象生成后使用add_header()方法添加headers
req = urllib.request.Request(url,data=data,headers=headers)
# req.add_header('User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/104.0.0.0 Safari/537.36')
response = urllib.request.urlopen(req)
html = response.read().decode('utf-8')
# 把json类型的字符串html转换为字典
target = json.loads(html)
# 打印结果
print('The result is: %s'%target['translateResult'][0][0]['tgt'])

最后

以上就是善良冰棍为你收集整理的python爬虫 urllib模块 有道翻译的全部内容,希望文章能够帮你解决python爬虫 urllib模块 有道翻译所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(32)

评论列表共有 0 条评论

立即
投稿
返回
顶部