python爬取有道翻譯結果,實現即時翻譯功能

python利用有道翻譯實現中英文互譯

工具/原料

python2.7

方法/步驟

使用chrome瀏覽器,打開有道翻譯頁面,輸入需要翻譯的內容,按f12鍵

點擊翻譯按鈕後,Network會列出所有的網絡請求

依次查看每個請求的response,可以看到translate_o?開頭的應答中,是我們需要的解析的應答信息

查看其對應的Headers,可以看到請求的url,data,用戶代理信息

對付防盜鏈,伺服器會識別headers中的referer是不是它自己,如果不是,有的伺服器不會響應,所以我們還可以在headers中加入referer

User-Agent是用來模擬瀏覽器

鹽值

數據中的salt和sign是實時變化的,可以通過調試的方法查看鹽值算法

使用選擇箭頭,選擇翻譯按鈕,查看按鈕點擊事件對應的js文件

點擊fanyi.min.js文件,打開文件內容,該文件是沒有格式化的,點擊左下角的{}按鈕,顯示格式化後的文件

在格式化的文件中搜尋salt,共搜尋到三處,如果不知道具體是哪一個,可以都加上斷點來調試。

點擊格式話文件左側的行號,就可以添加斷點

再次點擊頁面上的翻譯按鈕,可以進入斷點,然後查看salt是如何計算的

salt是當前時間戳加上一個偏移量

sign是由四部分內容然後計算md5值算出來的

這四部分內容中除了一個是salt外,啟用內容如下。

其中n是需要翻譯的字符串

編碼

引入頭文件,及url信息,注意這裡url中的translate?中沒有_o

如果加上_o就會提示{"errorCode":50}錯誤。從網上大神那裡看到,去掉_o就可以了

啟動循環,讀取用戶輸入

設置data域,使用python生成salt和sign的值

這裡需要注意編碼格式需要轉換成utf-8

使用urllib2發起http請求,設置header和數據域

運行效果如下

相關文章

  1. 如何利用python爬取數據並保存為word文檔

    如何利用python爬取數據並保存為word文檔?請看下面的經驗吧! 方法/步驟 在做爬取數據之前,你需要下載安裝兩個東西,一個是urllib,另外一個是python-docx. 然後在python的 ...
  2. python使用requests爬取網頁出現中文亂碼

    在python中,若使用requests庫來抓取網頁,當遇到中文頁面時,容易出現亂碼問題.這是由於字符編碼問題引起的. 在requests中有提供相應的辦法,通過指定encoding,基本可以解決問題 ...
  3. 自動抓取163新聞的Python爬蟲源碼_Python基礎

    Python爬蟲的學習,自動抓取163新聞的Python爬蟲源碼,這是一個用Python語言編寫的,自動抓取網易新聞的python爬蟲實現方法一文. 抓取思路 Python爬蟲的抓取思路是:(1)通過 ...
  4. python通過cookie爬取個人網站

    通過cookie獲取個人網站信息,並匹配出需要的關鍵字,這裡先以urllib+re模塊登陸網站為例 工具/原料 python的urllib2或request或httplib2包 解析內容需要使用正則表 ...
  5. python 爬蟲 入門 爬取新浪新聞

    一提到python,大家經常會提到爬蟲,爬蟲近來興起的原因我覺得主要還是因為大數據的原因,大數據導致了我們的數據不在只存在於自己的伺服器,而python語言的簡便也成了爬蟲工具的首要語言,我們這篇文章 ...
  6. python 爬貼吧的圖

    用的Python3,按照網上好多的教程寫爬蟲,但是經常出現編碼問題,而且解決不了.最近嘗試了一下BeautifulSoup.終於成功盜圖.希望能給你提供些許參考 工具/原料 自行百度下載Beautif ...
  7. Java 如何爬取網頁

    百度搜尋引擎的原理其中之一就是定期的派出網絡爬蟲到網際網路上去爬取網頁.我這裡用java寫了一個最簡單的小程序來實現這一功能. 工具/原料 Eclipse JDK 1.6 EditPlus 方法/步驟 ...
  8. 如何解決百度蜘蛛只爬取首頁的問題

    我們看網站日誌的時候不能只是看搜尋引擎的日誌爬取的頻率和返回的http碼!要想了解搜尋引擎,就必須從它的動態看起,就是要看它一系列都抓取了什麼,最長見的問題就是百度蜘蛛只爬取首頁的問題,很多站長沒有察 ...
  9. 金山詞霸螢幕取詞?金山詞霸怎麼設置隨時翻譯?

    隨著使用英語的人數越來越多,它逐漸成為我們日常生活中交流.閱讀的語言,現在我們出去,如果不懂點英語,還真的無法快樂地和其他小夥伴愉快的玩耍.可是自己平時工作或者學習的原因,根本沒有時間靜下心來去學習, ...
  10. 簡單分析搜尋引擎蜘蛛的爬取策略

    搜尋引擎蜘蛛每天是怎麼樣去爬取我們的網的呢?針對這些你有多少的了解?那搜尋引擎蜘蛛的爬取過程又是怎麼樣的呢?在搜尋引擎蜘蛛系統中,待爬取URL隊列是很關鍵的部分,需要蜘蛛爬取的網頁URL在其中順序排列 ...
  11. 如何爬取網頁數據

    Python是進行網頁爬蟲和網頁數據抓取的一個不錯語言.其中python也提供了不少模塊用於數據抓取.urllib是用於打開網頁連結的模塊,urlopen()函數用於打開網頁,bs4(Beautifu ...
  12. 百度蜘蛛爬取的規律是什麼

    百度蜘蛛是如何爬取的 第一,百度蜘蛛極為活躍,經常看看你的伺服器日誌,你就懷發現百度蜘蛛抓取的頻率和數量都非常大.百度蜘蛛幾乎每天都會訪問我的論壇,並且至少抓取幾十個網頁.我的論壇只開通了不到一個月, ...
  13. 分析蜘蛛爬取網頁的優先方式

    1.進步頁面蜘蛛爬取率:大師知道蜘蛛爬取網頁分為廣度優先和深度優先,豈論是那種行動靠的但凡站內連結的公正組織,以是這一條的傳染感動大師理應讀比較懂得,只要進步了蜘蛛爬取頁面率高,威力包管你能更好的泡蜘 ...
  14. python抓取百度貼吧的圖片

    這是一個簡單的爬蟲例子,用來抓取百度貼吧的圖片 工具/原料 Python 3.4 方法/步驟 隨便在百度貼吧找了一個連結 http://tieba.baidu.com/p/4253192113 新建一 ...
  15. 有道翻譯官怎麼拍照翻譯

    很多時候我們在學習和工作總需要翻譯,這時很多人都會想到用詞典,但隨著科技的發展,拍照翻譯應運而生,這裡就講一講怎麼拍照翻譯 工具/原料 有道翻譯官 方法/步驟 下載安裝有道翻譯官,如果想離線翻譯的話還 ...
  16. 蘋果手機安裝有道翻譯官拍圖翻譯

    手機有很多翻譯軟體,大多數都是輸入單詞進行翻譯,或使用話筒輸入語言進行翻譯,但是對著一張文稿如何選擇?可以使用有道翻譯官的拍圖翻譯功能. 方法/步驟 打開瀏覽器. 通常手機網頁都有記憶功能,如果隨意輸 ...
  17. java中從高德地圖爬取數據

    本人csdn博客地址:http://blog.csdn.net/java_wucao/article/details/77800891,也可查看 工具/原料 idea 高德地圖開發者帳號 maven ...
  18. 如何用記事本爬取公眾號歷史文章?

    不知道有沒有人,和我有一樣的習慣,微信公眾號里的文章,不會深入的閱讀.遇到好的文章,就收藏起來,然後在電腦上閱讀.特別是需要動手的Excel.PPT等教程. 如果遇到好的公眾號,恨不得把它的每篇文章, ...
  19. java爬蟲框架webmagic的搭建與示例,爬取csdn

    最近在搗鼓python,被python的神話傳說洗腦了,用了一陣才發現也沒有真的那麼牛逼,關鍵還是看用熟悉哪個,而且python相對java的簡略,其實也是有利有弊,自由度高了,項目一大,可讀性就降低 ...
  20. 如何爬取網站數據——前嗅ForeSpider使用教程

    前嗅forespider數據採集軟體的使用教程,可視化的軟體,簡單的操作,強大的功能,幫助不會爬蟲的人採集數據. 工具/原料 ForeSpider 方法/步驟 我們想要從網上獲取自己想要的數據,通常有 ...