python爬取有道翻譯結果,實現即時翻譯功能

python利用有道翻譯實現中英文互譯

工具/原料

python2.7

方法/步驟

使用chrome瀏覽器,打開有道翻譯頁面,輸入需要翻譯的內容,按f12鍵

點擊翻譯按鈕後,Network會列出所有的網絡請求

依次查看每個請求的response,可以看到translate_o?開頭的應答中,是我們需要的解析的應答信息

查看其對應的Headers,可以看到請求的url,data,用戶代理信息

對付防盜鏈,伺服器會識別headers中的referer是不是它自己,如果不是,有的伺服器不會響應,所以我們還可以在headers中加入referer

User-Agent是用來模擬瀏覽器

鹽值

數據中的salt和sign是實時變化的,可以通過調試的方法查看鹽值算法

使用選擇箭頭,選擇翻譯按鈕,查看按鈕點擊事件對應的js文件

點擊fanyi.min.js文件,打開文件內容,該文件是沒有格式化的,點擊左下角的{}按鈕,顯示格式化後的文件

在格式化的文件中搜尋salt,共搜尋到三處,如果不知道具體是哪一個,可以都加上斷點來調試。

點擊格式話文件左側的行號,就可以添加斷點

再次點擊頁面上的翻譯按鈕,可以進入斷點,然後查看salt是如何計算的

salt是當前時間戳加上一個偏移量

sign是由四部分內容然後計算md5值算出來的

這四部分內容中除了一個是salt外,啟用內容如下。

其中n是需要翻譯的字符串

編碼

引入頭文件,及url信息,注意這裡url中的translate?中沒有_o

如果加上_o就會提示{"errorCode":50}錯誤。從網上大神那裡看到,去掉_o就可以了

啟動循環,讀取用戶輸入

設置data域,使用python生成salt和sign的值

這裡需要注意編碼格式需要轉換成utf-8

使用urllib2發起http請求,設置header和數據域

運行效果如下

相關文章

  1. 如何利用python爬取數據並保存為word文檔

    如何利用python爬取數據並保存為word文檔?請看下面的經驗吧! 方法/步驟 在做爬取數據之前,你需要下載安裝兩個東西,一個是urllib,另外一個是python-docx. 然後在python的 ...
  2. Python爬取gb2312編碼的網頁,並存儲中文字符

    使用python爬取gb2312編碼的網頁的時候,經常會出現亂碼問題,將網頁中獲取的信息存入json文件中的時候,json文件默認會保存中文的Unicode編碼,如果不進行轉碼,那麼存入json文件中 ...
  3. 程序猿的Python爬取數據防封IP方法!

    爬蟲:一段自動抓取網際網路信息的程序,從網際網路上抓取對於我們有價值的信息,一般來說,Python爬蟲程序很多時候都要使用(飛豬IP)代理的IP位址來爬取程序,但是默認的urlopen是無法使用代理的IP ...
  4. 如何使用python爬取電影資源(經典實戰版)

    很多小夥伴都對pytho爬蟲充滿神秘感,今天和大家分享下如何使用python來爬電影資源,前方多圖高能,請注意安全! 工具/原料 電腦 方法/步驟 首先說一下我們的終極目標: 從網頁中提取出top10 ...
  5. 如何用python爬取網頁製作電子書

    本文介紹,用Python抓取網頁小說,製作電子書的方法. 本文嘗試著抓取<tdtsg>的第一章. 工具/原料 電腦 Anaconda(Python3.6) 方法/步驟 我下載電子書,一般是 ...
  6. python爬取網頁信息並將爬取的文件寫入excel

    啥也不說,上爬蟲 方法/步驟 環境準備:pip install openpyxl 參考網址:https://blog.csdn.net/dick633/article/details/79933772 ...
  7. python使用requests爬取網頁出現中文亂碼

    在python中,若使用requests庫來抓取網頁,當遇到中文頁面時,容易出現亂碼問題.這是由於字符編碼問題引起的. 在requests中有提供相應的辦法,通過指定encoding,基本可以解決問題 ...
  8. 自動抓取163新聞的Python爬蟲源碼_Python基礎

    Python爬蟲的學習,自動抓取163新聞的Python爬蟲源碼,這是一個用Python語言編寫的,自動抓取網易新聞的python爬蟲實現方法一文. 抓取思路 Python爬蟲的抓取思路是:(1)通過 ...
  9. python通過cookie爬取個人網站

    通過cookie獲取個人網站信息,並匹配出需要的關鍵字,這裡先以urllib+re模塊登陸網站為例 工具/原料 python的urllib2或request或httplib2包 解析內容需要使用正則表 ...
  10. python 爬蟲 入門 爬取新浪新聞

    一提到python,大家經常會提到爬蟲,爬蟲近來興起的原因我覺得主要還是因為大數據的原因,大數據導致了我們的數據不在只存在於自己的伺服器,而python語言的簡便也成了爬蟲工具的首要語言,我們這篇文章 ...
  11. 零基礎使用python配合兔子IP爬取煎蛋網妹子圖

    零基礎使用python搭配兔子IP爬取煎蛋網妹子圖. 工具/原料 python3 兔子IP接口api 方法/步驟 下載python並安裝,配置好路徑. 打開命令行工具,win+r cmd 然後輸入py ...
  12. python 爬貼吧的圖

    用的Python3,按照網上好多的教程寫爬蟲,但是經常出現編碼問題,而且解決不了.最近嘗試了一下BeautifulSoup.終於成功盜圖.希望能給你提供些許參考 工具/原料 自行百度下載Beautif ...
  13. Java 如何爬取網頁

    百度搜尋引擎的原理其中之一就是定期的派出網絡爬蟲到網際網路上去爬取網頁.我這裡用java寫了一個最簡單的小程序來實現這一功能. 工具/原料 Eclipse JDK 1.6 EditPlus 方法/步驟 ...
  14. 如何解決百度蜘蛛只爬取首頁的問題

    我們看網站日誌的時候不能只是看搜尋引擎的日誌爬取的頻率和返回的http碼!要想了解搜尋引擎,就必須從它的動態看起,就是要看它一系列都抓取了什麼,最長見的問題就是百度蜘蛛只爬取首頁的問題,很多站長沒有察 ...
  15. 金山詞霸螢幕取詞?金山詞霸怎麼設置隨時翻譯?

    隨著使用英語的人數越來越多,它逐漸成為我們日常生活中交流.閱讀的語言,現在我們出去,如果不懂點英語,還真的無法快樂地和其他小夥伴愉快的玩耍.可是自己平時工作或者學習的原因,根本沒有時間靜下心來去學習, ...
  16. 簡單分析搜尋引擎蜘蛛的爬取策略

    搜尋引擎蜘蛛每天是怎麼樣去爬取我們的網的呢?針對這些你有多少的了解?那搜尋引擎蜘蛛的爬取過程又是怎麼樣的呢?在搜尋引擎蜘蛛系統中,待爬取URL隊列是很關鍵的部分,需要蜘蛛爬取的網頁URL在其中順序排列 ...
  17. 如何爬取網頁數據

    Python是進行網頁爬蟲和網頁數據抓取的一個不錯語言.其中python也提供了不少模塊用於數據抓取.urllib是用於打開網頁連結的模塊,urlopen()函數用於打開網頁,bs4(Beautifu ...
  18. 百度蜘蛛爬取的規律是什麼

    百度蜘蛛是如何爬取的 第一,百度蜘蛛極為活躍,經常看看你的伺服器日誌,你就懷發現百度蜘蛛抓取的頻率和數量都非常大.百度蜘蛛幾乎每天都會訪問我的論壇,並且至少抓取幾十個網頁.我的論壇只開通了不到一個月, ...
  19. 分析蜘蛛爬取網頁的優先方式

    1.進步頁面蜘蛛爬取率:大師知道蜘蛛爬取網頁分為廣度優先和深度優先,豈論是那種行動靠的但凡站內連結的公正組織,以是這一條的傳染感動大師理應讀比較懂得,只要進步了蜘蛛爬取頁面率高,威力包管你能更好的泡蜘 ...
  20. python抓取百度貼吧的圖片

    這是一個簡單的爬蟲例子,用來抓取百度貼吧的圖片 工具/原料 Python 3.4 方法/步驟 隨便在百度貼吧找了一個連結 http://tieba.baidu.com/p/4253192113 新建一 ...