維基百科離線版
自從研究了Goldendict 以後,就接觸到大英百科全書。
也Google 了一下 Encyclopedia Britannica 和 Wikipedia 孰優孰劣
網路上提到 Encyclopedia Britannica 是由學者專家寫成的,不過對於幾個條目,我覺得也不甚同意....
相比之下,維基百科的優點甚多!
於是就下載了wikipedia 的資料庫(dump) ,原本13G,解壓縮一次以後變成208G,還沒解壓縮第二次硬碟就放不下了,之後因為要用到 mediawiki 來架站,因為本身沒接觸過PHP 和 MySQL 等架站相關知識,這兩天惡補,看了一堆文章也無法弄懂,還要弄什麼設定的,一大堆英文,雖然有檔案,但也不知道怎樣匯入.......於是.........就放棄了,把花了將近8小時才解壓縮完的檔案,刪掉!
後來發現WikiTaxi可以用指令在外部查詢,剛好可以和GoldenDict統整,心裡就開心多了。
不過WikTaxi 的開發者有自己的考量,不讓使用者複製頁面的資料,嘖嘖!這樣多不方便阿!
WikiTaxi的檔案蠻小的,只有13G,不過沒有圖片。
後來試 Okawix ,似乎比較簡單,檔案也沒那麼像用Mediawiki的那麼大。
而且下載速度很快,真是不錯!
不過連續失敗好幾次,都是下載了1~2G就出現錯誤訊息。
不得已,只好另尋出路,打入Okawix的檔名關鍵字以後,查了老半天終於查到原始檔下載地址,這真是太好了,因為這樣就可以用orbit直接下載,吃滿50M的頻寬,終於成功下載中、英文的維基百科&圖,在短短的半天裡面,網路流量達到60G,這可是創下我自己的紀錄呢!
維基百科萬歲!
請大家多多贊助維基百科! 這個免費的百科全書!讓他繼續下去!
也Google 了一下 Encyclopedia Britannica 和 Wikipedia 孰優孰劣
網路上提到 Encyclopedia Britannica 是由學者專家寫成的,不過對於幾個條目,我覺得也不甚同意....
相比之下,維基百科的優點甚多!
於是就下載了wikipedia 的資料庫(dump) ,原本13G,解壓縮一次以後變成208G,還沒解壓縮第二次硬碟就放不下了,之後因為要用到 mediawiki 來架站,因為本身沒接觸過PHP 和 MySQL 等架站相關知識,這兩天惡補,看了一堆文章也無法弄懂,還要弄什麼設定的,一大堆英文,雖然有檔案,但也不知道怎樣匯入.......於是.........就放棄了,把花了將近8小時才解壓縮完的檔案,刪掉!
後來發現WikiTaxi可以用指令在外部查詢,剛好可以和GoldenDict統整,心裡就開心多了。
不過WikTaxi 的開發者有自己的考量,不讓使用者複製頁面的資料,嘖嘖!這樣多不方便阿!
WikiTaxi的檔案蠻小的,只有13G,不過沒有圖片。
後來試 Okawix ,似乎比較簡單,檔案也沒那麼像用Mediawiki的那麼大。
而且下載速度很快,真是不錯!
不過連續失敗好幾次,都是下載了1~2G就出現錯誤訊息。
不得已,只好另尋出路,打入Okawix的檔名關鍵字以後,查了老半天終於查到原始檔下載地址,這真是太好了,因為這樣就可以用orbit直接下載,吃滿50M的頻寬,終於成功下載中、英文的維基百科&圖,在短短的半天裡面,網路流量達到60G,這可是創下我自己的紀錄呢!
維基百科萬歲!
請大家多多贊助維基百科! 這個免費的百科全書!讓他繼續下去!
留言
張貼留言