数据:wikidumps
下载: 百度网盘 请输入提取码
FreeMDict上传太慢
352个json/html文件,每个2GB左右,预览是其中一个转mdx格式
mdx估计总共 45GB,分成10个左右
最终弄了一个庞大的mdx结束
Meta tab含有关于这个article的metadata
数据:wikidumps
下载: 百度网盘 请输入提取码
352个json/html文件,每个2GB左右,预览是其中一个转mdx格式
mdx估计总共 45GB,分成10个左右
最终弄了一个庞大的mdx结束
Meta tab含有关于这个article的metadata
这是正式版?
工程巨大(45GB需要需要)!
多谢!
啊哈,所以我说这个太大了,下一步手机最少得准备1t的,否则不够用。还有文库,教科书等等,中英日每个来一份,哈哈
正式版要本地图像和语音,样子和preview一样。
mdx 45GB,256内存够了
mdd 未知,不过可以联网不带mdd
我现在手边没有电脑(有一段时间了,可能还要持续),只能用手机(早先就配置了1T的TF卡),常有不便。
不胜感激!
还有mdd也要上传吧?肯定很大了!
恐怖如斯,离线媒体不得爆表!
mdd还没敢下载,好像有上千万个图像。。。
离线图像,语音和视频实在是太巨大了。
有图像就行。
看来最好的解决办法就是,使用它的app,但是又不能联网——太遥远了!
图像信息量最大,也众多。发音和视频很罕见,但是体积太大了,没必要。
那就是说,不做英文版的mdd?
准备做,先完成法语mdd (四百万图像)
英语卷帙浩繁
冗余信息太多
吾兄何不选择
其POPULAR50000
的词条
aard2
zim
的英文维基就有这样的例子
望兄参酌
既然有完整版,先出个完整。体积还算可以接受,总比老是查不到好。数据里面貌似没 popularity。
name: | enwiki-popular |
---|---|
size: | 2.39 - 5 GB |
refcount: | 500 000 - 2 000 000 |
url: | MEGA |
note: | Doesn’t contain references and infoboxes, popular article list generated from http://dumps.wikimedia.org/other/pagecounts-ez/ |