英文维基百科 En.wikipedia.org 20231020 完成mdx

数据:wikidumps
下载: 百度网盘 请输入提取码

FreeMDict上传太慢

FreeMdict Cloud

352个json/html文件,每个2GB左右,预览是其中一个转mdx格式
mdx估计总共 45GB,分成10个左右

最终弄了一个庞大的mdx结束

Meta tab含有关于这个article的metadata

13 个赞

这是正式版?
工程巨大(45GB需要需要)!
多谢!

1 个赞

啊哈,所以我说这个太大了,下一步手机最少得准备1t的:smile:,否则不够用。还有文库,教科书等等,中英日每个来一份,哈哈

正式版要本地图像和语音,样子和preview一样。

mdx 45GB,256内存够了
mdd 未知,不过可以联网不带mdd

我现在手边没有电脑(有一段时间了,可能还要持续),只能用手机(早先就配置了1T的TF卡),常有不便。

1 个赞

完成了2023 10-20的mdx
42.81GB

2 个赞

不胜感激!
还有mdd也要上传吧?肯定很大了!

恐怖如斯,离线媒体不得爆表!

mdd还没敢下载,好像有上千万个图像。。。

离线图像,语音和视频实在是太巨大了。

有图像就行。

1 个赞

看来最好的解决办法就是,使用它的app,但是又不能联网——太遥远了!

1 个赞

图像信息量最大,也众多。发音和视频很罕见,但是体积太大了,没必要。

1 个赞

那就是说,不做英文版的mdd?

准备做,先完成法语mdd (四百万图像)

3 个赞

英语卷帙浩繁
冗余信息太多

吾兄何不选择
其POPULAR50000
的词条

aard2
zim
的英文维基就有这样的例子

望兄参酌

既然有完整版,先出个完整。体积还算可以接受,总比老是查不到好。数据里面貌似没 popularity。

Popular Articles

name: enwiki-popular
size: 2.39 - 5 GB
refcount: 500 000 - 2 000 000
url: MEGA
note: Doesn’t contain references and infoboxes, popular article list generated from http://dumps.wikimedia.org/other/pagecounts-ez/