中文维基 zh.wikipedia.org 20251011数据,10/30 更新 (离线图像和发音)

应该完整了,可能比官网还多了xref,mdd好了就上传

嗯嗯,看有没有大侠修一下css,不修也能用。

是不是在处理罗马数字上还有点问题,会串台。

难道跟软件有关


明天再研究,今天得休息:person_in_bed:

有可能,您休息。dictango上串台,在欧陆上搜小写v可以,用罗马数字就不行。

我猜是词条没有采用正规罗马数字而用了英文字母代替的缘故。

mdx本身内容没问题,我认为是软件把有些index弄混淆了

如果输入09V或者09v,软件会提供几个,其中两个match

09V型核潜艇 ==> mdx里面没有的内容(不是09V有的)
09V型核潜艇 ==> 正确内容

mdd可以直接用之前那个吗

之前有两批,我打算弄新的。貌似和软件平台有关。

我又重新下载了英文2023版,还是感觉英文的好点,内容也丰富,看着也舒服点,感觉可以把重点放在英文版上。

在折腾英文百科,880GB,会把电脑干爆了。

字典仅仅英语subset,都是在路上的。

字典css比较松散,可能也弄一下。

这么大吗?2023的成品是四十多g,您这是解压后的文本吧,的确够大,需要线程撕裂者+高内存。

元数据880GB,处理压缩以后小不少,但是我记不得到底是多大了,可能是40-50GB

那就还好,英文版会离线数据吗?

都会有的,离线数据除了体积大,基本上完全不用力气。

2 个赞

离线视频至少700GB,不打包上传了。

离线图像还属于可能使用的

.webm: 637056.98 MB = 37.35 *17056
.mov: 91548.32 MB = 34.20 *2677
.jpg: 65376.68 MB = 0.06 *1061867
.png: 39357.21 MB = 0.06 *609021
.ogv: 32852.86 MB = 29.84 *1101
.JPG: 10799.13 MB = 0.07 *161400
.gif: 5766.55 MB = 0.41 *14062
.mpg: 1890.25 MB = 189.03 *10
: 966.98 MB = 0.01 *153018
.PNG: 809.02 MB = 0.09 *8985
.jpeg: 641.95 MB = 0.06 *11568
.JPEG: 44.26 MB = 0.06 *757
.WebM: 26.35 MB = 26.35 *1
.GIF: 15.35 MB = 0.05 *298

麻烦把中文mdd文件传上去吧

还在打包,明天可以完成。

打包要4-5小时,上传要一小时。

1 个赞

好的,谢谢。正好周末挂机下载。百度网盘没有会员,全靠堆时间下载。

图片看着也很大啊,看来手机容量又不够了 :sweat_smile: