十多年前,对小型词典(mdx小于15M),我就直接使用简单bash脚本直接调用less查看。但对于大型词典,我还是开发了tdict索引加快查找速度。
前两天因为丢失mwu (mdx 38M左右)索引,懒得重新生成,就直接用less脚本直接搜索。现在的机器果然很快,结果立即出现,没有任何延迟。手机上也一样。经过多次测试,基本上除wikipedia之外的所有词典,现在应该不需要任何复杂的格式或索引,直接文本文件压缩后莽就行了。
下面附上大量词典文件,唯一格式是词条用前缀”####”标记。供大家探索其它使用脚本。比如使用vim查看可无穷扩展词典功能(可使用任何vim扩展)。
mdcat之类工具可轻松显示图片等远程或本地资源。(xterm等终端支持图片显示)所以无需担心多媒体资源播放显示。
部分xz压缩markdown格式字典纯文本文件
3 个赞
一些好处:
词典检索的同时可前后无限翻页。对同类词同时记忆学习帮助很大,比如pachy等。
词典制作无比容易,任何笔记本身即词典。甚至无需排序。
1 个赞
没人用的格式设计的再好也没什么机会了,词典文件已经被 mdx 占领了。
amob
4
搜一本词典快,但多本联查呢。再者文本只有38M的已经是很小的词典了。
6lj6
5
这个思路很有意思,有成熟的命令和脚本环境分享下吗?举例来说:
- ODE LDOCE 的释义树的展开折叠绑定快捷键
- 例句发音的播放
- 版面的大纲模式缩进排版
终端环境经不起这么折腾,简单显示个文本还行,正经查词还是老老实实用词典软件吧。
1 个赞
除oed2展开后有800M纯文本(mdx 210M左右), britannica, 大百科全书再小一些之外还有啥大型词典?很多词典很大是因为图像音频,这些材料不参与检索,对速度没影响。我想看看现代机器的极限在哪里?当然wikipedia这种至少50G纯文本的,应该还是需要索引的。对50G文本,AI给出了10-30秒的估计。看来几年之内,连wikipedia也只要无索引全文搜索即可。
1 个赞
对首字母以固定百分比简单定位以后,线性搜索速度还可以提高至少十倍。这样的话,哪怕是英文维基百科全文也可在3秒内完成搜索。所以目前来说,线性搜索应该足够处理所有词典了。高级数据结构应该彻底没用了。
没看出来这有什么方便的.电脑一个GD或Mdict软件会崩溃吗?