现在根本不需要任何词典软件,无需索引直接全文搜索立即出结果

十多年前,对小型词典(mdx小于15M),我就直接使用简单bash脚本直接调用less查看。但对于大型词典,我还是开发了tdict索引加快查找速度。

前两天因为丢失mwu (mdx 38M左右)索引,懒得重新生成,就直接用less脚本直接搜索。现在的机器果然很快,结果立即出现,没有任何延迟。手机上也一样。经过多次测试,基本上除wikipedia之外的所有词典,现在应该不需要任何复杂的格式或索引,直接文本文件压缩后莽就行了。

下面附上大量词典文件,唯一格式是词条用前缀”####”标记。供大家探索其它使用脚本。比如使用vim查看可无穷扩展词典功能(可使用任何vim扩展)。

mdcat之类工具可轻松显示图片等远程或本地资源。(xterm等终端支持图片显示)所以无需担心多媒体资源播放显示。

部分xz压缩markdown格式字典纯文本文件

3 个赞

一些好处:

词典检索的同时可前后无限翻页。对同类词同时记忆学习帮助很大,比如pachy等。

词典制作无比容易,任何笔记本身即词典。甚至无需排序。

1 个赞

没人用的格式设计的再好也没什么机会了,词典文件已经被 mdx 占领了。

搜一本词典快,但多本联查呢。再者文本只有38M的已经是很小的词典了。

这个思路很有意思,有成熟的命令和脚本环境分享下吗?举例来说:

  1. ODE LDOCE 的释义树的展开折叠绑定快捷键
  2. 例句发音的播放
  3. 版面的大纲模式缩进排版

终端环境经不起这么折腾,简单显示个文本还行,正经查词还是老老实实用词典软件吧。

1 个赞

除oed2展开后有800M纯文本(mdx 210M左右), britannica, 大百科全书再小一些之外还有啥大型词典?很多词典很大是因为图像音频,这些材料不参与检索,对速度没影响。我想看看现代机器的极限在哪里?当然wikipedia这种至少50G纯文本的,应该还是需要索引的。对50G文本,AI给出了10-30秒的估计。看来几年之内,连wikipedia也只要无索引全文搜索即可。

1 个赞

对首字母以固定百分比简单定位以后,线性搜索速度还可以提高至少十倍。这样的话,哪怕是英文维基百科全文也可在3秒内完成搜索。所以目前来说,线性搜索应该足够处理所有词典了。高级数据结构应该彻底没用了。

:goutou:

没看出来这有什么方便的.电脑一个GD或Mdict软件会崩溃吗?