技术解析

JS 里 3200 行的正则匹配,有没有什么好的办法优化一下?
0
1975-03-02 07:27:59
idczone

其实和某种上网方式有关。

我相信不少人都用着 SwitchyOmega 这个插件。
受迫于 Windows 上 OneDrive 这些微软自家的东西都只能用 Windows 系统代理设置,我不得不折腾一个 PAC 文件放 Nginx 上。
于是我把 SwitchyOmega 的某土啬列表导出成 PAC 文件。顺手用文本编辑器打开一看:

我的乖乖,3200 行正则

if (/AABBCC/.test(host)) return "+proxy";

还有 3600 行indexOf

if (scheme === "http" && url.indexOf("CCDDEE") >= 0) return "+proxy";

每一个请求都要这样匹配这么多正则,效率很低啊。 (没有打算解决这个问题,就是给大家贴出来,图一乐)


把正则维护到数据库,然后做一个管理页面

某 list 维护的是 Adblock plus 的规则列表
adb 使用的详细算法在
https://adblockplus.org/blog/investigating-filter-matching-algorithms

gfwlist2pac

为什么要搞这么复杂?简单的一个大陆白名单就可以解决大多数分流问题了。

现在都流行答非所问吗。
最简单的优化应该是加缓存层吧?

3200 行正则有什么问题吗,快的很


补充说明一下,大概就是对于一个正则表达式,里面会有连续的字符串,取出第一个长度为 N 的子字符串,计算 hash 放作为 key 存入 hasmap。如果没有长度为 N 子串的话放入另一个列表等待遍历。
对于目标网址,使用 rabin-karp 算法里计算 hash 的部分可以快速计算出其所有长度为 N 的字串的 hash,使用这个 hash 去 hashmap 中查找,找到同 hash 的就进行正则匹配,匹配不上没找到就遍历此前的另一个列表,再没找到就是没有。

其实不要用那个公共列表就行,那是把全部被墙网站都列了,而实际上你 99%用不到。自己维护一个列表就行。

如果 js 引擎实现到位的话,这些正则应该是可以线性时间(或乘一个系数)内处理完的,所以应该不会特别慢

我觉得理论上最好的方法是把所有的正则合成一个, 然后编译出一个状态机.但是这样这个正则就没有人可以维护了....

所有还是缓存一下匹配的结果就好了...

老哥,不需要放 nginx 呀,用 file:///path/abc.pac 指定 pac 文件就行了呀。我在 linux 下面就是这样干的。

但 win10 就是不一样啊,win10 的代理设置不支持 file://访问

可能你需要升级下工具了,有个和 V2EX 的工具名字很像的你值得拥有。

数据地带为您的网站提供全球顶级IDC资源
在线咨询
专属客服