其实和某种上网方式有关。
我相信不少人都用着 SwitchyOmega 这个插件。
受迫于 Windows 上 OneDrive 这些微软自家的东西都只能用 Windows 系统代理设置,我不得不折腾一个 PAC 文件放 Nginx 上。
于是我把 SwitchyOmega 的某土啬列表导出成 PAC 文件。顺手用文本编辑器打开一看:
我的乖乖,3200 行正则
if (/AABBCC/.test(host)) return "+proxy";
还有 3600 行indexOf
if (scheme === "http" && url.indexOf("CCDDEE") >= 0) return "+proxy";
每一个请求都要这样匹配这么多正则,效率很低啊。
(没有打算解决这个问题,就是给大家贴出来,图一乐)
把正则维护到数据库,然后做一个管理页面
某 list 维护的是 Adblock plus 的规则列表
adb 使用的详细算法在
https://adblockplus.org/blog/investigating-filter-matching-algorithms
gfwlist2pac
为什么要搞这么复杂?简单的一个大陆白名单就可以解决大多数分流问题了。
现在都流行答非所问吗。
最简单的优化应该是加缓存层吧?
3200 行正则有什么问题吗,快的很
补充说明一下,大概就是对于一个正则表达式,里面会有连续的字符串,取出第一个长度为 N 的子字符串,计算 hash 放作为 key 存入 hasmap。如果没有长度为 N 子串的话放入另一个列表等待遍历。
对于目标网址,使用 rabin-karp 算法里计算 hash 的部分可以快速计算出其所有长度为 N 的字串的 hash,使用这个 hash 去 hashmap 中查找,找到同 hash 的就进行正则匹配,匹配不上没找到就遍历此前的另一个列表,再没找到就是没有。
其实不要用那个公共列表就行,那是把全部被墙网站都列了,而实际上你 99%用不到。自己维护一个列表就行。
如果 js 引擎实现到位的话,这些正则应该是可以线性时间(或乘一个系数)内处理完的,所以应该不会特别慢
我觉得理论上最好的方法是把所有的正则合成一个, 然后编译出一个状态机.但是这样这个正则就没有人可以维护了....
所有还是缓存一下匹配的结果就好了...
老哥,不需要放 nginx 呀,用 file:///path/abc.pac 指定 pac 文件就行了呀。我在 linux 下面就是这样干的。
但 win10 就是不一样啊,win10 的代理设置不支持 file://访问
可能你需要升级下工具了,有个和 V2EX 的工具名字很像的你值得拥有。