由TG散户群体自发形成的测速社区。专注*用户测*的体验:单线程表现、三网/国际区域表现、实际延迟&稳定性等综合评定。
➤专线入口天梯表: https://www.haitunt.org

欢迎所有 用户👨🏻‍💻 和 机场主🕋 投稿,共建透明、客观、更反映用户实际体验的评测生态。
➤投稿: @HaitunSubmit_bot
➤(若有)可能的撤稿事项,仅受理*原投稿人*。

讨论群: @haitunspeed
频道: @haitun_channel
macOS 五个代理 Apps 网页加载速度(娱乐测试)

基于 LCP 的 “非严谨” 实测。谁是刷推、看新闻的丝滑选手?

—— 代理工具清单 ——
FlClash (v0.8.91.pre1), mihomo 核心
fake-ip
.mrs 规则集 = 49 个(以
某配置改编)
provider 数量 = 3 家


v2rayN (v7.16.6), xray 核心
全部为软件默认
单节点,接管系统代理


Surge Mac (v6.4.2-9830), 私有核心
fake-ip
规则集 = 20 个(某
精简配置原装)
provider 数量 = 1 家


小火箭 (v2.2.71-2829), 私有核心
全部为软件默认
单节点,接管系统代理


Loon for Mac (Alpha 0.1-32), 私有核心
fake-ip
规则集 = 31 个(
某配置原装)
provider 数量 = 1 家


—— macOS ——
版本 = Tahoe 26.2 RC
CPU = Apple M3

—— 测试步骤 ——
❶ 以 某家机场的 🇺🇸美国标准 (trojan) 节点访问 Google News
❷ 在 Google News 内搜索 chatgpt
❸ 模仿刷 网页/新闻流 的日常行为,不停翻页,记录 Vivaldi 浏览器—开发者工具—网络 中捕获的 LCP
❹ 翻页思路是,前 10 页逐页翻,后续则随意跳页
❺ 轮换不同 Apps 测试,各取前 20 次 LCP 结果。【见录屏】


—— 结果统计 ——
1️⃣ 总体上,除 Loon 外,余下 Apps 差距不算多么悬殊❗️

2️⃣ LCP 表现基本呈如下梯度
🥇 FlClash
🥈 v2rayN (xray) >小火箭 ~ Surge
🥉 Loon for Mac

注:图 1 仅供娱乐参考
FlClashv2rayN桌面端基本通用
Loon 仍为 alpha 版,待优化❗️


#娱乐测试 #macOS #代理工具 #app #flclash #v2rayn #surge #loon #小火箭 #mihomo #xray #统计 #网页加载 #LCP
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
浏览器加速插件: LocalCDN (Firefox)

效果:
让你即使用🇺🇸美国节点,网页的加载耗时也大幅降低!

如果盲猜,你能猜到截屏里访问 Google 是用的🇺🇸节点吗?

———
功能/原理:
插件内置了一些 JQuery、Font 等常常挂在远程 CDN 的素材,从而在用户访问网站时直接通过插件实现本地调用/劫持,大幅节省网页加载耗时。

注意:该插件为🦊 Firefox 浏览器 专属,不支持 Chrome 系。
📱Android 版 火狐 也可使用


———
对于其他浏览器,可使用 DecentralEyes 插件,但效果差一些。
实际上,LocalCDN 本身就是 DecentralEyes 的一个 fork。


#插件 #浏览器 #firefox #火狐 #延迟 #网页加速 #cdn
Media is too big
VIEW IN TELEGRAM
海豚机场测评|用户侧体验|测速频道
对比ss-trojan刷网页的真实耗时.png
《SS / Trojan 刷网页的实际延迟对比:下篇》

可能有人想问 v2ex.com 不是有挂 Cloudflare CDN?难道CDN不能改善加载耗时吗?

3️⃣ 访问挂载 CDN 的网站,其 #动态文件 的加载延迟依然对「用户侧耗时」拖后腿,属于压死骆驼的最后一根稻草。
例如 v2ex,其静态文件(CSS、部分图片)可通过 CF 全球/就近分发,但动态内容(帖子、评论等)则必须从美国 #建站鸡 拉取。

#动态文件 链路:🇺🇸源服务器 ➜节点 ➜你家,越接近 “直线” 就越快。
#静态文件 链路:🌎临近CDN ➜节点 ➜你家,就近分发。

再回头看图,就不难理解为何从快到慢依次是 🇺🇸🇯🇵🇭🇰🇩🇪🇺🇸节点对 #美国鸡 有东道主优势。


4️⃣ 那么,所有的 CDN 都无法扭转东道主优势吗?
答案:未必,要看网站类型。例如 #油管 (某种程度上) 、#网飞 等以分发静态视频为主的网站,其体验又主要由 CDN 决定。

甚至,谷歌、微软 对高优先级的 #搜索 业务,会采用高成本的全球分布式前端技术+全球私有骨干网,无论用哪里的节点都快!

不过,前面提到的视频站,也有反例

例如 XVi*、xHam* 等虽然挂 CDN,但未对太多视频上云(成本考量),所以仍要从 🇪🇺源服务器 拉取;P*Hub 也要从 🇺🇸源服务器 拉取。此时,因地制宜地用当地节点观影,首帧延迟、起速都更有优势。

反例之外,还有反转

#YouTube 虽挂 CDN,且对视频资源上云,但每个 CDN 的视频缓存有着明显的「地域偏好」。或许有人已注意到,
➤ 用 🇭🇰🇸🇬 加载「简中+部分繁中」视频很快,RTT < 25ms 也轻松跑 100w 娱乐分;但加载欧美视频,因要从🇺🇸🇪🇺服务器拉取,又变得很慢,娱乐分咔咔掉。毕竟 city-level CDN 体量小……
➤ 用 🇯🇵 加载「简繁中+日文」视频很快,但其他的…也就比🇭🇰🇸🇬好一点,但不多……

总之,各家采购 CDN 策略复杂。


5️⃣ 我该用哪的节点?
很难一概而论,毕竟每个人的机场、节点状况、常逛网站等大相径庭。不如用 随附的 .js #油猴脚本 测试一下,并把你的结果+机场分享到评论区。

对于本文环境,🇺🇸最佳、🇯🇵 其次、🇭🇰再次…

⚠️ 测试务必接网线,且最好💉打鸡血排除远距离掉速的干扰!


#漫谈 #技术杂谈 #rtt #延迟 #脚本
LoadingTime.js
7 KB
 
 
Back to Top