V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  faceair  ›  全部回复第 3 页 / 共 65 页
回复总数  1282
1  2  3  4  5  6  7  8  9  10 ... 65  
听起来是 GPT3.5 模型?
2023-05-10 09:23:09 +08:00
回复了 ackyes 创建的主题 推广 送 一个 ChatGPT plus
@ackyes #231 在主题上 append 一下,大家没看到已经结束了。
@ciki #38 方便的话可以尝试隐去节点信息之后提个 issue ,贴一下完整的文件,我看下结构
@likeme #35 现在是有什么问题?应该是全平台通用的
@Jzdoxc #27 你说的这个应该是 ss 或者 ssr 的订阅,要解析转成 clash 的格式在代码实现上还是比较费劲的。你可以自己找一些工具来转换。
另外是其实大部分的机场现在应该都是直接提供 clash 的订阅的链接的,如果明面上没有的话也可以自己尝试加一下 &flag=clash 或者 &clash=1 看看。https://github.com/Dreamacro/clash/issues/2632#issuecomment-1475482445
@vituralfuture #32 这部分代码的主体是一位贡献者提供的 https://github.com/faceair/clash-speedtest/pull/1 根据他的描述可能是 excel 打开 utf8 的 csv 的时候需要 BOM 。如果你想移除这个 BOM 的话可以介绍一下具体的使用场景,我来权衡一下,可能再额外开个选项之类的,或者提供 json 等其他的格式来使用。
@Royal22 可能不用选择最优节点。如果这个机场不能保证在高峰时间的可用带宽充足,换一家就好了。
@kaiger #28 有参数,你仔细看下
@824020994 #24 如果是 windows 的话可以尝试在终端运行这个 exe 文件,如果确实有啥报错的话可以开 issue 补充上下文信息再看
@macy #22 已更新 v1.2.0 ,支持传入 http 订阅链接,支持默认按带宽降序排列,也给结果标记了一些颜色
@vueli #20 用我这个工具测出来情况是怎么样的?延迟和带宽匹配吗?
@goodryb #7 配置了一个 goreleaser 的 github workflow ,现在有自动的打包了 https://github.com/faceair/clash-speedtest/releases/tag/v1.0.0
@1423 #12 是存在的,而且很普遍。

类比一下你去阿里云开一个小鸡,带宽只给 1m ,那么延迟可以很低同时带宽也很低。在机场这里的情况一般是香港的节点延迟低,但是可能受限于机器的带宽或者 IEPL 、IPLC 专线的带宽,实际大文件的下载或者看视频会卡。这种情况通过 Clash 的 url-test 或者你之前提到的 ttfb 是看不出来的。
@gujigujij #13 这个帖子里就不歪楼了,可以搜一下站内之前的讨论 https://www.google.com/search?q=site:v2ex.com/t%20%E6%9C%BA%E5%9C%BA%20%E6%8E%A8%E8%8D%90
@cssk #8 这是两个类型的指标,应该独立看待,我在 README 中已经有些介绍了。
@christin #4 你可以使用 -f 参数来指定你想测速的节点,也可以使用 -s 参数指定单次测试要下载的文件大小。

@1423 #5 介绍中我已经对比了 TTFB 类型的测速方法的几种缺陷:
1. 如果 Loadbalance 的策略不好测出全部节点的延迟
2. TTFB 只能代表延迟不能测出带宽,是有可能延迟低但带宽也低的
所以实际上 TTFB 的测试在这种情况下并不好用。

@goodryb #7 这种比较敏感的应用如果手动 Release 二进制还是有些风险的,后面我看下是否可以通过 Github Workflow 来自动打包,增强中间的透明度
2023-05-02 19:08:21 +08:00
回复了 Casbin 创建的主题 OpenAI Casdoor: 支持单点登录、消息云端同步的开源网页版 ChatGPT
很怪,你看可以单开一个项目的
2023-04-21 00:08:38 +08:00
回复了 fortitudeZDY 创建的主题 分享创造 撸了个 Tailscale 的国内发行版,分享给大家
在 macOS 端也是可以用命令行来登录的,在点击 UI 的 get started 之后,不点 join network ,然后去命令行执行

/Applications/Tailscale.app/Contents/MacOS/Tailscale up --login-server https://login.xedge.cc

就可以连上了,目前官方的客户端体验比 xedge-tui.app 好不少
你的这个计算方法 QPS 不叫并发,并发一般指同时进行的请求数。
From GPT-4:

在这个情况下,由于你设置了 -t 30 参数,这意味着 ab 压测工具在 30 秒后会停止发送请求。因此,在压测过程中,只有在 30 秒内完成的请求会被记录。在你的压测结果中,只有 319 个请求在 30 秒内完成,因此 Complete requests 和 Failed requests 的和不等于 1000 。

为了确保你的 1000 个请求都被发送和记录,你可以将 -t 参数去掉,或者将其设置为一个足够长的时间,以便所有请求都能在这段时间内完成。

同时,请注意,如果你想要发送更多的请求,也可以适当增加并发级别(-c 参数)。但请注意,增加并发级别可能会增加服务器的负载,所以需要根据实际情况进行调整。
1  2  3  4  5  6  7  8  9  10 ... 65  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   4949 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 33ms · UTC 07:51 · PVG 15:51 · LAX 23:51 · JFK 02:51
Developed with CodeLauncher
♥ Do have faith in what you're doing.