折腾一整天SMB,感觉威联通优化挺牛逼
按照论坛大佬的方法,使用CMD不同的队列线程,对比了一下威联通和winserver作为服务端的SMB吞吐能力winserver2025,7F72+S8030+8通道3200内存+CX455A单口100G网卡,RDMA开启
威联通,7F52+8通道3200内存+CX6LX双口25G网卡
客户端,MS-01 12900H+96g+CX4LX双口25G网卡,RDMA开启
winserver:
威联通:
q1t1能放上去看看嘛 本帖最后由 brucelee1126 于 2025-4-5 13:00 编辑
summerq 发表于 2025-4-5 12:27
q1t1能放上去看看嘛
威联通读只有1000M,写900M,
winserver读写都是1900M
就是折腾。。。哈哈哈 brucelee1126 发表于 2025-4-5 12:29
威联通读只有1000M,写900M,
winserver读写都是1900M
威联通负优化[偷笑] 我都没这么高阶的威联通硬件,晚点我试试pve下面的qutscloud跑吞吐啥样子 Dolfin 发表于 2025-4-5 13:33
我都没这么高阶的威联通硬件,晚点我试试pve下面的qutscloud跑吞吐啥样子
我尝试破解qutscloud失败,教程过期了哎 本帖最后由 Dolfin 于 2025-4-5 13:43 编辑
brucelee1126 发表于 2025-4-5 13:35
我尝试破解qutscloud失败,教程过期了哎
我是订阅了4核,时不时拿来做做测试。我以为它有CX6的驱动,然后直通过去一点反应没有。。。就只能虚拟网桥了 本帖最后由 Dolfin 于 2025-4-5 17:13 编辑
服务端SMB - iSCSI Target
PVE - Qutscloud
PCIe Gen 4 M.2 * 1 (直通)
40GbE 虚拟网桥 * 2
SMB in kernel
SMB 多通道
服务端NVMe-OF Target
PVE - Ubuntu Server
SPDK - NVMf
ConnectX - 4 40GbE (直通)
PCIe Gen 3 U.2 硬盘(直通)
客户端
Windows Server 2022
ConnectX - 6 双口
iSCSI MPIO(双通道)
SMB 客户端测试(SMB多通道)
NVMe-OF (非MPIO) Dolfin 发表于 2025-4-5 16:53
SMB - iSCSI Target
服务端PVE - Qutscloud
iscsi双通道怎么搞? brucelee1126 发表于 2025-4-5 17:13
iscsi双通道怎么搞?
https://kb.synology.com/zh-tw/DSM/tutorial/How_to_Use_iSCSI_Targets_on_Windows_Computers_with_Multipath_I_O Dolfin 发表于 2025-4-5 17:17
https://kb.synology.com/zh-tw/DSM/tutorial/How_to_Use_iSCSI_Targets_on_Windows_Computers_with_Mult ...
主要是在win端配置,
刚去找了下官方教程,iser支持威联通跟exsi之间建立,不知道多通道是否也能用 smb别折腾了,怎么折腾,也是win平台的最好。在nas上想稳定性能好,还是webdav吧 brucelee1126 发表于 2025-4-5 17:31
主要是在win端配置,
刚去找了下官方教程,iser支持威联通跟exsi之间建立,不知道多通道是否也能用 ...
威联通那边建target的时候绑俩网口就完事了,所以mpio是在win设置 看了楼上二位的细心测试,我可以确定目前server 2025性能还是可以的。我打算过阵子改用server core 2025专门做smb算了
页:
[1]