ahfncj
发表于 2018-3-19 22:49
pve看起来好复杂的样子还是用esxi吧,。。。。。。。。
carrionlee
发表于 2018-3-21 21:25
牛逼,坐等大神更新完毕
savioler
发表于 2018-4-27 00:48
好文,终于搞懂proxmox ve怎样直通设备了,谢谢
面团
发表于 2018-4-28 23:56
高端技术贴。。。厉害!
hzqim
发表于 2018-4-30 11:10
不像家用,像企业多点[偷笑]
jetmiller
发表于 2018-5-3 19:02
freenas是什么鬼? 这个Proxmox VE什么的本来就是基于debian stretch,zfs作为内核模块已经原生支持
还有nextcloud架在哪个系统上? 还有nextcloud这么挫的东西并发不行大容量不行有什么意义?
这不是折腾这是蛋疼
kingqueen
发表于 2018-5-3 22:38
大神帖,留名,后续观看
savioler
发表于 2018-5-17 06:57
本帖最后由 savioler 于 2018-5-17 07:00 编辑
问一下楼主,我按你这样做,卡在open vswitch那里,我是hp gen8,链路聚合后就不能ping通了,能给一下网络配置文件的内容给我看看么?我看错在哪里了。另外,单网卡的话应该如何设置呢?有点想把其中一个网口改为wan口。
阿崔
发表于 2018-5-17 13:31
本帖最后由 阿崔 于 2018-5-17 13:40 编辑
jetmiller 发表于 2018-5-3 19:02
freenas是什么鬼? 这个Proxmox VE什么的本来就是基于debian stretch,zfs作为内核模块已经原生支持
还有n ...
呵呵,linux的zfs只是可用而已,稳定和性能还是得freebsd下的,freenas主要是管理方便,不用背一大堆命令。而且所有的hypervisor过多暴露其他服务的情况下,安全性都是存疑的,从安全角度,hypervisor上就跑vm和管理相关的东西是最好的。
nextcloud的高并发是要依赖内存数据库和分布部署的,家用的话内存数据库就足够让性能可以接受了,没必要分布部署。容量更不是问题了,我现在的nextcloud管理着俩人大概8T的各种文件(大概7.5T是SMB),没发现任何问题。请先深入了解之后再下结论,别跟着网上一堆小白人云亦云。nextcloud的社区已经非常庞大了。而且nextcloud的各种电脑/手机客户端都非常好用,还有一大堆支持nextcloud做远程存储的的app,android下面完全可以替换掉google的联系人和日程同步了,照片之类的也可以自动上传,keepass2android配合nextcloud可以完成多台电脑和手机的密码数据库同步,连gnome3里都直接内置了nextcloud支持。而且所有这些都是跑在你自己服务器上的,无需担心被存储服务提供商泄露的风险。
阿崔
发表于 2018-5-17 13:35
savioler 发表于 2018-5-17 06:57
问一下楼主,我按你这样做,卡在open vswitch那里,我是hp gen8,链路聚合后就不能ping通了,能给一下网络配 ...
优先考虑交换机配置问题,lacp一堆坑。。。我的配置里面因为用了巨型帧,所以额外多了些东西,你忽略mtu那些就行了。
# network interface settings; autogenerated
# Please do NOT modify this file directly, unless you know what
# you're doing.
#
# If you want to manage part of the network configuration manually,
# please utilize the 'source' or 'source-directory' directives to do
# so.
# PVE will preserve these directives, but will NOT its network
# configuration from sourced files, so do not attempt to move any of
# the PVE managed interfaces into external files!
auto lo
iface lo inet loopback
iface enp7s0 inet manual
iface enp8s0 inet manual
iface enp3s0f0 inet manual
iface enp3s0f1 inet manual
allow-vmbr0 bond0
iface bond0 inet manual
ovs_bonds enp7s0 enp8s0
ovs_type OVSBond
ovs_bridge vmbr0
ovs_options bond_mode=balance-slb lacp=active
pre-up ( ifconfig enp7s0 mtu 9000 && ifconfig enp8s0 mtu 9000 )
mtu 9000
auto vmbr0
iface vmbr0 inet manual
ovs_type OVSBridge
ovs_ports bond0 vlan50
mtu 9000
allow-vmbr0 vlan50
iface vlan50 inet static
address10.23.59.22
netmask255.255.255.0
gateway10.23.59.1
ovs_type OVSIntPort
ovs_bridge vmbr0
ovs_options tag=50
mtu 1500
auto vmbr1
iface vmbr1 inet manual
ovs_type OVSBridge
ovs_ports internal
#internal networking
auto vmbr2
iface vmbr2 inet manual
ovs_type OVSBridge
#vyos protected networking
allow-vmbr1 internal
iface internal inet static
address10.53.2.22
netmask255.255.255.0
ovs_type OVSIntPort
ovs_bridge vmbr1
声色茶马
发表于 2018-5-17 14:43
LZ这是重度折腾有瘾派的。赞一发。
不太折腾派的就ESXI了。话说这货免费了?
更不折腾派的直接2016 R2了。
savioler
发表于 2018-5-17 22:10
本帖最后由 savioler 于 2018-5-17 22:31 编辑
阿崔 发表于 2018-5-17 13:35
优先考虑交换机配置问题,lacp一堆坑。。。我的配置里面因为用了巨型帧,所以额外多了些东西,你忽略mtu ...
lacp还是不行,单网口倒可以了,但按你文章进行硬件直通,显示
TASK ERROR: Cannot open iommu_group: No such file or directory
如何搞呢?
查了一下,难道是我的cpu不支持么??
fgl123
发表于 2018-5-18 10:41
太高端了,慢慢看看。
阿崔
发表于 2018-5-18 11:49
本帖最后由 阿崔 于 2018-5-18 11:55 编辑
savioler 发表于 2018-5-17 22:10
lacp还是不行,单网口倒可以了,但按你文章进行硬件直通,显示
TASK ERROR: Cannot open iommu_group: No...
lacp需要交换机支持。硬件直通需要cpu支持。另外ovs lacp的一个常见问题是,你装成debian源的了,那个基本不可用。。。按我给的步骤加上pve的免费源之后再重新装openvswitch就好了。
阿崔
发表于 2018-5-18 11:58
声色茶马 发表于 2018-5-17 14:43
LZ这是重度折腾有瘾派的。赞一发。
不太折腾派的就ESXI了。话说这货免费了?
现在esxi的io性能没kvm+qemu的好,实测切到pve之后万兆iscsi性能提升大概30%。。。
inSeek
发表于 2018-5-18 12:48
我也搭了一套差不多的n in 1方案,只是用的ESXi...
因为ESXi上有2个虚拟机分别做着日常办公/网游机+HTPC的事情,需要插不少卡和CPU线程性能,所以用的ATX大机器
5820K@4G + 48GB + 980Ti + 950 + HBA + 6个硬盘和4个SSD
后续性能不够的时候,就打算上E5+RECC条子了...
inSeek
发表于 2018-5-18 12:51
阿崔 发表于 2018-5-18 11:58
现在esxi的io性能没kvm+qemu的好,实测切到pve之后万兆iscsi性能提升大概30%。。。 ...
如果直通网卡进 FreeNAS 呢?
阿崔
发表于 2018-5-18 18:58
inSeek 发表于 2018-5-18 12:51
如果直通网卡进 FreeNAS 呢?
就是直通。。。非直通估计就没啥区别了。。。
阿崔
发表于 2018-5-18 18:59
inSeek 发表于 2018-5-18 12:48
我也搭了一套差不多的n in 1方案,只是用的ESXi...
因为ESXi上有2个虚拟机分别做着日常办公/网游机+HTPC的 ...
980ti你怎么做到虚拟化使用的?
inSeek
发表于 2018-5-18 19:11
阿崔 发表于 2018-5-18 18:59
980ti你怎么做到虚拟化使用的?
关键点在于不让NV的驱动识别出当前环境是虚拟机即可以了
在vmx配置文件里加上一个配置项:
hypervisor.cpuid.v0 = "FALSE"
即可
这样子,系统也不会知道当前跑在虚拟机里
inSeek
发表于 2018-5-18 19:11
阿崔 发表于 2018-5-18 18:58
就是直通。。。非直通估计就没啥区别了。。。
所以意思是ESXi的直通,通信延迟高?
savioler
发表于 2018-5-18 21:51
阿崔 发表于 2018-5-18 11:49
lacp需要交换机支持。硬件直通需要cpu支持。另外ovs lacp的一个常见问题是,你装成debian源的了,那个基本 ...
是按你那个步骤装的,但我也不清楚装的是debian的还是proxmox ve的open vswitch。
xuchux
发表于 2018-5-18 22:22
厉害,看着头晕哦
阿崔
发表于 2018-5-21 12:21
inSeek 发表于 2018-5-18 19:11
关键点在于不让NV的驱动识别出当前环境是虚拟机即可以了
在vmx配置文件里加上一个配置项:
好吧,发现kvm+qemu也一大堆用GTX passthrough的。。。
阿崔
发表于 2018-5-21 12:42
savioler 发表于 2018-5-18 21:51
是按你那个步骤装的,但我也不清楚装的是debian的还是proxmox ve的open vswitch。 ...
执行dpkg -l | grep openvswitch,如果返回版本号是2.7.0,那就是proxmox的,否则就是debian的
呆吵吵
发表于 2018-5-22 15:26
存起来回头有空了看
savioler
发表于 2018-5-24 09:25
问问楼主知道怎样备份thin-lvm里面的虚拟机文件么?我看那个也不是路径来的,也不知道怎样找到虚拟机文件。
阿崔
发表于 2018-5-24 13:20
savioler 发表于 2018-5-24 09:25
问问楼主知道怎样备份thin-lvm里面的虚拟机文件么?我看那个也不是路径来的,也不知道怎样找到虚拟机文件。 ...
用备份功能备份,thin-lvm里还是做为卷存在的,而不是文件。
carrionlee
发表于 2018-5-25 08:49
楼主怎么把各vlan的管理端口统一到同一个vlan中的
阿崔
发表于 2018-5-28 14:05
carrionlee 发表于 2018-5-25 08:49
楼主怎么把各vlan的管理端口统一到同一个vlan中的
不懂你的意思,我的管理端口都是划分在一个独立的vlan下面的