Proxmox VE
a (→Konténeralapú virtualizáció: OpenVZ: ... és még egy sor) |
a (→Tippek és Trükkök: nyelvészkedés, formázgatás) |
||
150. sor: | 150. sor: | ||
</pre> |
</pre> |
||
− | ==Tippek és Trükkök== |
+ | == Mindennapi használat == |
− | ===OpenVz virtuál gépekhez bármikor hozzá tudunk férni Proxmox alól=== |
+ | === OpenVZ-s virtuális gépek menedzselése a hosztról === |
− | vzctl enter vmid |
||
− | ezzel egyből rootkén lépünk be a virtuál gépre. Elejét lehet venni a root kizárásoknak, illetve tegyük fel hogy megtörték a virtuál gépünket és átirták a root jelszavunkat, semmi gond :) |
||
− | ===OpenVz virtuál gépek listázása=== |
+ | A |
− | vzlist |
+ | |
+ | <pre> |
||
+ | vzctl enter vmid |
||
+ | </pre> |
||
+ | |||
+ | paranccsal azonnal beléphetünk, rootként, a futó virtuális gépbe (ez ugyanúgy működik, mint a vservernél). |
||
+ | |||
+ | === OpenVZ-s virtuális gépek listázása === |
||
+ | <pre> |
||
+ | # vzlist |
||
CTID NPROC STATUS IP_ADDR HOSTNAME |
CTID NPROC STATUS IP_ADDR HOSTNAME |
||
− | 157 38 running - test |
+ | 157 38 running - test |
− | 161 36 running - test1 |
+ | 161 36 running - test1 |
− | sajnos a KVM-es gépek nem látszódnak. |
+ | </pre> |
− | ===OpenVz vrituál géphez plusz egy hálózati csatoló=== |
+ | Ebben a listában a KVM-es gépek sajnos nem jelennek meg. |
− | vzctl set 103 --netif_add eth1 --save |
||
− | Saved parameters for CT 103 |
||
− | ===OpenVz virtuál gép vzctl powa=== |
+ | === Új hálózati kártya hozzáadása OpenVZ-s guesthez === |
− | vzctl exec vmid apt-get -y upgrade |
||
− | Látható, hogy szinte bármilyen műveletet elvégezhetünk anélkül hogy be kellene lépnünk a VM-re. |
||
− | ===OpenVZ virtuális gépben szükséges modulok a tűzfal működéséhez=== |
+ | <pre> |
+ | # vzctl set 103 --netif_add eth1 --save |
||
+ | Saved parameters for CT 103 |
||
+ | </pre> |
||
− | Ahhoz, hogy az iptables működhessen a konténerben, engedélyezni kell ezen modulokat egyrészt az /etc/vz/vz.conf-ban és a konténerben is. Az /etc/vz/vz.conf megfelelő sorát így kell kibővíteni: |
+ | === Parancs futtatása virtuális gépben === |
− | IPTABLES="ipt_REJECT ipt_tos ipt_limit ipt_multiport iptable_filter iptable_mangle ipt_TCPMSS |
+ | Ahogyan a vservernél, itt is elegendő egy |
− | ipt_tcpmss ipt_ttl ipt_length \ |
||
− | ip_conntrack ip_conntrack_ftp ip_conntrack_irc ipt_LOG ipt_conntrack ipt_helper \ |
||
− | ipt_state iptable_nat ip_nat_ftp ip_nat_irc ipt_TOS " |
||
− | A módosítás után újra kell indítani a vz szolgáltatást (/etc/init.d/vz restart). Figyelem, ez leállítja |
+ | <pre> |
− | a futó virtuális gépeket! |
+ | vzctl exec vmid apt-get -y upgrade |
+ | </pre> |
||
+ | |||
+ | parancs ahhoz, hogy a megadott virtuális gépen lefuttassunk egy apt-get műveletet. Ehhez nem is kell explicite belépni a virtuális gépbe. A parancs terminálja a vzctl-t futtató user terminálja lesz. |
||
+ | |||
+ | === Tűzfal OpenVZ-s virtuális gépben === |
||
+ | |||
+ | Ahhoz, hogy az <tt>iptables</tt> működhessen a konténerben, engedélyezni kell a megfelelő NetFilter-modulokat egyrészt a <tt>/etc/vz/vz.conf</tt>-ban, másrészt magában a konténerben is. A <tt>/etc/vz/vz.conf</tt> megfelelő sorát így kell kibővíteni: |
||
+ | |||
+ | <pre> |
||
+ | IPTABLES="ipt_REJECT ipt_tos ipt_limit ipt_multiport iptable_filter iptable_mangle ipt_TCPMSS ipt_tcpmss ipt_ttl ipt_length \ |
||
+ | ip_conntrack ip_conntrack_ftp ip_conntrack_irc ipt_LOG ipt_conntrack ipt_helper \ |
||
+ | ipt_state iptable_nat ip_nat_ftp ip_nat_irc ipt_TOS" |
||
+ | </pre> |
||
+ | |||
+ | A módosítás után újra kell indítani a vz szolgáltatást (<tt>/etc/init.d/vz restart</tt>). Figyelem, ez leállítja a futó virtuális gépeket! |
||
Az adott konténerben is engedélyezni kell ezen modulok használatát: |
Az adott konténerben is engedélyezni kell ezen modulok használatát: |
||
− | vzctl set 103 --iptables ipt_REJECT --iptables ipt_tos --iptables ipt_TOS --iptables ipt_LOG |
+ | <pre> |
− | --iptables ip_conntrack --iptables ipt_limit --iptables ipt_multiport --iptables iptable_filter |
+ | # vzctl set 103 --iptables ipt_REJECT --iptables ipt_tos --iptables ipt_TOS --iptables ipt_LOG --iptables ip_conntrack \ |
− | --iptables iptable_mangle --iptables ipt_TCPMSS --iptables ipt_tcpmss --iptables ipt_ttl |
+ | --iptables ipt_limit --iptables ipt_multiport --iptables iptable_filter --iptables iptable_mangle --iptables ipt_TCPMSS \ |
− | --iptables ipt_length --iptables ipt_state --iptables iptable_nat --iptables ip_nat_ftp --save |
+ | --iptables ipt_tcpmss --iptables ipt_ttl --iptables ipt_length --iptables ipt_state --iptables iptable_nat \ |
− | Saved parameters for CT 103 |
+ | --iptables ip_nat_ftp --save |
+ | Saved parameters for CT 103 |
||
+ | </pre> |
||
+ | |||
+ | Ezután a konténert is újra kell indítani, hogy érvényt szerezzünk a változtatásoknak. |
||
+ | |||
+ | === I/O-tuning === |
||
+ | |||
+ | Ha feltűnően lassú az I/O a virtuális gépekben érdemes a következők valamelyikével próbálkozni: |
||
+ | |||
+ | <pre> |
||
+ | for i in /sys/block/sd?/queue/scheduler; do |
||
+ | echo deadline > $i |
||
+ | done |
||
+ | </pre> |
||
+ | |||
+ | Vagy: |
||
+ | |||
+ | <pre> |
||
+ | for i in /sys/block/sd?/queue/scheduler; do |
||
+ | echo cfq > $i |
||
+ | done |
||
+ | </pre> |
||
+ | |||
+ | === Softraid és LVM === |
||
− | Ez után a konténert is újra kell indítani, hogy érvényt szerezzünk a változtatásoknak. |
+ | A Proxmox alapértelmezés szerint LVM-re telepíti a root filesystemet is, amivel nincs is különösebb gond. Utólag az [[LVM#LVM_.C3.A9s_RAID|LVM szócikkben]] leírtak szerint RAIDesíthetjük a rendszerünket. |
− | ===Lassú az adatmozgatás a virtuális gépen (OpenVz/KVM)=== |
+ | Én személy szerint úgy éreztem, hogy ha a rootfs-t softraid fölötti LVM-re tettem, attól a rendszerem lelassult, de kimérni nem mértem ki. YMMV. |
− | Érdemes a következővel próbálkozni: |
||
− | echo “deadline” > /sys/block/sda/queue/scheduler |
||
− | ===Proxmox software raid & LVM=== |
+ | Arról semmiképpen ne feledkezzünk meg, hogy a Proxmox kerneléhez tartozó initrd-t újrageneráljuk úgy, hogy belekerüljön az mdadm, hiszen különben nem lesz, ami az LVM alatt összerakja nekünk a RAIDet a boot során. |
− | A Proxmox alapértelmezetten LVM-re telepíti a root filesystem-et is, amivel nincs is különösebb gond, viszont ha úgy döntünk hogy heggesztünk alá egy software raid-et akkor az a tapasztaladom hogy jelentősen lassúl a rendszer. Szóval érdemes a rootfs-t lvm nélküli software raid-re átrakni, az adatpartició meg LVM-esre, már ha szeretnénk online migrálni. Ehhez [https://unixlinux.tmit.bme.hu/LVM#LVM_.C3.A9s_RAID itt] találhatunk egy kis útmutatót. |
||
− | Miútán befejeztük, ne feledjük el a Proxmox-os kernel initrd-jébe beletenni az mdadm támogatást és újra forditani, mert különben nem fogja felépiteni a md device-okat. |
A lap 2009. december 15., 03:48-kori változata
A Proxmox PE egy Debian-ra épülő virtualizációs platform. Nagyon egyszerű és gyors telepítés, könnyen konfigurálhatóság, jól dokumentáltság jellemzi leginkább a Proxmox-ot, csak is ajánlani tudom mindenkinek, aki ilyen téren valami átfogó megoldást keres. Kiemelném a főbb tulajdonságait, csak hogy egyből megértsük mivel is állunk szemben:
- Konténer alapú OpenVZ virtualizáció - konténerek lényegét, hasznosságát lásd később
- KVM virtualizáció
- Bare-Metal ISO telepítő - magyarán pár perc alatt kézhez kapsz egy üres szervert.
- WEB alapu menedzsment
- Cluster támogatás
- Mentés, Visszaállitás, Online Migrálás
Tartalomjegyzék |
1 Rendszer követelmények
- 64bit-es processor
- 1 Gb memórai (4 Gb ajánlott)
- 1 NIC (2 ajánlott az értelmes tűzfalazáshoz)
Telepítés előtt érdemes elgondolkodni azon hogy akarunk-e KVM-et használni, mert ha úgy döntünk hogy akár most akár a későbbiekben szükség lehet rá akkor okvetlen olyan processzort válsszunk, ami támogatja az Intel VT/AMD-V-t.
2 Telepítés
2.1 Saját telepítőjével
Nem nagyon van mit hozzáfűzni: next, next, finish.
Ugyanakkor vegyük figyelembe, hogy a Proxmox PE nem támogatja a software RAID-et, és úgy néz ki, nem is fogja. Így aztán vagy vásárolunk hardveres RAID-vezérlőt, vagy manuális gányolással állítjuk be a softraidet, ha fontos a rendelkezésreállás.
2.2 Már létező Debianra
Szerkesszük meg a sources.list-et:
echo deb http://download.proxmox.com/debian lenny pve >>/etc/apt/sources.list
Adjuk hozzá a rendszerünkhöz a Proxmox PE repository kulcsát:
wget -q -O- http://download.proxmox.com/debian/key.asc | apt-key add -
Frissítsük a csomaglistát:
apt-get update
Telepítsük a Proxmox PE kernelét:
apt-get install pve-kernel
Ha szükséges, állítsuk be a bootloaderünket, hogy ezt a kernelt töltse be a következő bootkor, majd rebootoljunk.
Telepítsük a Proxmox PE-vel összefüggő további csomagokat:
apt-get install proxmox-ve ntp
... és már csatlakozhatunk is a webes felületre.
3 A webes felület
A webes menedzsment-felületet igen kényelmes. A következő beállításokat teszi lehetővé a hosztgéppel kapcsolatban:
- rendszeridő;
- DNS-szerver;
- IP-címek;
- mentés ütemezése;
- custering.
Emellett a virtuális gépeinket:
- elindíthatjuk;
- leállíthatjuk;
- újraindíthatjuk;
- migrálhatjuk egyik gépről a másikra, akár online is;
Néhány kattintással új virtuális gépet is létrehozhatunk.
sun-java6-plugin-re szükség lesz.4 Virtuális gép telepítése
Kétféle virtualizációs megoldás közül választhatunk, és ezeket szabadon keverhetjük: OpenVZ ill. KVM.
4.1 Konténeralapú virtualizáció: OpenVZ
Linuxot futtató virtuális szerverek üzemeltetéséhez ezt a technológiát ajánlom. Minden egyes virtuális gép egy külön konténerbe kerül; a létrehozáskor megadott adatokat (tárhely, memória, cpu-k száma, cpu-idő korlátozása) bármikor megváltoztathatjuk. A konténerek igen nagy előnye, hogy fájlrendszerszinten elérhetők (alapértelmezett esetben a /var/lib/vz/private/vmid alatt).
Egy új virtuális gép a webes menedzsment-felületről pár kattintással létrehozható; ehhez nem fűznék különösebb magyarázatot.
Ha scriptből szeretnénk virtuális gépet létrehozni, az sem lehetetlen; lássunk egy példát.
#!/bin/bash #----------------------------------------------------- #Initial VM variables #----------------------------------------------------- vmdescription="debian-test VM" vmid=444 vmhostname="test" vmostemplate="debian-5.0-standard_5.0-1_i386.tar.gz" vmrootpasswd='$1$EgSNc8pS$dc4aP14RZUVeUPjZiD5WM1' vmdiskspace=8 vmmem=1024 vmswap=2048 vmcpu=1 vmifdev="eth0" vmbridge="vmbr1" vmipaddr="10.0.1.2" vmnetmask="255.255.255.0" vmgateway="10.0.1.1" vmnameserver="1.2.3.4" vmonboot="yes" vmprivate="/var/lib/vz/private" vmtimezone="Europe/Budapest" echo "Creating VM..." pvectl vzcreate $vmid --disk $vmdiskspace --ostemplate $vmostemplate --rootpasswd $vmrootpasswd --hostname $vmhostname --description $vmdescription --onboot $vmonboot --swap $vmswap --mem $vmmem --cpus $vmcpu --netif "ifname=$vmifdev,bridge=$vmbridge" echo "Configuring VM..." echo -e "auto $vmifdev\niface $vmifdev inet static\n address $vmipaddr\nnetmask $vmnetmask\n gateway $vmgateway" >> $vmprivate/$vmid/etc/network/interfaces echo "nameserver $vmnameserver" > $vmprivate/$vmid/etc/resolv.conf echo $timezone > $vmprivate/$vmid/etc/timezone echo "Starting VM..." vzctl start $vmid
A virtuális gép hálózatra való kijuttatását kétféleképpen oldhatjuk meg:
- Virtuális Hálózattal (venet)
- Előnye: menedzsent-felületen összekattingatva már működik is.
- Hátránya: megjegyezhetetlen, nem átlátható eszközneveket kapunk.
- Hídba kapcsolt ethernettel (veth)
- Előnye: Átlátható, világos eszköznevek.
- Hátránya: kézzel kell konfigolni a konténer alatti /etc/network/interfaces fájlban (vagy ennek disztribúciófüggő helyi megfelelőjében).
4.2 Paravirtualizáció: KVM
Ez a megoldás a Xenre hasonlít; a virtuális gépek saját virtualizált hardware-en futnak, és a hosztgép kernele a hipervizor. Akkor érdemes használni, ha Linuxtól eltérő operációs rendszert virtualizálunk, vagy ha fontos, hogy a virtuális gépben egy konkrét, a hosztgépétől eltérő kernelverzió fusson.
A megoldás nagy hátránya, hogy a hosztgépről nem tudunk automatikusan közvetlenül hozzáférni a virtuális gép fájlrendszeréhez.
KVM-es virtuális gépet szintén létrehozhatunk a webes felületről, de parancssoros eszközzel is:
# qm create 666 --ide0 8 --ostype other --memory 512 --onboot no --cdrom cdrom --name test1 --vlan0 rtl8139=F6:B4:59:58:4A:B0 --smp 1 --bootdisk ide0 Formatting '/var/lib/vz/images/666/vm-666-disk.qcow2', fmt=qcow2, size=8388608 kB
5 Mindennapi használat
5.1 OpenVZ-s virtuális gépek menedzselése a hosztról
A
vzctl enter vmid
paranccsal azonnal beléphetünk, rootként, a futó virtuális gépbe (ez ugyanúgy működik, mint a vservernél).
5.2 OpenVZ-s virtuális gépek listázása
# vzlist CTID NPROC STATUS IP_ADDR HOSTNAME 157 38 running - test 161 36 running - test1
Ebben a listában a KVM-es gépek sajnos nem jelennek meg.
5.3 Új hálózati kártya hozzáadása OpenVZ-s guesthez
# vzctl set 103 --netif_add eth1 --save Saved parameters for CT 103
5.4 Parancs futtatása virtuális gépben
Ahogyan a vservernél, itt is elegendő egy
vzctl exec vmid apt-get -y upgrade
parancs ahhoz, hogy a megadott virtuális gépen lefuttassunk egy apt-get műveletet. Ehhez nem is kell explicite belépni a virtuális gépbe. A parancs terminálja a vzctl-t futtató user terminálja lesz.
5.5 Tűzfal OpenVZ-s virtuális gépben
Ahhoz, hogy az iptables működhessen a konténerben, engedélyezni kell a megfelelő NetFilter-modulokat egyrészt a /etc/vz/vz.conf-ban, másrészt magában a konténerben is. A /etc/vz/vz.conf megfelelő sorát így kell kibővíteni:
IPTABLES="ipt_REJECT ipt_tos ipt_limit ipt_multiport iptable_filter iptable_mangle ipt_TCPMSS ipt_tcpmss ipt_ttl ipt_length \ ip_conntrack ip_conntrack_ftp ip_conntrack_irc ipt_LOG ipt_conntrack ipt_helper \ ipt_state iptable_nat ip_nat_ftp ip_nat_irc ipt_TOS"
A módosítás után újra kell indítani a vz szolgáltatást (/etc/init.d/vz restart). Figyelem, ez leállítja a futó virtuális gépeket!
Az adott konténerben is engedélyezni kell ezen modulok használatát:
# vzctl set 103 --iptables ipt_REJECT --iptables ipt_tos --iptables ipt_TOS --iptables ipt_LOG --iptables ip_conntrack \ --iptables ipt_limit --iptables ipt_multiport --iptables iptable_filter --iptables iptable_mangle --iptables ipt_TCPMSS \ --iptables ipt_tcpmss --iptables ipt_ttl --iptables ipt_length --iptables ipt_state --iptables iptable_nat \ --iptables ip_nat_ftp --save Saved parameters for CT 103
Ezután a konténert is újra kell indítani, hogy érvényt szerezzünk a változtatásoknak.
5.6 I/O-tuning
Ha feltűnően lassú az I/O a virtuális gépekben érdemes a következők valamelyikével próbálkozni:
for i in /sys/block/sd?/queue/scheduler; do echo deadline > $i done
Vagy:
for i in /sys/block/sd?/queue/scheduler; do echo cfq > $i done
5.7 Softraid és LVM
A Proxmox alapértelmezés szerint LVM-re telepíti a root filesystemet is, amivel nincs is különösebb gond. Utólag az LVM szócikkben leírtak szerint RAIDesíthetjük a rendszerünket.
Én személy szerint úgy éreztem, hogy ha a rootfs-t softraid fölötti LVM-re tettem, attól a rendszerem lelassult, de kimérni nem mértem ki. YMMV.
Arról semmiképpen ne feledkezzünk meg, hogy a Proxmox kerneléhez tartozó initrd-t újrageneráljuk úgy, hogy belekerüljön az mdadm, hiszen különben nem lesz, ami az LVM alatt összerakja nekünk a RAIDet a boot során.