Új szerverek, régi virtualizáció? Ez a legdrágább hiba lehet

Új szerverek, régi virtualizáció? Ez a legdrágább hiba lehet

A refresh projektek többsége ugyanúgy indul. Kedd délelőtt, Teams hívás, mindenki kicsit fáradt, de motivált, mert végre lesz új vas. Az egyik oldalon ott a beszerzés, a másikon az üzemeltetés, középen valahol a pénzügy és az IT vezetés. Elhangzik pár klasszikus mondat. „A garancia úgyis kifut.” „A node-ok már nem bírják.” „A storage is néha furán viselkedik.” Aztán jön a megnyugtató zárómondat: „Nem akarunk nagy projektet, csak szervert cserélünk.”

És rendszerint pont itt csúszik el a történet.

Mert az új szerver nem csak egy gyorsabb doboz. A szervercsere valójában egy új ciklus kezdete, ahol a platform, a licenc, az adatútvonal és az üzemeltetési modell is újraszámolja magát. Ha a virtualizációhoz úgy nyúlsz hozzá, mintha az „csak egy réteg lenne”, akkor az upgrade nem modernizáció lesz, hanem a régi döntés drágább újrajátszása.

A legkellemetlenebb része ennek az, hogy nem azonnal üt vissza. Az új szerver beüzemelve tényleg gyors. A vMotion megy, a VM-ek szépen futnak, a monitoring zöld, mindenki hátradől. A számla viszont sokszor később érkezik, és addigra már nincs mozgástér. Miért? Mert a CPU generációváltás ma tipikusan magszámugrás is. Ami korábban 2×14 vagy 2×16 core volt node-onként, az ma könnyen 2×32 vagy még több. Ez technikailag érthető, üzletileg viszont ott a csapda: ha a virtualizáció per-core logikával árazódik, a szoftverköltség nem szépen követi a valós igényt, hanem ugrik. És a workload sokszor nem nőtt kétszeresére. Csak a core-szám. A Broadcom utáni csomagolási és licencelési mozgások miatt ez a hatás még érzékenyebb tud lenni VMware környezetekben.

Ilyenkor jön az első „mi a fene történt” pillanat. Nem azért, mert rossz döntést hoztál. Hanem mert a döntés nem volt végig gondolva platformszinten. A refresh meetingeken a CPU-t mindig szétszálazzuk, de azt ritkán tesszük fel kérdésként, hogy a magszám növekedés mit jelent három évre előre licencben, supportban, és abban, hogy mennyire lesz kezelhető a környezet költségoldala. Pedig ez ma már nem részletkérdés, ez a TCO gerince.

A második drága hiba kevésbé látványos, de hosszabb távon sokkal többet visz: amikor a régi architektúrát gondolkodás nélkül örökíted tovább. A klasszikus 3-tier modell sok helyen ma is tökéletesen működik. A gond nem az, hogy „rossz”, hanem az, hogy refreshkor automatikusan marad, miközben a környezet körülötte megváltozott. A data path, a vendor-függőségek, a change management, a DR és az üzemeltetési terhelés mind együtt mozog vele. Egy server-only csere rövid távon kényelmes, mert a SAN-hoz nem kell nyúlni, nincs adatmozgatás, nincs redesign. Csakhogy ezzel együtt a komplexitást is továbbviszed a következő ciklusra. Ha a SAN lifecycle párhuzamosan kifut, a refresh valójában két projektet rejt, csak az egyiket elfelejtjük kimondani az elején.

És itt jön az a pont, ahol a „régi virtualizáció” kifejezés valójában nem a hypervisorról szól, hanem a gondolkodásról. A virtualizáció sokáig a konszolidáció eszköze volt. Ma sok helyen platformréteg. A kérdés nem az, hogy VMware vagy nem VMware. A kérdés az, hogy a következő 4–5 évben milyen működési modellt akarsz: mennyi integrációs ponttal, mennyi vendor határvonallal, mennyi üzemeltetési „kézi munkával”, és mennyi jövőbeli mozgástérrel.

Ezt a mozgásteret a DR döntések is befolyásolják. Sok környezetben a DR modell erősen hypervisor-kötött, és refreshkor egyszerűen örökítjük tovább, mert „működik”. Csakhogy ezzel a jövőbeni változtatás költségét is rögzíted. A legtöbb csapat nem azért ragad benne egy platformban, mert szereti, hanem mert a függőségek túl drágák lettek. A refresh pedig pont az az időablak, amikor még lehetne workload-szinten gondolkodni, nem mindent egyszerre átborítani, hanem okosan szétválasztani, mi marad, mi megy új modellbe. Ezt a lépcsőzetes gondolkodást több vendor-agnosztikus döntési keret is használja.

A harmadik, „csendben kúszó” probléma az, hogy a következő ciklus workloadja már nem ugyanaz lesz, mint az előzőé. A VM-ek maradnak, de mellette egyre gyakrabban megjelenik valamilyen konténeres komponens, data platform, vagy AI-hoz kapcsolódó igény. Nem kell mindent Kubernetesre vinni ahhoz, hogy ez számítson. Elég annyi, hogy a platformnak rugalmasan kell bírnia a vegyes világot. Ha a refresh kizárólag a jelenlegi VM igényekre optimalizál, az egy-két éven belül újra tervezést kényszeríthet ki. A VMware-ről való elmozdulás sokszor nem „menekülés”, hanem annak felismerése, hogy platformszinten kell modernizálni, különben a régi modell a modern workloadoknál fog fájni.

A legdrágább hiba tehát nem az, hogy maradsz-e a megszokott úton, vagy új irányba lépsz. A legdrágább hiba az, amikor azt hiszed, hogy nem döntöttél, csak cseréltél. Mert a refreshben mindig van döntés. Maximum nem nevezed nevén.

Ha szervercsere előtt állsz VMware környezetben, három dolgot érdemes még a vas kiválasztása előtt tisztázni. Mennyi lesz a hároméves TCO-hatás a core-szám változás miatt. A jelenlegi architektúra valóban optimális-e a következő ciklusban is, vagy csak kényelmes. És mennyi mozgástered marad workload-mix változás esetén, amikor nem csak VM-ekben kell gondolkodni. Ez nem vendorlista. Ez döntési higiénia.

A jó refresh nem attól jó, hogy gyorsabb lett a környezet. Attól jó, hogy nem kötötted magad a múltadhoz még öt évre, csak mert siettél lezárni egy beszerzést.

Igényeljen 2 óra díjmentes konzultációt!

Kapcsolat űrlap