قابلیت های جدید vCenter Server Appliance 6.5

  • 0

قابلیت های جدید vCenter Server Appliance 6.5

قابلیت های جدید vCenter Server Appliance 6.5

قابلیت های جدید vCenter Server Appliance 6.5
قابلیت های جدید vCenter Server Appliance 6.5

در ادامه بررسی Vmworld 2016 همانطور که میدونید کمپانی VMware نسخه vSphere 6.5 را در این کنفرانس معرفی کرد که موارد زیادی درکامپوننت های مختلف ارتقا پیدا کرده است  که در این مقاله به بررسی تعدای از اونها می پردازیم.
یکی از رکن های اساسی در vSphere 6.5 وجود vCenter Server Appliance می باشد و در نسخه ۶٫۵۵ قابلیت هایی به VCSA اضافه شده است از جمله موارد زیر :

  • اضافه شدن VMware Update Manager به vCenter Server Appliance
  • قابلیت Native High Availability در vCenter
  • Backup و Restore داخلی به وسیله vCenter
  • ابزار Migration از Windows vCenter به vCenter Server Appliance
  • ارتقا و امکان بیشتر جهت مدیریت vCenter Server Appliance

اضافه شدن VMware Update Manager به vCenter Server Appliance

یکی از مواردی که خیلی از مشتریان VCSA در انتظار آن بودند ، اضافه شدن VMware Update Manager به VCSA بود . همانطور که می دانید در نسخه های قبلی ، جهت استفاده از VMware Update Manager(VUM) نیاز به یک سیستم ویندوزی مجزا در کنار VCSA بود و این پیش نیاز برای مشتریانی که از VCSA استفاده می کردند کمی جای سوال داشت که چرا VUM بر روی خود VCSA قابل اجرا و مدیریت نیست . شاید تنها وابستگی به ویندوز و استفاده از vCenter ویندوزی همین مورد VUM بود که در نسخه ۶٫۵ این مورد قسمتی از vCenter Server Appliance می باشد .
قابلیتی نیز وجود دارد که در هنگام Migration به VCSA 6.5 میتوان VUM فعلی را نیز انتقال داد . به صورت پیش فرض در فعالیت Migration به VCSA 6.5 موارد مربوط به Configuration و Inventory و Alarm ها منتقل خواهند شد .


قابلیت Native High Availability درvCenter

یکی از دغدغه های مشتریان ، اطمینان از در دسترس بودن vCenter با روش های مختلف می باشد . از جمله راه هایی که برای اطمینان از این در دسترس بودن به کار می بریم استفاده از HA و FT و یا در نسخه های پایین تر از ۶ استفاده از Heartbeat می باشد گاهی نیز از سرویس Microsoft Clustering برای این کار استفاده می شود . در VCSA 6.5 عملیات High Availability داخلی در vCenter ایجاد شده است و قابلیتی می باشد که تنها در VCSA کاربرد دارد و در Windows vCenter نمی توان از آن استفاده کرد . این نوع High Availability به صورت Active/Passive راه اندازی و Deploy می شود و نیاز به Witness node نیز خواهیم داشت .

قابلیت-های-جدید-vCenter-Server-Appliance-6.5-1


Built-in vCenter Backup & Restore

در vCenter 6.5  می توانیم از vCenter Server Appliance به صورت Built-in و داخل خود vCenter عملیات Backup گیری یا Restore کردن Backup را به صورت File Level انجام دهیم . توسط این قابلیت می توانیم از vCenter سرور و Platform Service Controller به صورت مستقیم Backup بگیریم . همچنین این بک آپ ها می تواند شامل VMware Update Manager و Auto Deploy های در حال فعالیت بر روی VCSA نیز باشند . لازم به ذکر است که این نوع بک آپ به صورت کامل VCSA با embeded Platform Service Controller و VCSA با External Platform Service Controller را پشتیبانی می کند . جهت Backup گیری و Restore کردن در این نوع ، می توانیم از پروتکل های SCP و HTTP(S) و FTP(S) استفاده کنیم . شاید سوال مطرح بشود که از کجا می توانیم این عملیات بک آپ گیری و Restore را انجام دهیم ؟ جهت بک آپ گیری از Appliance management portal می توانیم استفاده کنیم و برای Restore کردن نیز می توانیم از ISO مربوط به Installer نسخه VCSA 6.5 استفاده کنیم .

قابلیت-های-جدید-vCenter-Server-Appliance-6.5-1

قابلیت-های-جدید-vCenter-Server-Appliance-6.5-1


ابزار Migration از Windows vCenter به vCenter Server Appliance

در release مربوط به vSphere 6 Update 2m عملیات Migration از Windows vCenter با نسخه های ۵٫۵ و ۶ به VCSA6 فراهم گردید . در vSphere 6.5 این ابزار migration ارتقا پیدا کرده و  امکان این وجود دارد تا مشخص کنیم موارد زیر به انتخاب به VCSA 6.5 منتقل شوند :

  • Configuration
  • Configuration, events, and tasks
  • Configuration, events, tasks, and performance metrics

ارتقا و امکان بیشتر جهت مدیریت vCenter Server Appliance

در vCenter Server Appliance 6.5 جهت مدیریت vCSA قابلیت هایی ارتقا و یا اضافه شده است . برای مثال additional  health and configurations اضافه شده است و یا اینکه user interface جدیدی جهت مدیریت و نمایش منابع مثل وضعیت شبکه و دیتابیس یا مقدار مصرف دیسک و مصرف ram و cpu در دسترس قرار گرفته است . این interface وابستگی ما به command line جهت گزارش های پیشرفته تر که قبلا وجود داشت کاهش می دهد و در Troubleshooting به ما کمک خواهد کرد .

با قابلیت های ارائه شده به نظر می رسد دیگر نیازی به vCenter ویندوزی در مجموعه ای نباشد و با این موارد اشاره شده آخرین وابستگی ها به ویندوز نیز برطرف شده است . در مقالات بعدی قابلیت های دیگری که به vSphere 6.5 اضافه شده است را بررسی خواهیم کرد.

 

 

 


  • 0

راه اندازی VMware VASA بر روی استوریج EMC VNX5200

راه اندازی VMware VASA بر روی استوریج EMC VNX5200

در ابتدا به اطلاع کلیه مهندسینی که قصد نصب و پیکربندی VMware VASA بر روی vSphere 5.5 برای استوریج VNX5200 و یا بقیه مدلهای VNX2 را دارند می رساند که این کار غیر ممکن می باشد و وقت خودشان را تلف نکنند.

این موضوع به دلیل وجود باگ در این ورژن می باشد که خود شرکت VMware نیز به آن اشاره نموده است البته این مشکل در ورژن vSphere 6.0 وجود ندارد و عزیزانی که از ورژن 6 استفاده می کنند بدون هیچ مشکلی می توانند نصب و پیکربندی نمایند. اما در صورتی که از نسخه vSphere 5.5 استفاده می کنید باید برای حل این مشکل یک سیستم عاملی مانند ویندوز یا لینوکس به عنوان EMC SMI-S Agent نصب کرده و آن را به دستگاه VNX وصل کنیم و بعد از آن می توانیم آن را بر روی vCenter ثبت کنیم.

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200

مراحل کار بسیار ساده می باشد، ابتدا باید آخرین نسخه SMI-S Provider که شامل ورژن های 4.6 و 7.6.2.65 می باشند را از وبسایت support.emc.com دانلود می کنیم و سپس در طول مراحل نصب بر روی Array Provider کلیک می کنیم.

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200
بر روی SYMAPI نیز کلیک می کنیم.

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200

از دستور TestSmiProvider.exe برای ارتباط با SMI-S Agent استفاده می کنیم:

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200

دستگاه استوریج VNX را در SMI-S ثبت می کنیم:

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200

از دستور dv برای چک کردن شناسایی دستگاه استفاده می کنیم. شایان ذکر است که می توان بیش از یک دستگاه را در اینجا Register نمود.

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200

در مرحله پایانی ما یک SMI-S Agent در vCenter به عنوان Storage Provider اضافه می کنیم. همانطور که در تصویر می بینید فقط یک Array در vCenter اضافه شده است. همچنین شما می توانید از یک Agent برای چندین vCenter استفاده کنید.

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200

شما می توانید از پرفایل استوریج خود را مشاهده و استفاده نمایید.

گروه فنی و مهندسی وی سنتر ارائه دهنده کلیه راهکارهای ذخیره سازی و بکاپ EMC آمادگی خود را برای تامین نیازهای مشتریان اعلام می دارد.

شماره تماس: 88884268 – 021

ایمیل: info@vcenter.ir


  • 0

دلایل مهاجرت و مجازی سازی سرور ها

مجازی سازی سخت افزارها مدتی است که توجه سازمان ها و شرکتها را به خود جلب کرده است برای برخی شرکتها یک تکنولوژی جدید و برای آن دسته از شرکتها که از آن استفاده می کنند ادامه مسیر بدون آن غیر ممکن است که ترجیح می دهند هرگز به ساختار قبلی باز نگردند.

مجازی سازی سرورها تکنولوژیی بود که بازی را در حوزه IT تغییر داد . تا با فراهم آوری مزایا و قابلیت های جدید که در دنیای فیزیکی غیر ممکن بود و همچنین کامل نمودن خودش روز به روز جایگاه خود را در دنیای IT محکم تر نماید.

مزیت ها و قابلیت های زیادی برای مجازی سازی سرورها می توان در نظر گرفت. اگر هنوز به دنیای مجازی مهاجرت نکرده اید و یا در صدد کامل نمودن ساختار مجازی خود هستید ما ۱۰ دلیل ومزیت اصلی استفاده از این تکنولوژی را برای شما فراهم نموده ایم.

ذخیره انرژی، ساختار سبز تر

کدام سازمان به دنبال کاهش مصرف انرژی نیست! مهاجرت از سرورهای فیزیکی به سرورهای مجازی به معنی کاهش تعداد سرورهای فیزیکی و کاهش هزینه انرژی و سیستم های خنک کننده ی دیتا سنتر ها و اتاق های سرور خواهد بود این یکی از برگ های برنده این تکنولوژی در سال ۲۰۰۰ بود که طی سال ها بهبود چشمگیری نموده است.

شماره ۱۰ | No 10

کاهش هزینه سرور ها و مراکز داده

در تکمیل گزینه قبلی این مورد نیز حایز اهمیت است که علاوه بر کاهش هزینه و مصرف، انرژی مجازی سازی هزینه اتاق های سرور و دیتا سنتر ها را بشدت کاهش می دهد کاهش تعداد سرورها، کاهش تعداد رک ها، شبکه های ساده تر و کاهش هزینه سخت افزار  مواردی هستند که باعث کاهش هزینه اتاق سرورها و اندازه آنها و هرچه سبز تر شدن آنها می شود.

شماره ۰۹ | No 09

ساخت محیط های لابراتوار

یکی از ملزمات شبکه های متوسط و بزرگ وجود محیط های ایزوله برای تست و خطا یابی سیستم ها و نرم افزارها ، قبل از استفاده نمودن آن در محیط واقعی است. در شبکه های فیزیکی این محیط ها بسیار هزینه بر و برپا سازی آن زمان بر خواهد بود اما در محیط های مجازی می توان به سرعت و با صرف هزینه اندک اقدام به راه اندازی محیط تست و ایزوله نمود.

شماره ۰۸ | No 08

تامین سریع زیرساخت و سرور

هر شرکتی تجربه استفاده و راه اندازی از سرویس دهنده های جدید را حداقل چند بار تجربه کرده است. پروسه ای که مهمترین قسمت آن، بعد از بررسی نیازمندی ها و انتخاب نرم افزار، تامین زیرساخت (سرور) آن می باشد پروسه تامین سرور در شبکه های سنتی پروسه ای است که نیازمند صرف هزینه و معمولا زمان بر است. یکی از ویژگی های مجازی سازیِ سرور تامین سرور یا ماشین مجازی در کوتاه زمان ممکن است پروسه که به پروسه (NEXT>NEXT>NEXT ) معروف است. ساده، کارامد. با صرف هزینه اندک و در کوتاه ترین زمان ممکن. خرید ارزان ترین سرور ها ی استاندارد میلیون ها تومان هزینه در بر دارد که بار دیگر مجازی سازی در کاهش هزینه نقش خود را نشان می دهد.

به دلیل اهمیت این پروسه اجازه دهید نگاه دقیق تری به این مورد داشته باشیم .

ابتدا نگاهی به پروسه در ساختار سنتی یا فیزیکی خواهیم داشت

  • انتخاب و بررسی نرم افزار
  • درخواست به بخش IT برای فراهم آوری زیرساخت فیزیکی (سرور)
  • انتخاب سرور با توجه به بودجه و نیازمندی های نرم افزاری
  • تهیه و خرید سرور
  • پروسه انتخاب و راه اندازی سرور
  • قرار گیری در رک و تامین ( برق، شبکه، فضا، سیستم خنک کننده و …)
  • نصب نرم افزار و راه اندازی آن

بدون در نظر گرفتن هزینه، در بهترین شرایط کاری این پروسه روزها و شاید هفته ها زمان نیاز داشته باشد اما بررسی این پروسه در ساختار مجازی بسیار جالب خواهد بود .

پروسه فوق در ساختار مجازی

  • مورد اول و دوم در هر دو پروسه یکسان است
  • نصب سیستم عامل به عنوان ماشین مجازی سازی و نصب نرم افزار

با ساختار مجازی یکی از پروسه های زمان بر و پر هزینه به راحتی پیاده سازی میشود. پروسه ای که درآن حتی می توان از قالب های آماده، کپی از سرورهای موجود و استفاده از ماشین های مجازی آماده، زمان اجرای آن را به چند دقیقه کاهش داد.

شماره ۰۷ | No 07

استفاده از برند های گوناگون در کنار هم

شاید استفاده از برند های یکسان در تجهیزات سرور، نقص محسوب نشود، اما مجازی سازی سرور با توجه به وابسته نبودن به یکسان بودن سرور ها و زیرساخت، انعطاف پذیری بالایی دارد که کمک حال هر مدیر شبکه و شرکت خواهد بود استفاده از چندین برند مختلف سرور در دیتا سنترها امری است اجتناب ناپذیر که با انعطاف پذیر بودن زیر ساخت مجازی، نگرانی بابت این مورد نیز وجود نخواهد داشت.

شماره ۰۶ | No 06

بالا بردن Uptime (زمان سرویس دهی مداوم)

زیرساخت های مجازی امروزه قابلیت ها و مزایای ویژه ای را ارائه می دهند که در ساختارهای سخت افزاری وجود ندارند و به بالا بردن Uptime کمک شایانی می کند. و تقریبا نرم افزار تمامی شرکت های فعال در زمینه مجازی سازی امکانات زیر را ارائه می دهند

  • Live Migration (مهاجرت زنده)
  • Storage Live Migration (مهاجرت زنده فضای ذخیره سازی)
  • Fault Tolerant (تحمل خطا)
  • High Availability (در دسترس بودن)
  • DRS (تخصیص پویا و پراکنده منابع با قابلیت زمان بندی)

این قابلیت ها کمک می کند تا بتوان یک ماشین مجازی را به سرعت از بحران و شرایط غیر قابل پیش بینی به سرویس دهی باز گرداند. یا جابجایی یک ماشین مجازی از سروری به سرور دیگر یا حتی از مراکز داده ای به مرکز داده دیگر (صرف نظر از نوع لینک ارتباطی) می توان از بحران های گوناگون به سلامت عبور نمود.

شماره ۰۵ | No 05

بهبود مواجهه با شرایط بحران

استفاده از مجازی سازی ۳ مزیت اصلی در مواجهه با شرایط بحران دارد که عبارتند از:

شماره ۰۴ | No 04

سخت افراز انتزاعی

با حذف وابستگی به سخت افراز مشخصا دیگر نیازی نیست تا سایت Recovery نیز از لحاظ سخت افزاری مشابه سایت اصلی باشد و بخش IT می تواند با استفاده از سخت افزار ارزان تر در سایت DR، در هزینه صرفه جویی نماید .

شماره ۰۱ | No 01

کاهش سرور ها و سخت افزار

می توان با تقویت سرورها و کاهش تعداد آنها با هزینه های به مراتب کمتر اقدام به ایجاد سایت های DR نمود.

شماره ۰۲ | No 02

نرم افزارهای مجازی سازی

نرم افزارهای مجازی سازی با  قابلیت های خودکار سازی می توانند به سرعت و خودکار در صورت تشخیص خطا، سایت DR را فعال نمایند حتی در این نرم افزارها قسمت تست نیز تعبیه شده تا قبل از وقوع بحران بتوان ساختار را مورد بررسی و تست قرار داد تا ساختار را برای مواجه با شرایط بحران آماده نمود. پروسه ای که در دنیای فیزیکی به اما و اگر های زیادی وابسته بود و همیشه ترس از صحت عملکرد سایت DR احساس می شود.

شماره ۰۳ | No 03

ایزوله سازی نرم افراز ها

در ساختار سنتی مراکز داده معمولا از استراتژی یک سرور / یک نرم افزار برای ایزوله سازی استفاده می شد که باعث می شد هزینه گزافی در بر داشته باشد ضمن آنکه از توان سرورها استفاده چندانی نمی شد. اما مجازی سازی سرورها این فرصت را در اختیار شرکت ها قرار می دهد تا با استفاده بهینه از سخت افزار، کاهش تعداد سرورهای فیزیکی و بهبود مدیریت منابع کمک بزرگی در رفع این مشکل نماید .

شماره ۰۳ | No 03

افزایش چرخه عمر نرم افزار ها (Life Cycle)

صادقانه باید پذیرفت شما هم شاید همچنان از نرم افزاری استفاده می کنید که در یکی از این دسته ها قرار دارد.

  • بر روی سیستم عامل های جدید اجرا نمی شود.
  • روی سخت افزار های جدید اجرا نمی شود.
  • سیستم IT کاری برای آن نمی تواند انجام دهد.
  • شخصی که آن نرم افزار را ایجاد نموده است دیگر در مجموعه حضور ندارد تا آن را بروز رسانی نماید.

با مجازی سازی سرور ها و کپسول نمودن نرم افزار و محیط کاری آن علاوه بر امنیت می توانید از نرم افزارهای قدیمی خود همچنان استفاده نمائید و در دنیای مجازی خود گوشه ای را به سیستم های Pentium قدیمی اختصاص دهید. سرور هایی که در گوشه اتاق سرور مدت هاست که خاک می خورد و کسی به سراغ آنها نمی رود.

شماره ۰۲ | No 02

حرکت به سوی ابر (رایانش ابری/Cloud Computing)

شاید این اسم را به تازگی بیشتر می شنوید و از قابلیت های آن تا حدودی آگاهی دارید با مجازی سازی و رفع وابستگی به سخت افزار اولین قدم را در پا نهادن به این عرصه برداشته اید. دومین قدم بعد از مجازی سازی داشتن ابر داخلی خودتان خواهد بود .

شماره ۰۱ | No 01


  • 0

تبدیل ماشین های فیزیکی به مجازی با VMware Converter

از ورژن پنجم VMware Converter این محصول دیگر به عنوان یک Plugin روی vCenter نصب نمیشود و فایل Setup جداگانه ای دارد. این محصول را میتوانید از سایت VMware دانلود کنید. در این پست یک ماشین مجازی Hyper-V را در ساختار vCenter به یک ماشین مجازی VMware تبدیل میکنیم.

 

VMware Converter را باز کنید و روی Convert Machine کلیک کنید.

 

تبدیل ماشین های فیزیکی به مجازی با VMware Converter

 

در قسمت Source نوع Hyper-V را انتخاب کنید و اطلاعات درخواستی مانند نام سرور و یوزر و پسورد را نیز وارد کنید.

 

تبدیل ماشین های فیزیکی به مجازی با VMware Converter

 

برای تبدیل ماشین مجازی، VMware Converter چند Agent را به صورت موقت روی آن نصب میکند. در این قسمت تعیین کنید که این Agent ها به صورت خودکار حذف شوند یا خودتان آنها را حذف میکنید.

 

تبدیل ماشین های فیزیکی به مجازی با VMware Converter

 

سپس تمام VM های Hyper-V موجود روی سرور مورد نظر نمایش داده میشوند. VM ای که میخواهید تبدیل کنید را انتخاب کنید و Next را بزنید. در اینجا ما یک ماشین مجازی Windows 7 را انتخاب کردیم.

 

تبدیل ماشین های فیزیکی به مجازی با VMware Converter

 

در صفحه Destination System نوع ماشین مقصد را VMware Infrastructure virtual machine انتخاب کنید و اطلاعات سرور را نیز بنویسید. اگر با پیغام خطای Certificate مواجه شدید روی Ignore کلیک کنید.

 

تبدیل ماشین های فیزیکی به مجازی با VMware Converter

 

در قسمت Destination Virtual Machine فهرستی از ماشین های مجازی در vCenter قابل مشاهده است. نامی برای این VM بنویسید و Next را بزنید.

 

تبدیل ماشین های فیزیکی به مجازی با VMware Converter

 

در قسمت بعد مشخص کنید که این VM روی کدام سرور ESX قرار گیرد. در سمت راست هم Datastore مورد نظر و ورژن VM را مشخص کنید.

 

تبدیل ماشین های فیزیکی به مجازی با VMware Converter

 

در این قسمت تنظیمات VM را مطابق با میل تان تغییر دهید و Next را بزنید.

 

تبدیل ماشین های فیزیکی به مجازی با VMware Converter

 

در نهایت نیز بعد از مرور تنظیمات خود روی Finish کلیک کنید. بسته به سایز ماشین مجازی عملیات تبدیل ممکن است از چند دقیقه تا چند ساعت طول بکشد.

 

تبدیل ماشین های فیزیکی به مجازی با VMware Converter      

    تبدیل ماشین های فیزیکی به مجازی با VMware Converter

 

در آخر شما باید با یک تیک سبز رنگ مواجه شوید. ماشین مجازی هم از کنسول vCenter قابل مشاهده خواهد بود.

 

تبدیل ماشین های فیزیکی به مجازی با VMware Converter         


  • 0

راه اندازی VMware View در استوریج NetApp

راه اندازی VMware View در استوریج NetApp

استوریج-NetApp-Storage-1

محتوای کلی

  • معرفی VMware View  در استوریج های NetApp
  • اهداف کلی
  • سناریوی اجرایی
  • محیط اجرایی
  • نرم افزار های مورد نیاز
  • راه اندازی و پیکربندی شبکه
  • راه اندازی شبکه در سوییچ های سری NEXUS سیسکو
  • Storage VLAN برای NFS
  • شبکه VMware View
  • نصب و راه اندازی کنترلر های استوریج NetApp برای VMware vSphere
  • نصب فیزیکی کنترلر استوریج NetApp 2000-SEAT
  • نصب شبکه کنترلر استوریج NetApp
  • کانفیگ کردن NFS Trunk
  • پیکربندی دیسک کنترلر استوریج NetApp
  • پیکربندی Logical های استوریج
  • پیکربندی SSH استوریج NetApp
  • پیکربندی FLEXSCALE برای ماژول Performance Acceleration به اصطلاح PAM
  • پیکربندی Virtual Machine Datastore Aggregate
  • تغییر Aggregate Snapshot Reserve برای تولید مجموع VMware View
  • نصب و راه اندازی استوریج NetApp با استفاده از RCU 0
  • ایجاد یک Volume برای میزبانی از ماشین مجازی Template
  • پیکربندی Snapshot Copy ها و Optimal Performance
  • پیکربندی های دیگر مربوط به کنترلر A استوریج
  • پیکربندی های دیگر مربوط به کنترلر B استوریج
  • ایجاد Volume ها برای میزبانی Clone های لینک شده و CIF User Data
  • غیرفعال کردن Default Snapshot Schedule و تنظیم کردن SNAP Reserve روی صفر
  • پیکربندی Performance برای VMDK ها در NFS
  • نصب VMware vSphere بر روی هاست
  • پیکربندی سرور فیزیکی
  • نصب لایسنس های مورد نیاز
  • نصب vSphere
  • نصب و راه اندازی VMware vCenter Server
  • کانفیگ کردن Service Console برای فعال سازی Redundancy
  • راه اندازی VMware Kernel NFS Port
  • پیکربندی vMotion
  • تنظیمات مربوط به شبکه VMware vSphere Host
  • اضافه کردن Datastore ماشین مجازی Template در هاست vSphere
  • اضافه کردن View SWAP Datastore در هاست vSphere
  • کانفیگ کردن مکان نگهداری Virtual SWAPFILE Datastre
  • پیکربندی محیط ESX با VSC
  • راه اندازی VMware View Manager 4 و VMware View Composer
  • نصب و پیکربندی Image ویندوز XP
  • ایجاد یک ماشین مجازی در VMware vSphere
  • فرمت بندی ماشین مجازی با اندازه پارتیشن های مورد نظر
  • دانلود و آماده کردن درایور LSI 53C1030
  • چک لیست نیازمندیهای قبل از نصب ویندوز XP
  • نصب و پیکربندی ویندوز XP
  • تولید سریع ماشین های مجازی ویندوز XP در محیط VMware View با استفاده از RCU
  • راه اندازی Clone های لینک شده
  • معرفی کردن کاربران و گروهها به Desktop Pool ها
  • نصب FLEXSHARE (اختیاری)
  • تست روند کار VMware View و استوریج NetApp
  • جایگزین کردن استوریج با 10,000 SEAT
  • مراجع

 

 

اهداف کلی

هدف این مقاله نصب و راه اندازی مرحله به مرحله VMware View بر روی استوریج های سری FAS2040 و FAS3100 و FAS6000 شرکت NetApp که بصورت کلاستر شده HA هستند و در شبکه ای با وجود سوییچهای NEXUS 5000 و NEXUS 7000 سیسکو می باشد. این مقاله به جزییات کلی راه اندازی ساختار دسکتاپ مجازی Windows XP خواهد پرداخت.

استوریج در این ساختار 100,000 SEAT را پشتیبانی خواهد کرد. از این مقاله صاحبان صنایع و کارخانه ها می توانند استفاده کنند تا بتوانند دید جامعی در خصوص تکنولوژیهای نوین دسکتاپ پیدا کنند.

جهت کسب اطلاعات بیشتر و یا مشاوره فنی با کارشناسان شرکت کلیک کنید.

مشاوره فنی رایگان

این مقاله یک سناریوی راه اندازی ترکیبی را که در آن کاربران مختلف با دسکتاپ های مختلف در ارتباط هستند و قابلیتهایی مانند Storage Efficienc و Performance و Data Protection و نیز سادگی در عملیات مورد خواست می باشد. جدول ذیل محیط یک مشتری فرضی را مخلوطی از کاربران می باشد را نشان می دهد. نیازمندیهای مخصوص کاربران مختلف براحتی و با استفاده از ارائه دسکتاپ های مختلف با نرم افزار VMware View Manager پاسخ داده می شوند و این در سایه دو تکنولوژی NetApp Rapid Cloning Utility و VMware Linked Clone Technology میسر می شود.

 

جدول 1)  RCU and linked clones deployment mix

توزیع ماشین های مجازی تعداد ماشین های مجازی
تعداد ماشین های مجازی تولید شده توسط RCU 3.0 1,000
تعداد ماشین های مجازی تولید شده توسط Linked Clones 1,000

 

جدول 2) جزییات تعداد ماشین های مجازی تولید شده توسط VMware Linked Clone

توزیع ماشین های مجازی تعداد ماشین های مجازی
تعداد ماشین های مجازی در حالت دسترسی  Linked Clone Persistent 500
تعداد ماشین های مجازی در حالت دسترسی  Linked Clone Nonpersistent 500
تعداد کل ماشین های مجازی تولید شده توسط Linked Clones 1,000

 

این سناریو بر روی دستیابی به Storage Efficiency در لایه های مختلف و نیز Performance Acceleration را برای هرگونه سناریو تولید در محیط های مختلف تمرکز کرده است.

جدول زیر محیط فعالیت یک مشتری فرضی را نشان می دهد که دارای کاربران مختلف با نیازمندیهای مختلف از لحاظ مقدار استفاده دیتا و مقدار دیتا هاست شده و دسکتاپ های مجازی دارند.

جدول زیر به تفاوتهای فرآیند تولید از طریق NetApp RCU 3.0 و VMware Linked Clone نیز اشاره ای دارد.

جدول 3 ) انواع سناریو های راه اندازی VMware View

پروفایل کاربر نیازمندیهای کاربری تعداد ماشین های مجازی VMware View Manager Desktop Delivery Model Access Mode Deployment Solution
مالی – بازاریابی – مشاوره   قابل تغییر ، دسکتاپ های شخصی شده با استفاده از ترکیب اداره ای و یا خصوصی شده ، قابلیت دانلود Application های مختلف و استفاده ار بسیاری از Application های از پیش نصب شده بر روی سیستم و نیز قابلیت نگهداری از فایلهای دیگری بر روی سیستم بجز پچ ها و سیستم عامل و User Data می باشد. 500 Manual desktop pool Persistent NetApp RCU 3.0
برنامه نویسان   ترکیبی از نرم افزارهای اداری معمولی و نرم افزارهای خاص Enterprise مخصوص برنامه نویسی را ساپورت می کنند و همچنین قابلیت اضافه کردن نرم افزار و App جدید هستند.این سیستم قابلیت نگهداری از فایلهای دیگری بر روی سیستم بجز پچ ها و سیستم عامل و User Data می باشد. 500 Manual desktop pool Nonpersistent NetApp RCU 3.0
نیرو های Helpdesk و افراد Call Center   این کاربران فقط بر روی یک Application خاص کار می کنند و نیازی به فراهم بودن قابلیت تغییر ندارند. دارای دسکتاپ شخصی سازی شده و نیازی به نگهداری اطلاعات دیگر بر روی سیستم نمی باشند و اطلاعات این سیستم ها در جایی دیگر Protect می شوند. 500 Automated desktop pool Persistent VMware linked clones

 

 

پروفایل کاربر نیازمندیهای کاربری تعداد ماشین های مجازی VMware View Manager Desktop Delivery Model Access Mode Deployment Solution
واحد آموزش و دانش آموزان  دسکتاپ های موقت برای دوره های زمانی آموزش و نیازمند دسکتاپ کاملا تمیز و جدید و نیازی به Customization و شخصی سازی دسکتاپها و یا سیستم عامل و اطلاعات کاربری نمی باشد. 500 Automated desktop pool Nonpersistent VMware linked clones

 

سناریوی نصب

در این سناریوی راه اندازی محیط 2000 کلاینتی در یک دستگاه استوریج NetApp FAS کلاستر شده و با پروتکل NFS را نشان خواهیم داد. نصب و راه اندازی 1000 کلاینت از طریق تکنولوژیهای NetApp و 1000 کلاینت از طریق VMware Linked Clone می باشد. البته هر دو مدل تولید VDI یعنی Persistent و nonpersistent بطور کامل Highight شده است. این پیکربندی می تواند بر روی دستگاههای استوریج NetApp مدلهای FAS2040 ، FAS3100 و FAS6000 و همچنین سری های NetApp/V نیز قابل راه اندازی می باشد. از یک دستگاه FAS3160A استفاده می کنیم.  در انتهای این مقاله جدولی شامل کلیه نیازمندیهای استوریج را ارائه خواهیم کرد.

این سناریو از NetApp FAS3160 HA بصورت جفت در محیط اصلی خود استفاده کرده است. این پروژه از 50 درصد Read/Write بصورت ترکیبی و از حداقل 20 درصد منابع پردازنده در هر کنترلر خود استفاده می کند و پیش بینی می شود که هر ماشین مجازی دارای 2 گیگابایت فضای استوریج و از 8 IOPS در پیکربندی خود استفاده کند. با این برآورد یک مجموعه 7000 کلاینتی در یک دستگاه NetApp FAS3160 قابلیت اجرا شدن را دارند.

بدلیل اینکه کابران متفاوت هستند و این 7000 کاربر به عنوان مرجع ما در این مقاله استفاده می شود.

 محیط اجرایی

به این نکته توجه داشته باشیم که لایسنس های مورد نیاز برای کنترلر های NetApp و محصولات VMware و نیز ویندوزهای XP باید خریداری گردند تا بتوان قابلیت های ذکر شده را راه اندازی کرد.

همچنین برای دستگاهای سیسکو Nexus 5000 و 7000 نیز لایسنس Virtual Port Channel cPCs را تهیه نمود. در آخر نیز باید دقت کنیم که دستگاه UCS Cisco نیز باید لایسنس گردد. از لایسنس های Trial می توان نمودن موارد کوچک استفاده نمود.

 

نرم افزار های مورد نیاز پروژه

NetApp System Manager 1.01

NetApp Rapid Cloning Utilities (RCU) 3.0

VMware vSphere™ (ESX 4.0 and vCenter™ Server 4.0)    VMware View Manager and Composer 4.0

NetApp Virtual Storage Console (VSC) 1.0

 

 نصب و پیکربندی شبکه

به دلیل قابلیتهای ذکر شده در این سناریو ما از سوییچهای Nexus 5020  و 7000 استفاده می کنیم. به جهت پیچیدگی و متنوع بودن محیط های شبکه سازمانها ما نمی توانیم یک راهکار معمولی مشخص برای راه اندازی کل شبکه ها داشته باشیم برای کسب اطلاعات بیشتر از وضعیت پیکربندی های شبکه ای می توانید به سایت TR-3749: NetApp and VMware vSphere Storage Best Practices مراجعه فرمایید.

 

Below is a list of the topics that are covered in depth in the networking section in TR-3749: Traditional Ethernet switch designs

Highly available storage design with traditional Ethernet switches vSphere networking with multiple virtual machine kernel ports

vSphere with multiple virtual machine kernel, traditional Ethernet, and NetApp networking with single-mode VIFS

vSphere with multiple virtual machine kernel, traditional Ethernet, and NetApp networking with multilevel VIFS

Cross-stack EtherChannel switch designs

Highly available IP storage design with Ethernet switches that support cross-stack EtherChannel EtherChannel vSphere networking and cross-stack EtherChannel

vSphere and NetApp with cross-stack EtherChannel Datastore configuration with cross-stack EtherChannel

 

Detailed below are the steps used to create the network layout for the NetApp storage controllers and for each vSphere host in the environment.

 

2.1            NETWORK SETUP OF CISCO NEXUS NETWORK SERIES

For the purposes of this deployment guide, a network design with two Cisco Nexus 7000 switches and two Cisco Nexus 5020 switches was used. All of Cisco‘s best practices were followed in the setup of the Nexus environment.  For more information on configuring a Cisco Nexus environment, visit http://www.cisco.com.

 

The goal in using a Cisco Nexus environment for networking is to integrate its capabilities to logically separate public IP traffic from storage IP traffic. In doing this, the chance of issues developing from changes made to a portion of the network is mitigated.

 

Since the Cisco Nexus 5020 switches used in this configuration support vPCs and Nexus 7000 switches are configured with a VDC specifically for storage traffic, logical separation of the storage network from the rest of the network is achieved while providing a high level of redundancy, fault tolerance, and security. The vPC provides multipathing, which allows you to create redundancy by enabling multiple parallel paths between nodes and load balancing traffic where alternative paths exist.

 

Alternatively, instead of a two Nexus 7000‘s two Nexus 5020‘s can be used instead. With this configuration, vPC‘s can be configured as well for network segmentation using VLAN‘s.  Using this configuration will reduce the network cost significantly, but also not allow for VDC network segmentation.

Details in diagrams below are for a pure 10GbE environment. On the Nexus network perform the following configurations:

Set up a Pier Keep Alive Link as a management interface between the two Nexus 7000 switches.

On the default VDC on the Nexus 7000 switches, be sure to enable a management VLAN for the service console, a public VLAN for the virtual machine network, and a private, nonroutable VLAN for VMotion™.

In order to isolate and secure the NFS traffic, create a separate VDC on the Nexus 7000 switches for NFS traffic. Assign ports to this VDC and configure these ports for a private, nonroutable VLAN.*

Create virtual port channels between the Nexus 5020 switches for the public VLAN, service console VLAN, NFS VLAN, and the VMotion VLAN.

*Note: This is an optional configuration. If you do not use this configuration or have this option available, create an additional private, nonroutable VLAN.

 

2.2            STORAGE VLAN FOR NFS

If you are using VDC‘s on the Nexus 7000‘s, be sure to configure a nonroutable VLAN on a separate VDC for the NFS storage traffic to pass to and from the NetApp storage controllers to the vSphere hosts. With this setup the NFS traffic is kept completely contained, and security is more tightly controlled.

Also, it is extremely important to have at least two physical Ethernet switches for proper network redundancy in your VMware View environment. Carefully plan the network layout for your environment, including detailed visual diagrams detailing the connections for each port.

 

2.3               VMWARE VIEW NETWORK

When creating a VMware View environment that contains several hundred or several thousand virtual machines, be sure to create a large enough DHCP scope to cover the number of IP addresses that will be needed by the clients. This step should be planned well before implementation.

استوریج NetApp پیکربندی کلی

 

 

Figure 1) NetApp storage controller VIF configuration for 10GbE.

 

3           NETAPP STORAGE CONTROLLER SETUP FOR VMWARE VSPHERE

Perform all of the steps listed below on both controllers of the NetApp system. Failure to do so could result in inconsistencies and performance problems within the environment.

 

3.1            NETAPP CONTROLLER 2,000-SEAT PHYSICAL CONFIGURATION

Table 4) NetApp solution configuration.

NetApp System Components Number and/or Type Slot on Each NetApp Controller Part Installed In
Disk shelves required 2 (totaling 48 FC SAS disks; 1 shelf per controller) N/A
Size and speed of hard disk in shelves 450GB @ 15K RPM* N/A
Disk shelf type DS4243 N/A
Dual-port 10GB Ethernet NIC 4 (2 per controller) 2 and 3
Quad-port Fibre Channel card 4/2/1 2 (one per controller) 4
Performance Acceleration Module (PAM) 2 (one per controller) varies
NFS licenses 2 (one per controller) N/A
FlexClone® licenses 2 (one per controller) N/A
FlexShare® licenses (optional) 2 (one per controller) N/A

 

*If the deployment will not have a CIFS component, 300GB SAS drives can be substituted.

 

 

For the purposes of this configuration, the basis for the design architecture is eight IOPs per virtual machine. This number might vary per environment and for different user types. For further details on sizing best practices, check NetApp TR-3705.

 

3.2            NETWORK SETUP OF NETAPP STORAGE CONTROLLER

In order to achieve optimal performance, maximize the number of Ethernet links for both controllers in the NetApp cluster. Below are the guidelines for setting up the network for both storage controllers.

Table 5) Network setup of NetApp controller.

Step Action
1 Connect to the NetApp storage controllers using System Manager.
2 Please use the diagrams above for a reference on how to configure the cabling for the FAS storage controller.For 10GbE connections, please ensure that one interface from each of the two dual-port NICs are going to separate Cisco Nexus 5020 switches. In total two connections should go to Cisco Nexus 5020 A and two should go to Cisco Nexus 5020 B.Please use this setup on both FAS storage controllers in the cluster.

 

 

Step Action
3 The ports that these interfaces are connected to on the switches must meet the following criteria:a.        They must be on the nonroutable VLAN created for NFS network traffic.b.        They must be configured into a trunk, either manually as a multimode VIF or dynamically as an LACP VIF.c.        If LACP is used, then the VIF type must be set to static LACP instead of multimode on the NetApp storage controller.Note: For the purposes of this document we use the 192.168.0.0/24 network for the private subnet for NFS and the 192.168.1.0/24 network for the private subnet for VMotion.a.        The NetApp storage controller IP address range is from 192.168.0.2 through 192.168.0.10.b.        The vSphere NFS VMware kernel IP address range is 192.168.0.11through 192.168.0.254.c.     The VMware VMotion-enabled VMware kernel IP address range is 192.168.1.11 through 192.168.1.254.

 

 

3.3               CONFIGURE NFS TRUNK

Table 6) Configure the NFS trunk on the NetApp storage controller.

Step Action
1 Connect to the NetApp storage controllers using System Manager.             Figure 2) System Manager trunk configuration.

 

 

Step Action
2 Select Next at the first Create VIF Wizard screen.Figure 3) System Manager Create VIF Configuration Wizard.
3 At the next screen, name the VIF, select the four 10GbE NICs, choose the LACP option, and select Next.Figure 4) System Manager VIF parameters.

 

 

Step Action
4 At the next screen, select IP based as the load balancing type and select Next.Figure 5) System Manager load balancing type.
5 At the VIF Interface Parameters screen enter the IP address and the subnet mask and select Next.Figure 6) System Manager VIF interface parameters.

 

 

Step Action
6 At the final screen, please select ―Finish‖ to build the VIF.Figure 7) System Manager Create VIF Wizard completion.
7 Once this is done, please determine that the VIF is enabled. The VIF created should appear as an entry similar to the one below.Figure 8) System Manager VIF created.

 

Note: Repeat these steps for the two remaining ports. Be sure that one NIC is on switch A and the other is on switch B. These ports will be used for CIFS and management traffic and should be set up using VLAN tagging.

 

3.4            OVERVIEW OF THE NETAPP STORAGE CONTROLLER DISK CONFIGURATION

The figure below shows the disk layout for both of the NetApp storage controllers. To meet the performance and capacity needs of this configuration, each controller has one aggregate (aggr0 for root and for hosting production virtual machines) with the required number of spindles and enough spares disks that can be easily added later to the aggregates to deal with unknowns.

 

 

Figure 9) NetApp storage controller disk configuration.

 

 

 

3.5            OVERVIEW OF THE LOGICAL STORAGE CONFIGURATION

The figure below shows the logical storage layout for the 2,000-seat configuration:

Controller A hosts 1,000 virtual machines created using NetApp RCU 3.0 and is part of a manual desktop pool, with 500 in persistent access mode and 500 in nonpersistent access mode.

Controller B hosts, 1000 virtual machines created using VMware linked clones and is part of an automated desktop pool with 500 in persistent access mode and 500 in nonpersistent access mode.

The virtual machine swap file (vswap) datastore on storage controller A hosts the virtual machine swap file for all 2,000 virtual machines. The assumption is that the backup of the OS disk is not in the scope of the project for phase 1 of the deployment but might be in phase 2.

Controller B hosts the CIFS share for storing the user data for all 1,000 NetApp RCU 3.0–created virtual machines and also the 500 virtual machines created using VMware linked clones, in nonpersistent access mode. For the 500 virtual machines created using linked clones in persistent access mode, the user data will be hosted on a second datastore.

 

 

Figure 10) NetApp storage controller logical storage configuration.

 

 

FAS Controller A (1,000 NetApp RCU Persistent Desktops)

 

Table 7) NetApp FAS controller A configuration.

VDI Infrastructure Component Number
Total volumes on FAS controller A 8 (including root volume)
FlexClone gold volume 1
FlexClone volumes 4
Volume for virtual machine swap file (vswap) datastore 1
Volume to host template virtual machine (to be used as the source for creating all the NetApp RCU 2.0–based virtual machines) 1

 

FAS Controller B (1,000 Nonpersistent VMware Linked Clones)

Table 8) NetApp FAS controller B configuration.

VDI Infrastructure Component Number

 

 

Total volumes on FAS controller B 9 (including root volume)
FlexClone gold volume 1
FlexClone volumes 2
Volume for hosting linked clone parent virtual machine 1
Volume for hosting OS disk for linked clone virtual machines in persistent access mode 1
Volume for hosting user data disk for linked clone virtual machines in persistent access mode 1
Volume for hosting OS disk for linked clone virtual machines in nonpersistent access mode 1
Volume for hosting CIFS user data 1

 

 

3.6            CONFIGURE NETAPP STORAGE CONTROLLERS’ SSH CONFIGURATION

For both storage controllers, perform the following steps:

Table 9) Configuring SSH.

Step Action
1 Connect to the NetApp storage controller‘s console (via either SSH, telnet, or console connection).
2 Execute the following commands and follow the setup script:secureadmin setup ssh options ssh.enable on options ssh2.enable on

 

3.7            CONFIGURE FLEXSCALE FOR PERFORMANCE ACCELERATION MODULE (PAM)

The Performance Acceleration Module is an intelligent read cache that reduces storage latency and increases I/O throughput by optimizing performance of random read intensive workloads. As a result, disk performance is increased and the amount of storage needed is decreased.

For both storage controllers, perform the following steps:

Table 10) FlexScale configuration.

Step Action
1 Connect to the NetApp storage controller‗s console (via either SSH, telnet, or console connection).
2 To enable and configure FlexScale™, do the following: options flexscale.enable onoptions flexscale.normal_data_blocks on

 

3.8          CONFIGURE VIRTUAL MACHINE DATASTORE AGGREGATE

For both storage controllers, perform the following steps:

Table 11) Creating the VMware aggregate.

Step Action
1 Open NetApp System Manager and click Aggregates.

 

 

Figure 11) System Manager Aggregate Wizard.
2 Right-click aggr0 and then click Edit.Figure 12) System Manager Aggregate—Edit.
3 Select 16 disks from the Disk details screen and move them from Available spare disks to Disks in aggregate.  Select Next.Figure 13) System Manager Aggregate—disk details.
4 Select OK. The disk will then be added to Aggregate 0. This process could take some time, so be patient here.

 

 

 

 

3.9            MODIFY THE AGGREGATE SNAPSHOT RESERVE FOR THE VMWARE VIEW_PRODUCTION AGGREGATE

For both storage controllers, perform the following steps:

Table 12) Modify aggregate Snapshot reserve.

Step Action
1 Connect to the controller‘s console, using either SSH, telnet, or serial console.
2 Set the aggregate Snapshot™ schedule:snap sched –A <aggregate-name> 0 0 0
3 Set the aggregate Snapshot reserve:snap reserve –A <aggregate-name> 0
4 Delete existing Snapshot copies, type snap list -A <vol-name>, and then type:snap delete <vol-name> <snap-name>
5 To log out of the NetApp console, type CTRL+D.

 

4           NETAPP STORAGE SETUP USING RCU 3.0

Some of the steps below can be performed using either RCU 3.0 from inside the vCenter server or System Manager on controller A of the NetApp FAS system. Failure to do so could result in inconsistencies and performance problems with your environment. Note that creation of the gold datastore on controller B is not required because RCU 3.0 uses the template virtual machine in the template datastore as the basis to create the gold datastore on controller B as well.

 

4.1          CREATE A VOLUME TO HOST THE TEMPLATE VIRTUAL MACHINE

Table 13) Create the virtual machine template volume.

Step Action
1 To provision datastores across multiple ESX hosts in a datacenter, In vCenter, right-click on a datacenter,  select NetApp, and then select Provision datastores. Figure 14) RCU 3.0 datastore provisioning
2 At the next screen, select the storage controller you would like to deploy the datastore to. Figure 15) RCU 3.0 datastore provisioning—storage controller selection.
3 Complete the Wizard using the following:

 

Make the size of the volume 50GB. Name the volume rcu_gold.Place the rcu_gold volume on the View_Production aggregate. Enable thin provisioning.Enable auto-grow.o    Enter a Grow increment of 5.o    Enter a Maximum datastore size of 1200. Select Next when all information is entered. Figure 16) RCU 3.0 datastore provisioning—datastore configuration.
4 At the following screen, verify that all information is correct and select Apply. Figure 17) RCU 3.0 datastore provisioning—completion.

 

4.2            CONFIGURE SNAPSHOT COPIES AND OPTIMAL PERFORMANCE

Perform this step for the volume hosting the template virtual machine.

Table 14) Configure Snapshot autodelete for volumes.

Step Action
1 Log into System Manager. Figure 18) System Manager Snapshot copies and performance.
To configure Snapshot copies, highlight the rcu_gold volume, click on Snapshot, and then select

 

 

Configure.Figure 19) System Manager Snapshot copies and performance—configure Snapshot copies.
2 Set the Snapshot reserve percentage to 0 and uncheck the ―Enable scheduled snapshots‖ option. Select Apply and then OK to return to the System Manager main screen.Figure 20) System Manager Snapshot copies and performance—configure Snapshot copies continued.
3 To set optimal performance, highlight the rcu_gold directory, right-click on the directory, and select Edit from the drop-down list.

 

 

Figure 21) System Manager Snapshot copies and performance—configure performance.
4 Click on the Auto Size tab and ensure that both the ―Allow volume to grow automatically‖ and―Delete snapshots automatically‖ boxes are checked.  Then click Apply.Figure 22) System Manager Snapshot copies and performance—configure auto grow.
5 Select the Advanced tab. Ensure that the ―No access time updates‖ option is checked. Also ensure that the ―No automatic Snapshot copy‖ is checked. Once this is complete, click Apply and then OK to return to the main System Manager screen.

 

 

 

4.3            STORAGE CONTROLLER “A” ADDITIONAL SETUP AND CONFIGURATION

 

CREATE THE VOLUME TO HOST VIRTUAL MACHINE SWAP FILES

Table 15) Create the view_swap volume.

Step Action
1 In vCenter, right-click on a vSphere host, select NetApp, and then select Provision datastores.
2 At the next screen, select the storage controller you would like to deploy the datastore to.
3 Complete the Wizard using the following:Make the size of the volume 1100GB. Name the volume view_swap.Place the view_swap volume on the View_Production aggregate. Enable thin provisioning.Enable Auto-grow.o    Enter a Grow increment of 5.o    Enter a Maximum datastore size of 1200. Select Next when all information is entered.
4 At the following screen, verify that all information is correct and select Apply.
5 For a visual reference for the directions above, please refer to table xxx.

 

CONFIGURE THE VOLUME

Table 16) NFS volume configurations.

Step Action
1 Log into System Manager.

 

 

2 To configure Snapshot copies, highlight the view_swap volume, click on Snapshot, and then select Configure.
3 Set the Snapshot reserve percentage to 0 and uncheck the ―Enable scheduled snapshots‖ option. Select Apply and then OK to return to the System Manager main screen.
4 To set optimal performance, highlight view_swap directory, right-click on the directory, and select Edit from the drop-down list.
5 Click on the Auto Size tab and ensure that both the ―Allow volume to grow automatically‖ and―Delete snapshots automatically‖ boxes are checked.  Then click Apply.
6 Select the Advanced tab. Ensure that the ―No access time updates‖ option is checked. Also ensure that the ―No automatic Snapshot copy‖ box is checked. Once this is complete, click Apply and then OK to return to the main System Manager screen.
7 For a visual reference for the directions above, please refer to table 14.

 

5           STORAGE CONTROLLER “B” SETUP AND CONFIGURATION

  • CREATE THE VOLUMES FOR HOSTING LINKED CLONES AND CIFS USER DATA CREATE VOLUME TO HOST OS DATA DISKS IN PERSISTENT ACCESS MODE

Table 17) Create the view_lcp volume.

Step Action
1 Open NetApp System Manager.
2 Select Volumes and then click on Create. Figure 24) System Manager—volume select.
3 On the Details tab enter the following:Make the size of the volume 1300GB. Name the volume view_lcp.Select Storage type as NAS.Place the view_lcp volume on the View_Production aggregate. Set the Total volume size to 1300.Set the Snapshot reserve to 0. Figure 25) System Manager—volume details configuration.
4 Click on the Space Settings tab. Ensure Deduplication is set to Enable and that the Guarantee is set to None. Once this is done, click on Create. The main System Manager screen will appear.

 

 

Figure 26) System Manager—volume space settings configuration.
5 Highlight the newly created volume, right-click on it, and select Edit from the drop-down list.Figure 27) System Manager—volume deduplication configuration start.
6 Click on the Deduplication tab and set the deduplication schedule according to your business needs.

 

 

Figure 28) System Manager—volume deduplication configuration.
7 Click on the Auto Size tab and ensure that both the Volume autogrow and Snapshot autodelete boxes are checked.Figure 29) System Manager—volume autosize configuration.
8 Click on the Advanced tab and ensure that No access time updates and No automatic Snapshot copy are selected.

 

 

Figure 30) System Manager—volume advanced configuration.
9 Click on Apply, then click OK to be returned to the System Manager home screen.

 

CREATE VOLUME TO HOST USER DATA DISKS IN PERSISTENT ACCESS MODE

Table 18) Create the linked clones volume for host user data.

Step Action
1 Open NetApp System Manager.
2 The volume should be created using the following information. Complete the Wizard using the following:Name the volume view_lcp_userdata. Select Storage type as NAS.Place the view_lcp_userdata volume on the View_Production aggregate. Set the Total volume size to 250.Set the Snapshot reserve to 0.
3 Please set the deduplication, autosize, and advanced settings as detailed in the steps above.

 

CREATE VOLUME TO HOST OS DATA DISKS IN NONPERSISTENT ACCESS MODE

Table 19) Create the linked clones host OS data disk volume.

Step Action
1 Open NetApp System Manager.
2 Complete the Wizard using the following:Make the size of the volume 700GB. Name the volume view_lcnp.Select Storage type as NAS.Place the view_lcpn volume on the View_Production aggregate. Set the Total volume size to 700GB.

 

 

Step Action
   Set the Snapshot reserve to 0.
3 Please set the deduplication, autosize, and advanced settings as detailed in the steps above.

 

CREATE THE VOLUME TO HOST CIFS USER DATA

This volume will be used for hosting CIFS user data for virtual machines provisioned using NetApp RCU and linked clones in nonpersistent access mode.

Table 20) Create the CIFS volume to host user data.

Step Action
1 In System Manager, select Volumes.
2 Select Volumes.
3 Select Add to open the Volume Wizard.
4 Complete the Wizard using the following:Name the volume view_cifs. Select Storage type as NAS.Place the view_cifs volume on the View_Production aggregate. Set the Total volume size to 1750.Set the Snapshot reserve to 20%.
5 Please set the deduplication, autosize, and advanced settings as detailed in the steps above.

 

5.2            DISABLE THE DEFAULT SNAPSHOT SCHEDULE AND SET SNAP RESERVE TO ZERO

For all the volumes configured above to contain VMs for controller B (and NOT for the CIFS volume), do the following:

Table 21) Disable default Snapshot schedule and set snap reserve to zero.

Step Action
1 Log into the NetApp console. Figure 31) System Manager—volume deduplication configuration.

 

 

Step Action
2  Figure 32) System Manager—configure volume Snapshot copies for view_lcp volume. Set the volume Snapshot schedule for volumes created above by doing the following:     Ensure that the Snapshot reserve for volumes is set to 0.Uncheck Enable scheduled snapshots.

 

5.3            CONFIGURE OPTIMAL PERFORMANCE FOR VMDKS ON NFS

For all the volumes with NFS exports configured above for controller B, do the following:

Table 22) Set optimal performance for VMDKs on NFS.

Step Action
1 Log in to the NetApp console.
2 From the storage appliance console, run options nfs.tcp.recvwindowsize 64240.

 

 

 

6           VMWARE VSPHERE HOST SETUP

 

6.1            PHYSICAL SERVER CONFIGURATION

Below are the server specifications that were used for this configuration. You might have different servers with different configurations.

Table 23) vSphere host configuration.

Server Component Number or Type
VMware vSphere host 16
Memory per vSphere host 96GB

 

 

Server Component Number or Type
CPUs per vSphere host 2 Intel® Nehalem quad-core CPUs
Network interface cards (NICs) per vSphere host 2

 

6.2            LICENSES NEEDED

Table 24) vSphere licenses needed per 2,000-seat installation.

VMware View Infrastructure Component Number
vSphere Server licenses (1 license needed per 2 CPUs) 32
VMware vCenter Server Licenses 1
VMware View Enterprise Licenses 1,000
VMware View Premier Licenses 1,000
Windows XP licenses 2,000

 

6.3            INSTALL VSPHERE

For information on the installation and configuration of vSphere, refer to the ESX and vCenter Server Installation Guide published by VMware.

Below are guidelines used for this environment when deploying the VMware View infrastructure.

Table 25) VMware View infrastructure components.

VMware View Infrastructure Component Number
Virtual machine per vSphere server 125
Virtual machine per CPU core 15.625
Memory per Windows XP VMware View desktop 512MB

 

6.4            INSTALL VMWARE VCENTER SERVER

For information on the installation and configuration of VMware vCenter Server refer to the ESX and vCenter Server Installation Guide published by VMware.

To obtain licenses for VMware, contact your VMware sales representative.

 

6.5            CONFIGURE SERVICE CONSOLE FOR REDUNDANCY

Table 26) Configure service console for redundancy.

Step Action
1 Make sure that the primary Service Console vSwitch has two NICs assigned to it.Note: The network ports that the NICs use must exist on the administrative VLAN and be on separate switches to provide network redundancy.
2 Open VMware vCenter.
3 Select a vSphere host.
4 In the right pane, select the Configuration tab.  

 

 

Step Action
Figure 33) VMware configuration.
5 In the Hardware box under the Configuration tab, select Networking.Figure 34) VMware networking.
6 In the Networking section, click the Properties section of vSwitch1.Figure 35) VMware networking properties.
7 In the Properties section, click the Network Adapters tab.Figure 36) VMware vSwitch configuration.

 

 

Step Action
8 Click Add at the bottom (pictured above) and select the vmnic that will act as the secondary NIC for the service console.Figure 37) Adding second vmnic to the vSwitch.
9 Click Next (pictured above). At the following screen, verify and click Next, then at the following screen click Finish. At the following screen, click Close.

 

 

Step Action
Figure 38) Adding second vmnic to the vSwitch confirmation. 

 

 

Figure 39) Adding second vmnic to the vSwitch finish.

 

 

Step Action
Figure 40) Adding second vmnic to the vSwitch close.

 

6.6            CONFIGURE VMWARE KERNEL NFS PORT

Table 27) Configure VMware kernel NFS port.

Step Action
1 For each vSphere host, create a separate NFS VMkernel network in the existing virtual switch. The VMkernel will be setup on the private, nonrouteable NFS VLAN created in previous steps. This VLAN can be created on the either the separate VDC on the Nexus 7000 or on a private, nonrouteable VLAN using a vPC on the Nexus 5020 network. For this example, VLAN 350 is used.Note: Currently, VDC is not supported on Cisco Nexus 5000 switches.
2 Use the following assignments for your NFS storage traffic VMware kernel IP addresses. Note: For the storage network the private subnet of 192.168.0.xxx is being used.
vSphere Host 1:192.168.0.11vSphere Host 2:192.168.0.12vSphere Host 3:192.168.0.13vSphere Host 4:192.168.0.14 vSphere Host 5:192.168.0.15vSphere Host 6:192.168.0.16vSphere Host 7:192.168.0.17vSphere Host 8:192.168.0.18 vSphere Host 9:192.168.0.19vSphere Host 10:192.168.0.20vSphere Host 11:192.168.0.21vSphere Host 12:192.168.0.22 vSphere Host 13:192.168.0.23vSphere Host 14:192.168.0.24vSphere Host 15:192.168.0.25vSphere Host16: 192.168.0.26

 

 

4. For the vSwitch for the NFS VMware kernel, set the load balancing policy to ―Route based on IP hash.‖   Figure 41) vSphere host NFS load balancing configuration.

 

6.7            CONFIGURE VMOTION

Table 28) Configure VMotion.

Step Action
1 For each vSphere host, create a separate VMotion VMkernel network in the existing virtual switch. The VMkernel will be setup on the private, nonrouteable VMotion VLAN created in previous steps. For this example, VLAN 350 is used.
2 Use the following assignments for your VMotion VMware kernel IP addresses. Note: For the storage network the private subnet of 192.168.1.xxx is being used.
vSphere Host 1:192.168.1.11vSphere Host 2:192.168.1.12vSphere Host 3:192.168.1.13vSphere Host 4:192.168.1.14 vSphere Host 5:192.168.1.15vSphere Host 6:192.168.1.16vSphere Host 7:192.168.1.17vSphere Host 8:192.168.1.18 vSphere Host 9:192.168.1.19vSphere Host 10:192.168.1.20vSphere Host 11:192.168.1.21vSphere Host 12:192.168.1.22 vSphere Host 13:192.168.1.23vSphere Host 14:192.168.1.24vSphere Host 15:192.168.1.25vSphere Host16: 192.168.1.26

 

6.8            VMWARE VSPHERE HOST NETWORK CONFIGURATION

Depicted below is the way a fully configured network environment will look once all the networking steps above have been completed.

Figure 42) VMware vSphere host configuration example.

 

 

6.9            ADD TEMPLATE VIRTUAL MACHINE DATASTORE TO VSPHERE HOST

Table 29) Add template virtual machine datastore to vSphere hosts.

Step Action
1 Open VMware vCenter.
2 Select a vSphere host.
3 In the right pane, select the Configuration tab. Figure 43) VMware configuration.
4 In the Hardware box, select the Storage link.

 

 

Figure 44) VMware virtual machine swap location.
5 In the upper-right corner, click Add Storage to open the Add Storage Wizard.Figure 45) VMware Add Storage.
6 Select the Network File System radio button and click Next.Figure 46) VMware Add Storage Wizard.
7 Enter a name for the storage controller, export, and datastore (view_rcu_template), and then click Next.

 

 

Figure 47) VMware Add Storage Wizard NFS configuration.
8 Click Finish.Figure 48) VMware Add Storage Wizard finish.

 

6.10         ADD VIEW_SWAP DATASTORE TO VSPHERE HOST

Table 30) Add vdi_swap datastore to vSphere hosts.

Step Action
1 Open vCenter.
2 Select a VMware vSphere host.
3 In the right pane, select the Configuration tab.
4 In the Hardware box, select the Storage link.
5 In the upper-right corner, click Add Storage to open the Add Storage Wizard.
6 Select the Network File System radio button and click Next.
7 Enter a name for the storage controller, export, and datastore (view_swap), then click Next.
8 Click Finish.
9 Repeat this procedure for all the vSphere hosts.

 

 

6.11         CONFIGURE LOCATION OF VIRTUAL SWAPFILE DATASTORE

Table 31) Configure location of datastore virtual swap file.

Step Action
1 Open VMware vCenter.
2 Select a vSphere host.
3 In the right pane, select the Configuration tab. Figure 49) VMware configuration.
4 In the Software box, select Virtual Machine Swapfile Location.  Figure 50) VMware virtual machine swap location.
5 In the right pane, select Edit.
6 The virtual machine Swapfile Location Wizard will open.

 

 

7 Click view_swap datastore and select OK.
8 Repeat steps 2 through 7 for each vSphere host in the vSphere cluster.

 

 

7           CONFIGURING THE ESX ENVIRONMENT WITH THE VSC

 

Step Action
1 Open VMware vCenter.
2 Click on the NetApp tab found in VMware vCenter. Figure 51) NetApp tab.
3 The Virtual Service Console (VSC) should now be visible. A screen similar to the image below should be visible. Figure 52) VSC configuration.
4 Set the Recommended Values by right-clicking on the ESX host and selecting ―Set Recommended Values.‖  Figure 53) VSC configuration—set recommended values.
5 The NetApp Recommended Settings screen should be visible. Leave the defaults checked and select OK. This will begin making the necessary changes to the ESX host.

 

 

Figure 54) VSC configuration—NetApp recommended settings.
6 Once the settings have been changed, the main VSC screen will be visible once again. The status will chance to ―Pending Reboot.‖ Figure 55) VSC configuration—recommended values set.
7 Please reboot the ESX host to finish the configuration changes.

 

 

8           SET UP VMWARE VIEW MANAGER 4.0 AND VMWARE VIEW COMPOSER

VMware View Manager is a key component of VMware View and is an enterprise-class desktop management solution that streamlines the management, provisioning, and deployment of virtual desktops. This product allows security for and configuration of the VMware View environment and allows an administrator to determine exactly which virtual machines a user may access.

View Composer is a component of the VMware View solution and uses VMware linked clone technology to rapidly create desktop images that share virtual disks with a master image to conserve disk space and streamline management.

For setup and configuration details for the different components of VMware View Manager and View Composer, refer to the VMware View Manager Administration Guide.

 

9           SET UP AND CONFIGURE WINDOWS XP GOLD IMAGE

 

9.1            CREATE A VIRTUAL MACHINE IN VMWARE VSPHERE

For the purposes of this portion of the document, follow whatever guidelines you have for both virtual machine size and RAM for your Windows XP virtual machine. For the purposes of this implementation we use 512MB RAM (VMware guidelines for RAM are between 256MB for low end and 512MB for high end). Follow the Guest Operating System Installation Guide by VMware, starting on page 145. Be sure to name this Windows XP virtual machine windows_xp_gold.

 

9.2            FORMAT THE VIRTUAL MACHINE WITH THE CORRECT STARTING PARTITION OFFSETS

 

To set up the starting offset using the fdisk command found in vSphere, follow the steps detailed below:

 

Table 32) Format a virtual machine with the correct starting offsets.

Step Action
1 Log in to the vSphere Service Console.
2 CD to the virtual machine directory and view this directory by typing the following commands (shown below):cd /vmfs/volumes/vdi_gold /windows_xp_gold ls –lFigure 56) Using FDisk for setting offset—navigate to .vmdk directory.
3 Get the number of cylinders from the vdisk descriptor by typing the following command (this number will be different depending on several factors involved with the creation of your .vmdk file):cat windows_xp_gold.vmdk Figure 57) Using FDisk for setting offset—find cylinders of the vDisk.
4 Run fdisk on the windows_xp_gold-flat.vmdk file by typing the following command:fdisk ./windows_xp_gold-flat.vmdk

 

 

Figure 58) Using FDisk for setting offset—starting FDisk.
5 Set the number of cylinders.
6 Type in x and then press Enter.
7 Enter c and press Enter.
8 Type in the number of cylinders that you found from doing step 3.Figure 59) Using FDisk for setting offset—set the number of cylinders.
9 Type p at the Expert command screen to look at the partition table (which should be blank).Figure 60) Using FDisk for setting offset—set view partition information.
10 Return to regular (nonextended) command mode by typing r at the prompt.Figure 61) Using FDisk for setting offset—set cylinder information.

 

 

11 Create a new partition by typing n and then p when you are asked which type of partition.
12 Enter 1 for the partition number, enter 1 for the first cylinder, and press Enter for the last cylinder question to make it use the default value.
13 Go into extended mode to set the starting offset by typing x.
14 Set the starting offset by typing b and pressing Enter, selecting 1 for the partition and pressing Enter, and entering 64 and pressing Enter.
15 Check the partition table by typing p.Figure 62) Using FDisk for setting offset—view partition table to verify changes.
16 Type r to return to the regular menu.
17 To set the system type to HPFS/NTF, type t.
18 For the Hex code, type 7.Figure 63) Using FDisk for setting offset—set system type and hex code.
19 Save and write the partition by typing w. Ignore the warning, which is normal.Figure 64) Using FDisk for setting offset—save and write the partition.
20 Start the virtual machine and run the Windows setup. Make sure to press Esc to bring up the boot menu and select ―CD ROM drive‖ to boot from CD.

 

 

Figure 65) Using FDisk for setting offset—VMware boot screen.If you miss the boot menu, the VM may appear to hang with a black screen with only a blinking cursor. Press ctrl-alt-insert to reboot the VM and try again to catch the boot menu by pressing Escape. If you have trouble catching the boot process above, you can insert a boot delay in the VM settings. In the VI Client, right-click the VM, then à    Edit Settings à   Optionsà    Advanced / Boot Options.Figure 66) Using FDisk for setting offset—advanced boot options.Note that boot delay is in milliseconds. You should return the boot delay to 0 after the VM boots normally from its virtual disk.
21 When the installation gets to the partition screen, install on the existing partition. DO NOT DESTROY or RECREATE! C: should already be highlighted. Press Enter at this stage.

 

  • DOWNLOAD AND PREPARE THE LSI 53C1030 DRIVER

Table 33) Download and prepare LSI 53C1030 driver.

Step Action
1 Download the LSI 53C1030 driver from http://www.rtfm-ed.co.uk/downloads/lsilogic.zip.
2 Using MagicISO or another third-party solution, create a .flp image containing LSI logic drivers. An alternative third-party solution is Virtual Floppy Drive 2.1.
3 Using VMware vCenter 4.0 upload the file to the desired datastore by performing the following steps:a.     At the Summary screen for a vSphere host, double-click the datastore icon to go into the Datastore Browser screen.

 

 

9.4            WINDOWS XP PREINSTALLATION CHECKLIST

Table 34) Windows XP preinstallation checklist.

Step Action
1 Be sure to have a Windows XP CD or ISO image that is accessible from the virtual machine.
2 Using the Virtual Infrastructure Client (VI Client), connect to VMware vCenter.
3 Locate the virtual machine that was initially created and verify the following by right-clicking the virtual machine and selecting Edit Settings:a.     A floppy drive is present.b.     The floppy drive is configured to connect at power on.c.     The device type is set to use a floppy image and is pointing to the LSI driver image.d.     A CD/DVD drive is present and configured to connect at power on.e.     A CD/DVD device type is configured to point at the Windows XP CD or ISO image.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Figure 70) Verify virtual machine settings for virtual floppy drive.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Figure 71) Verify virtual machine settings for virtual floppy drive.

 

9.5            INSTALL AND CONFIGURE WINDOWS XP

 

INSTALL WINDOWS XP

Table 35) Install Windows XP.

Step Action
1 Using the virtual infrastructure client, connect to VMware vCenter Server.
2 Right-click the virtual machine and select Open Console. This will allow you to send input and view the boot process.
3 Power on the virtual machine created earlier by clicking the green arrow icon at the top of the console screen (shown below)..     Figure 72) Power on button.
4 As the Windows setup process begins, press F6 when prompted to add an additional SCSI driver. Specify the LSI logic driver on the floppy image (.flp) at this stage.
5 Perform the installation of Windows XP as normal, selecting any specifics for your environment that need to be configured.
6 Because this is a template, keep the installation as generic as possible.
7 Enter a name for the storage appliance, export, and datastore (view_rcu_template), then click Next.
8 Click Finish.

 

 

CONFIGURE WINDOWS XP*

Table 36) Configure Windows XP.

Step Action
1 Install and configure the VMware tools.
2 If not applied to the installation CD, install the most recent service pack and the most recent Microsoft® updates.
3 Install the connection broker agent.
4 Set the Windows screen saver to blank.
5 Configure the default color setting for RDP by making the following change in the registry:HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\Terminal Server\WinStations\RDP- Tcp – Change the color depth to 4
6 Disable unused hardware.
7 Turn off theme enhancements.
8 Adjust the system for best performance by going to My Computer>Properties>Advanced Tab>Performance Section>Settings.
9 Set the blank screen saver to password protect on resume.
10 Enable hardware acceleration by going toStart>Control Panel>Display>Settings Tab>Advanced Button>Troubleshooting Tab.
11 Delete any hidden Windows update uninstalls.
12 Disable indexing services by going to Start>Control Panel>Add Remove Windows Components>Indexing Service.

 

 

Note: Indexing improves searches by cataloging files. For users who search a lot, indexing might be beneficial and should not be disabled.
13 Disable indexing of the C: drive by opening My Computer, right-clicking C:, and selecting Properties. Uncheck the options shown below: Figure 73) Uncheck to disable Indexing Service on C: drive.
14 Remove system restore points:Start>Control Panel>System>System Restore
15 Disable any unwanted services.
16 Run disk cleanup:My Computer>C: properties
17 Run disk defrag:My Computer>C: properties>Tools

*From Warren Ponder, Windows XP Deployment Guide (Palo Alto, CA: VMware, Inc., 2008), pp. 3–4.

 

 

DISABLING NTFS LAST ACCESS

Table 37) Disabling NTFS last access.

Step Action
1 Log in to the gold virtual machine.
2 Open a CMD window by going to start > run, enter cmd, and press Enter.

 

 

3 At the command line enter the following:fsutil behavior set disablelastaccess 1

 

 

 

CHANGE DISK TIMEOUT VALUE

Table 38) Change disk timeout values.

Step Action
1 Log in to the gold VM.
2 Open a regedit by going to start > run, enter regedit, and press Enter.
3 Find the TimeOutValue by following the path [HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\Disk].
4 Change the key “TimeOutValue”=dword:00000190.
5 Reboot the virtual machine now or at the end of the installation of applications and general system settings.

 

INSTALL APPLICATIONS

Install all the necessary infrastructure and business applications in the gold VM. A few examples include VMware View Agent (if planning to use VMware View Manager) to allow specific users or groups RDP access to the virtual machines, MS Office, antivirus scanning agent, Adobe Reader, and so on.

 

INSTALL VMWARE VIEW AGENT

Install VMware View Agent (if planning to use VMware View Manager) to allow specific users or groups RDP access to the virtual desktops.

 

POWER OFF VM AND CONVERT TO TEMPLATE

After performing all the template customizations and software installations, power off the virtual machine because the customizations and installations need to be powered off to deploy. Then convert the VM to a template. This reduces the risk of accidentally powering on the VM.

 

10       RAPID DEPLOYMENT OF WINDOWS XP VIRTUAL MACHINES IN A VMWARE VIEW ENVIRONMENT USING RCU 3.0

For detailed installation and configuration instructions for RCU 3.0, please see the Rapid Cloning Utility 3.0 Installation and Administration Guide. NetApp highly recommends using RCU 3.0 because further steps in this guide will use RCU 3.0 to create datastores, deploy virtual machines, and configure datastores from vCenter.

 

CREATE CUSTOMIZATION SPECIFICATION

Create a customization specification for use with deployment of the VMs. The customization specification creates the information necessary for sysprep to successfully customize a guest OS from the VMware vCenter Server. It includes information on hostname, network configuration, license information, domain membership, and other information necessary to customize a guest OS. This procedure can be found in the vSphere Basic System Administration Guide on page 180. This customization specification can be used by RCU to personalize each VM. In addition to creating the customization specification, sysprep will need to be downloaded and installed. Procedures to do this can be found in the vSphere Basic System Administration Guide on page 325.

 

DEPLOY SPACE-EFFICIENT CLONES USING RCU 3.0

Using the template virtual machine as the source virtual machine, create the virtual machines using RCU 3.0 in four datastores (250 virtual machines per datastore) on storage controller A in vSphere Cluster A with eight vSphere hosts. These virtual machines will be imported into VMware View Manager as part of a manual desktop pool, in persistent access mode.

RCU will perform the following steps:

  1. Create the clones with file
  2. Clone the datastores with volume
  3. Mount the NFS datastores to the vSphere
  4. Create the virtual machines from the cloned
  5. Customize the virtual machines using the customization
  6. Power on the virtual
  7. Import virtual machines into VMware View

Table 39) Deploy space-efficient clones using RCU 3.0.

Step Action
1 Log into the VMware vCenter Server using  the vCenter                          Client.
2 Once storage controllers have been added, select the inventory button to get back to the servers and VMs. Right-click the VM to be cloned and select ―Create NetApp Rapid Clones.‖ Figure 74) RCU—Create rapid clones.

 

 

Step Action
3 Choose the storage controller with the drop-down arrow and click Next.Figure 75) RCU—Select storage controller.Additionally, if the VMware VI client is not running, select Advanced Options and enter the password for the vCenter Server.
4 Select the data center, cluster, or server to provision the VMs to and select ―Specify the virtual machine folder for the new clones‖ if necessary and select Next.Figure 76) RCU—Select data center, cluster, or server.

 

 

Step Action
5 Select the disk format you would like to apply to the virtual machine clones and click Next.Figure 77) RCU—Select disk format.
6 Enter in the number of clones, the clone name, the starting clone number, and the clone number increment. Then if guest customization is required, select the checkbox and the customization specification that will be applied after the VM has been provisioned. Then choose whether or not the virtual machine will be powered on after the clones are created. Then, if using VMware View, select ―Import into connection broker‖ and choose ―VMware View.‖ Then select Create new datastores if required and click Next.Figure 78) RCU—Specify details of the virtual machine clones.

 

 

Step Action
7 If no datastores are present select Create NFS or VMFS datastore(s).Figure 79) RCU—Create and configure datastores
8 Select the number of datastores to create. Then provide the root of the datastore name, the size of the datastore in GB, and the aggregate that you wish to use for the virtual machines. Then check the box for thin provisioning if needed.  For NFS-based datastores the option to auto- grow the datastore will appear. You can then select the Grow increment size, the Maximum size, and whether or not you would like to provide specific datastore names. Then click Next.Figure 80) RCU— Create and configure datastores continued.

 

 

Step Action
9 After datastore creation RCU will display the datastore that was created. If necessary you can create additional datastores at this time, then click Next.Figure 81) RCU— Create and configure datastores complete.
10 Then select the datastore and click Next.Figure 82) RCU—Select the datastore.

 

 

Step Action
11 If you selected ―Import into connection broker‖ the wizard will ask for the View Server hostname, the Domain name of the view server, the username, and the password. Then you can choose to create either an individual or a manual desktop pool and provide a new or existing pool name. For manual pools, the admin has the option of creating a persistent or a nonpersistent pool.After this has been completed click Next.Figure 83) RCU—Specify the details of the connection broker import.

 

 

Step Action
12 Then review the configuration and if correct click Apply. The provisioning process will now begin. You can use the Tasks window within the vCenter Client to view the current tasks as well as the NetApp storage controller console.Figure 84) RCU—Apply configuration.
13 After creating the virtual machines review the View Manager configuration and entitle users by logging into the VMware View Administrator 4 interface.Figure 85) RCU—Entitle users in VMware View.

 

 

Step Action
14 Select the pool to be entitled—in this case it is the manual nonpersistent pool Helpdesk. Click Entitlements.Figure 86) RCU—Select the pool to be entitled in VMware View.
15 Then on the Entitlements screen click Add.Figure 87) RCU—Open the entitlement screen in VMware View.

 

 

Step Action
16 Select users or groups and either enter Name or Description to narrow down the search and click Find. Then click on the user(s) or group(s) to be entitled. Then click OK.Figure 88) RCU—Select users and groups in VMware View.
17 Verify that the users and groups to be added are correct and click OK.Figure 89) RCU—Verify users and groups to be added in VMware View.

 

 

Step Action
18 Verify that the pool is now Entitled and Enabled.Figure 90) RCU—Verify entitlement of pools in VMware View.
19 Then adjust the pool settings by clicking on the pool and Edit and clicking Next until you get to the Desktop/Pool Settings. Then, after adjusting the pool to your liking, click Finish.Note: The settings in this example are for demonstration purposes only. Your individual settings may be different.   Please consult the View Administration Guide for more information.Figure 91)RCU—Adjust pool settings in VMware View.

 

 

Step Action
20 Test the connection by logging into a desktop using the View Client.Figure 92) RCU—Test the connection in VMware View

 

 

 

Resize the FlexClone Volumes to the Estimated Size

Using RCU‘s datastore resizing feature, resize the four FlexClone volumes created on storage controller A to 525GB, planning for future growth considering the assumptions on new writes.

 

Note: The architecture proposed in this deployment guide balances the 2,000 virtual machines across 2 vSphere clusters with 8 vSphere hosts per cluster (16 vSphere hosts in total). The reason for this is that VMware does not support more than eight vSphere hosts per cluster when using VMware View Composer/linked clones. For further details, refer to View Composer Design Guide.

 

11       DEPLOY LINKED CLONES

This sample deployment has 500 virtual machines that are part of 2 automated desktop pools created using linked clones.

Pool 1: 500 virtual machines provisioned in persistent access mode with OS data disks and user data disk hosted on separate datastores created earlier.

Pool 2: 500 virtual machines provisioned in nonpersistent access mode with 1 datastore hosting OS data disk, created earlier.

For provisioning the linked clone–based desktop pools and associated virtual machines, refer to the procedure mentioned in VMware View Manager Administration Guide.

 

12       ENTITLE USERS/GROUPS TO DESKTOP POOLS

The next step is to entitle users/groups to the various desktop pools created in VMware View Manager. Follow the instructions in the VMware View Manager Administration Guide. Finally, install VMware View Client on every end user access device (PCs, thin clients, and so on).

 

13       SET UP FLEXSHARE (OPTIONAL)

FlexShare is a Data ONTAP® software feature that provides workload prioritization for a storage system. It prioritizes processing resources for key services when the system is under heavy load. FlexShare does not provide guarantees on the availability of resources or on how long particular operations will take to complete. FlexShare provides a priority mechanism to give preferential treatment to higher-priority tasks.

FlexShare provides storage systems with the following key features:    Relative priority of different volumes

Per-volume user versus system priority

 

Per-volume cache policies

 

These features allow storage administrators to tune how the system should prioritize system resources in the event that the system is overloaded.

Since the configuration presented in this design guide uses a high water mark of 80% CPU utilization for each storage controller in a cluster, it may be necessary to enable critical VMs to be available in the event of a failover.  NetApp recommends setting priorities for volumes that contain VMs that are especially critical and where potential downtime due to a storage controller failure could cause issues. By performing the following optional steps, critical VMs will not be affected by any performance degradation that could result in a storage controller takeover in the event of a failure.

Table 40) Enable priority settings.

Step Action
1 To enable priority settings, log into Storage Console.
2 Enter the following command:3160-2> priority onWed Feb 3 11:16:32 EST [wafl.priority.enable:info]: Priority scheduling is being enabledPriority scheduler starting.
3 To set the volume priority enter the following command:3160-2*> priority set volume <volume name> level=High system=High cache=keep
4 To ensure the proper setttings have been made for the volume enter the following command:3160-2*> priority show volume -v veabugold Volume: veabugoldEnabled: on Level: HighSystem: High Cache: keepUser read limit: n/a Sys read limit: n/aNVLOG limit: n/a%

 

14       TESTING AND VALIDATION OF THE VMWARE VIEW AND NETAPP STORAGE ENVIRONMENT

Below is a checklist designed to determine if your environment is setup correctly. Run these tests as appropriate for your environment and document the results.

 

Table 41) Testing and validation steps.

Item Item Description
1 Test Ethernet connectivity for VMware vSphere servers and NetApp. If using NIC teams or VIFs, pull network cables or down the interfaces and verify network functionality.
2 If running in a cluster, test SAN multipathing by performing a cable pull or by disabling a switch port (if applicable).
3 Verify that datastores are seen as cluster-wide resources by creating a custom map of the hosts and datastores and verifying connectivity.
4 Test vCenter functionality for appropriate access control, authentication, and VI clients.
5 Perform NetApp cluster failover testing for NAS and verify that datastores remain connected.
6 Test performance and IOPs to determine that the environment is behaving as expected.

 

15       100,000-SEAT STORAGE SCALE-OUT IN 10,000-SEAT INCREMENTS

Below is a chart detailing a FAS3160 HA pair storage scale-out from 10,000 to 100,000 seats. This chart uses the base deployment scenario detailed above in section 1.2. Because configurations are different in each environment the numbers may vary between different implementations. Therefore, the chart below represents this specific configuration and is to be used only as a reference and may not reflect each individual implementation.

Table 42) Incremental scale-out to 100,000 seats.

# of Seats # HA Pairs # Disk Shelves # Servers # Nexus 5020‘s*
10,000 2 8 80 4
20,000 3 15 160 6
30,000 5 22 240 7
40,000 6 30 320 9
50,000 8 37 400 11
60,000 10 45 480 12
70,000 11 53 560 14
80,000 13 60 640 18
90,000 15 68 720 19
100,000 16 76 800 21

*This configuration assumes two 6 port expansion slots have been added to the Nexus 5020

 

16       REFERENCES

TR-3705: NetApp and VMware VMware View Best Practices TR-3749: NetApp and VMware vSphere Storage Best Practices

TR-3505: NetApp Deduplication for FAS Deployment and Implementation Guide

TR-3747: NetApp Best Practices for File System Alignment in Virtual Environments ESX and vCenter Server Installation Guide

ESX Configuration Guide

vSphere Basic System Administration Guide Guest Operating System Installation Guide Getting Started With VMware View

VMware Infrastructure Documentation

 Windows XP Deployment Guide

VMware View Manager Administration Guide

VMware View Reference Architecture Planning Guide

Cisco Nexus 7000 Series NX-OS Interfaces Configuration Guide, Release 4.1 Cisco Nexus 5000 Series Switch CLI Software Configuration Guide

 

 

17       ACKNOWLEDGEMENTS

The following people contributed to the creation and design of this guide: Vaughn Stewart, Technical Marketing Engineer, NetApp

Larry Touchette, Technical Marketing Engineer, NetApp

Eric Forgette, Software Engineer, NetApp George Costea, Software Engineer, NetApp Peter Learmonth, Reference Architect, NetApp David Klem, Reference Architect, NetApp

Wen Yu, Sr. Technical Alliance Manager, VMware

Fred Schimscheimer, Sr. Technical Marketing Manager, VMware

Ravi Venkat, Technical Marketing Engineer, Cisco

 

 

18       FEEDBACK

Send an e-mail to xdl-vgibutmevmtr@netapp.com with questions or comments concerning this document.

 

VMware View on NetApp Deployment Guide

19       VERSION HISTORY

Table 43) Version history.

Version Date Document Version History
Version 1.0 May 2009 Original document
Version 2.0 February 2010 Updates to network configuration. RCU 3.0 and System Manager added.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

NetApp provides no representations or warranties regarding the accuracy, reliability, or serviceability of any information or recommendations provided in this publication, or with respect to any results that may be obtained by the use of the information or observance of any recommendations provided herein. The information in this document is distributed AS IS, and the use of this information or the implementation of any recommendations or techniques herein is a customer‘s responsibility and depends on the customer‘s ability to evaluate and integrate them into the customer‘s operational environment. This document and

the information contained herein may be used solely in connection with the NetApp products discussed in this document.


  • 0

مدیریت سرورهای مجازی ESX با نرم افزار VMware vCenter Server v5.5.0

مدیریت سرورهای مجازی ESX با نرم افزار VMware vCenter Server v5.5.0 Build 1945270 Update1c x64

VMware vCenter Server ساخت شرکت VMware بوده که وظیفه اصلی آن مدیریت سرورهای ESX و سرورهای مجازی بر پایه آن است؛ به زبان ساده این برنامه به شما این قابلیت را می‌دهد تا بتوانید چندین سرور مجازی را از سرورهای مختلف ESX در کنسول یک برنامه، کاملاً حرفه‌ای مدیریت کنید. بسیاری از قابلیت‌های برنامه‌ی vSphere که کاربرد وسیعی در مجازی سازی دارد برای فعال شدن نیازمند vCenter هستند، قابلیت‌های نظیر VMotion و Fault Tolerance و غیره.

نرم افزار VMware vSphere برترین برنامه مجازی سازی جهان می باشد ، این برنامه قابلیت های گوناگونی را از طریق ابزارهای مختلف خود در اختیار کاربران می گذارد . این برنامه در حقیقت یک سیستم عامل بسیار بسیار پیشرفته است که با آن می توانید به ساخت دیتاسنتر و انواع Cloud های خصوصی و عمومی بپردازید .
قابلیت های حیرت آور در زمینه شبکه سازی و امنیت ، تطابق با دیگر نرم افزارهای مجازی سازی همچون Hyper-V ، کاهش چشمگیر هزینه ها ، قابلیت در دسترس بودن همیشگی سرویس و ده ها امکان ، ابزار و قابلیت دیگر این برنامه را به غول مجازی سازی جهان تبدیل کرده است .
نسخه ۵٫۵ نرم افزار vSphere   پشتیبانی بسیار خوبی از ویندوز ۸ و Windows Server 2012 و همینطور سیستم عامل های نوین لینوکسی را ارائه نموده .

به طور کلی برای مجازی سازی از چند نرم افزار استفاده می شود که معروفترین آنها عبارتند از VMware و Xen و Hyper-V و Virtuozzo و … .
لیست کامل این پلتفرم ها و ویژگیهای آنها را در این‌جا ببینید.
به نظر می رسد در میان همه این نرم افزارها VMware توانسته است امکانات بیشتر و ویژگیهای برتری را نسبت به بقیه ارائه دهد. این نرم افزار در مقایسه خود با Xen و Hyper-V این جدول را ارائه می کند.

قابلیت‌های کلیدی نرم افزار VMware vCenter Server:

– اتوماسیون بسیار پیشرفته
– ساخت سریع ماشین های مجازی
– عدم نیاز و وابستگی به سیستم عامل
– امکان ارائه کنترل پنل برای هر ماشین مجازی
– راه اندازی و مدیریت همزمان چندین سرور ESX
– مدیریت کامل سرورهای مجازی بر پایه ESX و ESXi
– پشتیبانی از نهایت ۳۰٫۰۰۰ سرور مجازی
– قابلیت Linked Mode و اتصال به vSphere
– مدیریت منابع و بهینه سازی سرورهای مجازی
– قابلیت تخصیص Dynamic منابع
– قابلیت تنظیم Roles و Permission های سفارشی
– کاملاً سازگار به سایر نرم افزارهای VMware مانند vSphere و Workstation
– امکان تنظیم هسته های CPU برای هر ماشین مجازی
– کارکرد مستقل ماشینهای مجازی بدون تاثیر گذاری بر یکدیگر
– امکان کنترل ماشینهای مجازی به صورت Web Base
– امکان تغییرات سریع و داینامیک در هر ماشین
– امکان تغییر در اندازه هارد هر ماشین بدون از دست رفتن اطلاعات
– و ….

طیف فعالیت‌های vCenter به سه دسته کلی تقسیم می‌شوند:

۱٫ دید پذیری (Visibility): برنامه vCenter این قابلیت را دارد که حین تنظیم و راه اندازی سرور ESX و Virtual بتوانید راندمان و کارایی هر سرور را مشاهده کرده و بتوانید توسط Roles ها و Permission ها آن‌ها را مدیریت کنید.
۲٫ مقیاس پذیری (Scalability): موارد گفته شده در Visibility قابل بسط دادن بوده و از ویژگی‌های مقیاسی vCenter است به طوری که شما می‌توانید توسط Linked Mode چندین سرور vCenter را در یک کلاینت vSphere نیز کنترل کنید.
۳٫ خودکار سازی (Automation): برنامه vCenter قابلیتی دارد که می‌توان با آن برای هر هشدار و پیغام خطا یک سری دستور العمل تعریف کرد که بعد از هر خطا، آن‌ها را به ترتیب اجرا کند؛ با این کار بسیاری از دستورات خودکار گردیده و روند کار بسیار سریع‌تر خواهد شد.

مشخصات

شرکت سازنده: VMware, Inc
قیمت: ۶۰۴۴ دلار آمریکا (صرفاً جهت اطلاع)
حجم فایل: ۳۲۶۷ مگابایت
تاریخ انتشار: ۱۶:۳۰ – ۹۳/۵/۱۱
منبع: لردلی|پادشاه ترفندها

راهنمای نصب نرم افزار:

نکات بسیار مهم:
– این نسخه فقط مخصوص Server است، اگر نسخه Client برنامه vCenter را می‌خواهید استفاده کنید باید برنامه vSphere را دانلود کنید.
– این برنامه فقط بر روی سیستم عامل‌های ۶۴ بیتی نصب می‌شود.
– قبل از نصب برنامه باید حتماً حداقل SQL Server 2008 R2 را نصب کرده باشید.
– به سیستم مورد نیاز حتماً توجه کنید.
– فایل تا حد امکان فشرده شده است.

راهنمای نصب:
۱٫ ابتدا برنامه را دانلود و از حالت فشرده خارج کنید.
۲٫ فایل autorun.exe را اجرا کرده و مراحل نصب را ادامه دهید.
۳٫ از یکی از Serial های زیر برای فعال سازی برنامه استفاده کنید:
۵J20M-6DHEJ-K884C-012RH-CERM5
۱۴۰۲H-6DLEH-K804A-010UH-3H3Q5
۰۰۲۲۴-۴DL94-58U4C-023A6-9H3L1
HJ22J-0ELE3-68643-0C0U0-AE934

محتویان پکیج نسخه ۵٫۵ :

VMware ESXi 5.5
VMware vSphere Client 5.5
VMware vCenter Server 5.5

نکات:

۱- این نسخه دارای Keygen برای اجزای ذکر شده می باشد.
۲- در صورت نیاز به اجزای دیگر از طریق فرم ارتباط با ما / نرم افزار درخواست دهید تا اضافه شود.
۳- این نسخه برای نصب روی یک سرور نیاز به هیچ سیستم عاملی ندارد.

دانلود

سایر نرم افزارها+مستندات آموزشی اعم از کتاب الکترونیکی PDF و فیلم های آموزشی به مرور اضافه خواهد شد …

در صورت نیاز، لردلی آمادگی خود را برای ارائه مشاوره در خصوص راهکارهای مجازی سازی جهت خدمت رسانی به تمامی سازمان ها و شرکت ها اعلام می نماید.

1_tavajoh برای دوستانی که امکان دانلود ندارند این مجموعه نرم افزاری بر روی ۱ حلقه DVD با قیمت مناسب عرضه خواهد شد. در صورت تمایل موضوع را از قسمت نظرات مطرح نمایید.

نرم افزار VMware vSphere 5.5

آشنایی با برنامه ها و سرویس های مجازی سازی موجود در vSphere 5.5:

vShield Manager: این برنامه فایروال مجازی ( vFirewall ) می باشد و قابلیت های یک برنامه فایروال مانند : رصد ترافیک شبکه و ایمن سازی ماشین های مجازی موجود در آن را فراهم می کند .
vSphere App HA: پلاگینی برای vSphere Web Client است که قابلیت های High Availability برای نرم افزارهای موجود در فضای مجازی سازی شده با vSphere را فراهم می کند.
vSphere Big Data Extensions: این امکان قابلیت توسعه سریع کلاسترهای Hadoop در فضای مجازی سازی شده با VMware vSphere را فراهم می کند.
VMware vSphere Data Protection: امکانات ، ابزارها و قابلیت های مختلف پشتیبان گیری و بازگردانی ( شامل شیوه های مختلف پشتیبان گیری و بازگردانی و امکانات بسیار بسیار منعطف )
vSphere Replication: با کمک این برنامه می توان به Replicate ماشین های مجازی در حال کار و روشن پرداخت . همچنین نسخه جدید این برنامه کاهش چشمگیری در مصرف پهنای باند ، کاهش شدید درگیر کردن منابع ذخیره سازی و بسیاری قابلیت های Disaster Recovery را در خود گنجانده است .
Automation Tool: به کمک این نرم افزار می توان به Deploy و تهیه و تدارک سرویسهای Cloud خصوصی و عمومی ، زیر ساخت های فیزیکی ، برنامه های مجازی سازی و ارائه کنندگان Cloud پرداخت .
vCenter Operations Manager: این برنامه قابلیت مدیریت یکپارچه کارایی ، Capacity ، پیکربندی و . . . را در زیر ساخت Cloud ارائه می دهد .
vCenter Server: به کمک این نرم افزار می توان می توان به مدیریت مرکزی تمامی سرورها ، هاست ها و ماشین های مجازی پرداخت .
vSphere Hypervisor: این برنامه هسته اصلی مجازی سازی در vSphere را تشکیل می دهد.
VMware Tools for Linux Guests: همانطور که از نام این موضوع بر می آید شامل ابزارهای لازم برای سیستم های Guest مبتنی بر لینوکس است.
vSphere Client: این برنامه امکان اتصال و مدیریت vSphere از طریق دستگاه ها و پلتفرم های مختلف را فراهم می آورد .


راهکار جامع مجازی سازی دسکتاپ با VMware VDI

مقدمه
سالها پیش کامپیوتر های به این شکل که امروزه در شرکت ها هستند و هر نفر برای خودش به اصطلاح یک PC داره نبود و در حقیقت کامپیوتری وجود نداشت ، یک کامپیوتر فوق العاده قوی بود که بهش میگفتن Mainframe و همه دستگاه هایی که بهش وصل میشدن و کار میکردن فاقد CPU و قدرت پردازش بودن و تمام کارها بر روی کامپیوتر مرکزی انجام میشد و نتایج برای Terminal که یک کیبود و ماوس بود ارسال میشد.بعد از مدتی که وجود کامپیوترها به این شکلی که هست باب شد و به تعداد افراد یک سازمان کامپیوتر وجود داشت ، خوب قدرت مدیریتی ضعیفتر شد ، شما فکر کنید در سالهای قبل فقط یک کامپیوتر مرکزی مدیریت میشد ولی حالا مثلا 022 تا کامپیوتر باید مدیریت بشود ، و این مساله باعث مشکل شد و باز تصمیم گرفته شد که به گذشته بر گردن و یک سرور مرکزی وجود داشته باشه و تمامی پردازش ها بر روی اون انجام بشه و صرفا نتایج برای کلاینت ها ارسال بشه و این بود که روی به استفاده از سیستم های مجازی سازی دسکتاپ آوردن که بهترین راهکار برای اینکار بود .

مجازی سازی دسکتاپ چیست ؟
سیستم های مجازی سازی دسکتاپ یا همون Desktop Virtualization در حقیقت تشکیل شده از یک یا چندین سرور قوی هستند که بر روی اونها سیستم عامل ها به ازای هر کاربر یک عدد نصب شده و پردازش ها کلا توسط این سرورها یا قدرت زیاد انجام می شود، کاربر بوسیله یک ترمینال (Thin Client) به سرور متصل میشود و صفحه دسکتاپ مجازی شده خودش رو مشاهده میکند و انگار که دارد با سیستم خودش کار میکند با این تقاوت که کل داده ها و اطلاعات و پردازش ها در روی سرور ها انجام میشود، این روش از خیلی جهات میتواند به سود سازمان باشد چون دیگر هزینه های سرسام آور مدیریت کامپیوترها تا حد زیادی حذف میشود و هزینه خزید سخت افزار هم طبیعتا پایین میاد چون قیمت Thin client با یک PC قابل مقایسه نیست .

دلایل حرکت به سوی مجازی سازی
از جمله دلایل استفاده از فضاهای مجازی می توان به مواردی نظیر کم نمودن هزینه های تعمیر و نگهداری تجهیزات، صرفه جویی در زمان، استفاده از حداقل نیروی متخصص جهت انجام عملیات تعمیر ونگهداری
و از همه مهمتر، مباحث مربوط به افزونگی (Redundancy) اشاره کرد .
به صورت خلاصه می توان چهار دلیل برای استفاده از زیرساخت مجازی سازی ذکر کرد . :

1 استفاده بیشتر از منابع سخت افزاری موجود :
با تلفیق سرورها و سرویس ها خطوط قرمز فعلی در مراکز داده ها شکسته می شود، قانون یک سرور یک سرویس سالهاست در مراکز داده ها استفاده می شود که باعث اتلاف زیاد منابع سخت افزاری در مراکز داده می شود . سرویس ها از هم مستقل می شوند و این استقلال در نهایت باعث پایداری بیشتر سرویس ها در شبکه می شود.امکان داشتن سرویس ها با ساختار های متفاوت مانند Linux و مایکروسافت و Netware بر روی یک سخت افزار نیز یکی از مزایای دیگر این بستر می باشد.

کم کردن هزینه ها با تغییر در زیر ساخت سخت افزاری:
سرور های کمتر، سخت افزار کمتری نیاز دارد، در ساختاری که بر بستر مجازی ایجاد میشود، به سرورهای فیزیکی کمتری نیاز است، حتی اگر یک ساختار سنتی را مجازی کنید، تعدادی سرور آزاد می شوند که می توان در مکان های دیگری از آنها استفاده کرد .
: 2 تجمیع داده ها در دیتا سنترها و مراکز داده
متمرکز کردن برنامه های کاربردی و بانک های اطلاعاتی در مراکز داده ها (Data Centers) ، هزینه ی نگه داری و کنترل دسترسی ها را بطور چشمگیری کاهش می دهد و موضوعاتی مانند یکسانسازی اطلاعات (Replication) را از دستور کار خارج میکند .
3 : کم کردن هزینه های مدیریتی و نگهداری :
سخت افزار کمتر، مدیریت به مراتب کمتری نیاز دارد، همچنین استهلاک و هزینه های جانبی از جمله برق مصرفی و کولینگ کمتر می شود .

4 پایداری و بازیابی به موقع و سریع سرورها در حالت Down شدن و از کار افتادن :
بستر مجازی سازی، راهکار های منحصر به فرد برای پایدار ماندن سرورها و سرویس ها و برنامه ها و Recovery سریع و مطمئن در مواقع خرابی و بروز مشکل

 

مفهوم VDI چیست ؟
VDI مخفف Virtual Desktop Infrastructure است. VDI یک محصول یا یک برنامه نیست، یک مفهوم یا یک اصطلاح است. حتما کسانی که با VMware آشنایی دارند اسم VMware view را هم شنیدند، این محصول ارتباط مسقتیم با مبحث VDI دارد. خود VMware معنی VDI را منتقل کردن Desktop از Data Center تعریف میکند، VDI یک سیستم عامل Desktop با دسترسی راه دور است که از روی یک Data Center با استفاده از یک کامپیوتر شخصی یا یک Thin Client قابل دسترسی است.

 

یکی از مهمترین تفاوتها VDI با Terminal Services این است که، Terminal Services با اشتراک گذاری یک
سیستم عامل بین چندین کاربر یک سیستم عامل را در اختیار کاربران قرار میدهد ولی در VDI برای هر کاربر یک سیستم
عامل میتوان اختصاص داد، و این فقط مختص شرکت wareVM نیست محصولات مختلفی در این مبحث ارائه شدهاند،
همان طور در ابتدا گفتم DIV یک مغهوم یا یک اصطلاح است. محصولاتی که در این رابطه ارائه شده عبارت است از :
 VMware View  Citrix Xen Desktop  Microsoft VDI Broker or Remote Desktop Services Mashine Host

مدل های مجازی سازی دسکتاپ با محصول are ViewwVM برای مجازی سازی دسکتاپ با محصول VMware View دو روش مختلف داریم که در زیر به این دو روش می
پردازیم:
.1 سیستم عامل Desktop را بر روی یک
Data Center نصب می کنیم و به وسیله
دسترسی از راه دور یا همان Remote از
یک کامپیوتر شخصی PC به آن متصل می
شویم و از میز کاربری مجازی استفاده می
کنیم.
.2 سیستم عامل Desktop را بر روی یک
Data Center نصب می کنیم و به
وسیله Thin Client ، کاربران می توانند
به سیستم عامل Desktop متصل شوند
و از میز کاربری مجازی استفاده کنند.

چرا از VDI استفاده می کنیم ؟
 کاهش هزینه خرید سخت افزار، نگهداری و بروز
رسانی آن
 نگهداری بهتر و آسان تر از سیستم عامل ها
 کنترل دسترسی کاربران به , CD Drive USB و امنیت بیشتر اطلاعات
 اهمیت استفاده از Data Center در این است
که میتوان به صورت یک پارچه برای تهیه نسخه
پشتیبانی یا نصب یک نرم افزار یا اجرای یک
Update اقدام کرد
 قابلیت داشتن برق اضطراری برای Data Center این امکان را میدهد که در هنکام قطعی برق هم کلیه
Desktop ها در دسترس باشند
 High availability برای سیستم عامل های Desktop کاربرد مجازی سازی دسکتاپ درسازمانها؟
در حقیقت این تکنولوژی در هر مکانی که شما کاربرانی داشته
باشید که به برنامههای کاربردی Server-Based نیاز داشته
باشند، مفید است.
VDI تقریباً همه جا مفید خواهد بود و یکی از روشهای متعددی
خواهد بود که میتواند برای ارائه یک ماشین به کاربر، مورد
استفاده قرار گیرد.
VDI میتواند در اکثر شرکتها پیادهسازی گردد و باعث کاهش
هزینهها و بهبود کیفیت سرویس شود.

 

نتیجه گیری
در دنیای امروز به علت پیشرفت های سریع تکنولوژی، سازمانها
و شرکت های مختلف برای پیشرفت و استفاده بهینه از ابزارهای
زمان، سرعت، کارایی و همچنین درآمد بیشتر نیازمند این
مساله می باشند که نحوه کار و سیستم های کاری خود را با
پیشرفت تکنولوژی هم راستا سازند تا بتوانند به نتایج مطلوب
مورد نظر خود هر چه بهتر دست یابند.
پیرامون همین بحث همانگونه که گفته شد مجازی سازی
راهکاری می باشد که باعث بالا رفتن سرعت، پایین آمدن هزینه
ها ،بالا رفتن درصد اطمینان و . . . می شود و می تواند سازمانها و شرکت های مختلف را برای هم راستا شدن با پیشرفت
های تکنولوژی و کاری بسیار کمک کند.
مجازی سازی دسکتاپ ) VDI ( یکی از راهکارهای مجازی سازی می باشد که می تواند بهترین راه حل ها را برای
سازمانها و شرکت های بزرگ و کوچک ارائه دهد، برای اینکه بتوانند هرچه بهتر از منابع و هزینه های خود استفاده کنند.


مجازی سازی چیست ؟

Virtualization یا به اصطلاح مجازی سازی تکنولوژی است که بوسیله آن می توانیم اجرای همزمان دو یا چند سیستم عامل بر روی یک سرور را داشته باشیم به نحوی که باعث بهره وری در هزینه های سخت افزارها و نرم افزارها و همچنین استفاده بهینه از تمامی منابع سیستمی می باشد. اما نکته حایز اهمیت این است که استفاده از مجازی سازی به خودی خود مشکلاتی را شامل می شود برای نمونه در صورت خرابی یک سرور تمامی سرویسهای مجازی سازی شده روی ان از مدار خارج خواهند شد.

برای حل این مشکل می توان از تکنولوژی هایی مانند Clustering که شامل گروهی از هاست های ESX میباشد استفاده نمود.با استفاده از قابلیت کالسترینگ ما قادر خواهیم بود تمامی Resource های هاست های ESX خود را مدیریت نماییم و از مواردی مانند High Availability و Load Balance بهره جوییم.

آشنایی با برخی از اصطالحات و کاربردهای هر یک از آنها

HA , Fault Tolerance .1 چیست و دارای چه مزایایی می باشد؟

High availability Cluster که آن را با اصطالحات HA Cluster و یا Failover Cluster نیز می شناسند. با فعال نمودن HA بر روی cluster مورد نظرمان، ما قادر خواهیم بود تا از قابلیت Fault Tolerance تحمل خطا بهره جوییم که در این صورت اگر هر یک از سرورهای فیزیکی دچار مشکل گردید، با توجه به این که Secondary VM بر روی سرور دیگر ما وجود دارد، هیچ Down Time و یا قطعی از طرف سرورها وجود نخواهد داشت. با استفاده از این راهکار که برخالف راهکار سخت افزاری بسیار کم هزینه است و پیچیدگی های آن را نیز ندارد می توان به راحتی مشکالت سخت افزاری سرورهای فیزیکی را مدیریت کرده و این اطمینان را داشت که سرویس های حیاتی این سرورها بدون Down Time در حال سرویس دهی خواهد بود.

از مزایای استفاده از Fault Tolerance میتوان به موارد زیر اشاره نمود:

 از بین رفتن هزینه های بسیار زیاد و هنگفتی که در اثر از کار افتادن یک سرور فیزیکی به یک سازمان وارد می شود

 ارائه سرویس دهی ممتد برای تمام نرم افزار ها بدون وابستگی به سیستم عامل

Load Balance .1 چیست و دارای چه مزایایی می باشد؟

از مزایای دیگری که می توان در این طرح به آن اشاره نمود ، تقسیم بار بر روی سرورها می باشد.با فعال نمودن قابلیت Load Balance ، ما قادر خواهیم بود از حداکثر توان سخت افزاری سرورها استفاده نماییم.مدیریت منابع توسط VMware DRS صورت خواهد پذیرفت که در این حالت منابع سخت افزاری در حالت تعادل نگه داشته خواهند شد. یکی از مهمترین ویژگی های استفاده از طرح مجازی سازی با VMware استفاده از قابلیت VMware Distributed Resource Schedule و یا همان DRS می باشد که اساس کار آن به این صورت می باشد که اگر بر روی یکی از سرورهای فیزیکی ESX چندین ماشین مجازی Virtual machine داشته باشیم و منابع این سرورها مانند RAM و CPU بر روی آنها به نسبت معین مشخص شده باشد و حال یکی از ماشین های مجازی دچار کمبود RAM و یا CPU شود، در حالیکه بقیه ماشین های موجود بر روی همان ESX Server از تمامی RAM و CPU اختصاص یافته خود استفاده نکرده اند، با استفاده از این تکنولوژی در کسری از ثانیه RAM و CPU الزم برای ماشین مجازیی که دچار کمبود منابع سیستمی شده است قرض گرفته می شود و پس از پایان کار دوباره آن را در اختیار سایرین قرار می دهد.حال اگر بر روی همان سرور فیزیکی منابع سیستمی مورد نیاز یافت نشد با کمک یکی دیگر از قابلیت های VMware به نام Vmotion، سیستم عامل ماشین مجازی مذکور به یکی دیگر از سرورهای فیزیکی دیگر که منابع آزادی دارد منتقل می شود.تمامی مراحل ذکر شده به صورت اتوماتیک بوده و هیچ وقفه ایی در ان وجود ندارد.

2. ESX چیست؟

ESX یکی از محصولات VMware است که بارزترین مشخصه آن، این است که به صورت مستقیم بر روی سخت افزار نصب می گردد و دیگر نیازی به یک OS رابط نمیباشد، که در سرعت کارکرد سیستم بسیار موثر است

3. vSphere Client چیست؟

همانگونه که در بالا مشاهده می کنید خود نرم افزار ESX به صورت CLI است. بنابراین برای مدیریت ماشین های مجازی از نرم افزار vSphere Client استفاده می گردد.

4. vCenter چیست؟

نرم افزاری که vSphere را مدیریت مینماید و برای کالستر کردن هاست ها به آن احتیاج است را vCenter می گویند.

 

5. vMotion چیست؟

یکی از بهترین و جذاب ترین قابلیت هایی که Vsphere در اختیار ما قرار میدهد این است که ما میتوانیم یک VM را در حالی که روشن است و در حال سرویس دهی است از روی یک سرور فیزیکی )ESX( به روی یک سرور فیزیکی دیگر بدون هیچ Down Time ببریم

6. Storage vMotion چیست؟

یکی دیگر از امکانات جالب vSphere همین امکان آن است که شما را قادر میسازد یک ماشین مجازی را در حالیکه روشن و در حال سرویس دهی است از روی یک Storage جایی که محل قرارگیری ماشین های مجازی است بر روی یک Storage دیگر انتقال دهید.

7. Distributed Power Manager DPM چیست؟

با توجه به وضع کنونی و اهمیت و صرفه جویی در برق مصرفی دیتا سنترها این تکنولوژی بسیار می توان کارامد باشد.اساس کار این تکنولوژی به این صورت می باشد که پس از پایان ساعات کاری که بار بر روی سرورها کم می شود، به صورت اتوماتیک آنها را به یک یا چند ESX Server مشخص منتقل مینماید و بقیه ESX ها را تا زمانی که دوباره بار کاری زیاد شود)فردا صبح(به صورت Stand by نگه دارد.این کار تاثیر زیادی در میزان برق مصرفی خواهد گذاشت همچنین عمر سرورها را هم افزایش خواهد داد.

مزایای کلی استفاده از Virtualization چیست؟

• بهره وری هر چه بیشتر از سخت افزار و کاهش هزینه ها

• مدیریت بهتر و آسانتر سرورها و سرویس ها و کاهش هزینه های مدیریتی

• استفاده هر چه بهتر از فضای موجود در Data Center و کاهش هزینه های آن

• پشتیبان گیری و بازیابی سرورها در حداقل زمان ممکن Disaster Recovery & Backup

• کاهش مصرف برق موجود در Data center که در شرایط کنونی حائز اهمیت بسیاری می باشد

• در محیط های آموزشگاهی می توان با ایجاد ساخت چند ماشین مجازی به صورت بسیار مقرون به صرفه یک محیط آزمایشگاهی ایجاد نمود.

 

2. ذخیره سازی اطاعات

2.1 SAN Storage Area Network

یک شبکه اختصاصی با مدیریت آسان و متمرکز است که ارتباط بین ادوات ذخیره سازی و سرور ها را ممکن می سازد.

از مزایای استفاده از SAN در این طرح می توان به موارد زیر اشاره نمود:

• امکان به کارگیری قابلیت Fault Tolerance بر روی ماشین های مجازی

• امکان وجود سیستم عامل سرورها بر روی SAN که نتیجه آن اعتماد و پایداری بیشتر خواهد بود.

 

مزایای کلی استفاده از SAN شامل موارد زیر می گردد:

1. کارایی بالاتر در حین عملیات پشتیبان گیری و همچنین کارایی بیشتر سرورها به علت انجام ندادن عملیات پشتیبانگیری بر روی آنها

2. داشتن یک شبکه اختصاصی که باعث تفکیک ترافیک شبکه داخلی و ترافیک ارتباطی بین سرورها در شبکه می شود

3. در این فناوری می توان از تجهیزاتی استفاده نمود که امکان انتقال اطلاعات از یک SAN به SAN دیگر را در دو موقعیت جغرافیایی مختلف فراهم نماید. این کار به صورت Data Migration و یا Asynchronous و Synchronous امکان پذیر خواهد بود. این امکان برای مواقعی که یکی از حوادث زلزله،آتش سوزی و …. رخ دهد مفید است.

4. امکان Redundant تجهیزات مانند دو عدد Controller ، دو عدد SAN Switch، دو عدد کارت HBA و ….

5. تجمع پایگاه های داده و دیتاهای سازمانی در یک محل امن و به صورت متمرکز

6. افزایش میزان فضای ذخیره سازی به صورت Online و بدون Downtime

7. در مقایسه با سیستم های پشتیبان گیری قدیمی میتوان به حذف بار موجود بر روی سروری که نقش یک سیستم پشتیبان گیر را ایفا می نمود اشاره کرد. برای آنکه بتوان از قابلیت (FT(Fault tolerance استفاده نمود حتما باید از یک Shared storage مانند SAN استفاده کرد.

 

Tape 1.1

پشتیبان گیری از اطلاعات یکی از مسائل بسیار مهم در سازمان هاست. بهترین ابزار پیشنهادی برای پشتیبان گیری Tape میباشد از این رو در این طرح از تجهیزاتی مانند Tape استفاده می گردد که دارای قابلیت زیر می باشد:

• ظرفیت بسیار زیاد و قابل ارتقاء با توجه به نیاز سازمان

• پشتیبان گیری با سرعت بسیار باال و خارج از ترافیک LAN

• قابلیت Restore با اطمینان بسیار زیاد

• قابلیت تعویض و ارتقا Storage بدون Downtime

• عمر مفید مناسب بیش از سی سال ( تمامی اطلاعات سازمان که روی SAN است روی Tape به صورت مدوام پشتیبان گیری می گردد.)

 

Server

در این طرح با توجه به اینکه باید تمامی برنامه های کاربردی و سرویس های سازمان به صورت Virtual Machine گردند از اینرو باید سرورهای متناسب با حجم سخت افزاری مورد نیاز تهیه گردد. این نکته حائز اهمیت است که مشخصات سرورها باید به گونه ای انتخاب شود که در صورت از مدار خارج شدن یکی از سرورها سایر سرورها توانایی سرویس دهی به همه Virtual Machine را دارا باشند.

*نکات زیر در انتخاب سرورها حائز اهمیت است:

تمامی قطعات باید با نرم افزار مجازی ساز همخوانی کامل داشته باشند.

CPU سرورها حتما باید شبیه یکدیگر باشند. ترجیحا سایر قطعات نیز به همین صورت

نوع و مدل قطعات باید با توجه به حجم برنامه های سازمان با آینده نگری تهیه گردد.

سرورها باید دارای دو کارت HBA برای ارتباط با SAN Switch باشند.


آخرین دیدگاه‌ها

    دسته‌ها