نرم افزار EMC VNX Application Protection Suite

نرم افزار EMC VNX Application Protection Suite

نرم افزار EMC VNX Application Protection Suite

نرم افزار EMC VNX Application Protection Suite
نرم افزار EMC VNX Application Protection Suite

نرم افزار EMC VNX Application Protection Suite ، نرم افزاری تخصصی که برای اتوماتیک سازی عملیات کپی گیری از داده های Application ها با تضمین ریکاوری توسط شرکت EMC طراحی شده است. این نرم افزار به اتوماتیک و دائمی نمودن کپی گیری از Application های مهم سروری مانند VMware ، Microsoft Exchange ، SQL Server ، Share Point و اوراکل کمک می کند به صورتی که همیشه گزینه ریکاوری تضمینی برای آن را در دسترس می باشد.

 

قابلیتهای کلیدی

  • ساده سازی عملیات Replication: اجرای عملیات Replication بصورت اتوماتیک بر روی هر نوع استوریج EMC از طریق یک کنسول ، به ساده سازی مدیریت استوریج کمک می کند.
  • دائمی سازی سرویسهای Application: ایجاد کپی های دائمی از Application ها مانند Microsoft Exchange ، SQL  SharePoint ، VMware ، Oracleو فایل سیستم های سفارشی شده و غیره به بالا بردن سطح دسترسی سرورهای Application کمک می کند.
  • عملیات Replication خودکار: ارائه قابلیت Replication به کاربران و امکان تعریف سطح دسترسی که معمولا در پنج سطح تعریف شده است و این قابلیت برای مدیران استوریج و مدیران Application ها بسیار مناسب می باشد.
  • هماهنگی کامل با محصولات EMC Replication: آسان نمودن مدیریت و اتوماتیک سازی تکنولوژی EMC Replication برای استوریج های سری VNX

 

 

 


پیکربندی VNX Data Mover Simulator

پیکربندی VNX Data Mover Simulator

در بخش اول ما با نحوه راه اندازی و پیکربندی VNX Appliance کمابیش آشنا شدیم در بخش دوم می خواهیم با نحوه پیکربندی Control Station و همچنین چگونگی کانفیگ کردن Data Mover آشنا شویم.

شما می توانید این کار را بدون صفحات Wizard و با دستور نیز انجام دهید که ما در اینجا به پیکربندی از طریق GUI خواهیم پرداخت.

در پنجره Setup Wizard For File بر روی دکمه Next کلیک می کنیم:

پیکربندی VNX Data Mover Simulator
پیکربندی VNX Data Mover Simulator

کلیک بر روی دکمه Next

پیکربندی VNX Data Mover Simulator

در اینجا ما یک عدد Data Mover داریم که در صورت وجود بیش از یک Data Mover یک سرور Server_3 نیز به عنوان Standby در نظر گرفته می شود. کلیک بر روی دکمه Next

پیکربندی VNX Data Mover Simulator

جهت اعتبارسنجی Data Mover Role بر روی Next کلیک می کنیم:

پیکربندی VNX Data Mover Simulator

کلیک بر روی دکمه Next

پیکربندی VNX Data Mover Simulator

جهت فعالسازی Unicode برای سرورها بر روی دکمه Next کلیک می کنیم:

پیکربندی VNX Data Mover Simulator

وارد کردن سرور NTP

پیکربندی سرور NTP در دستگاه های VNX بسیار مهم می باشد بدلیل اینکه در مکانیزم هویت سنجی Kerberos تغییرات زمانی میان استوریج VNX و دامین کنترلر شما می تواند باعث عدم توانایی در لاگین به دستگاه شود.

پیکربندی VNX Data Mover Simulator

کلیک بر روی دکمه Next

پیکربندی VNX Data Mover Simulator

در این صفحه باید کلیه پارامترها سبز شوند.

پیکربندی VNX Data Mover Simulator

در این مرحله Data Mover Network Services را پیکربندی خواهیم نمود.

پیکربندی VNX Data Mover Simulator

کلیک بر روی دکمه Next

پیکربندی VNX Data Mover Simulator

وارد نمودن نام DNS Domain و آدرس IP سرور DNS

پیکربندی VNX Data Mover Simulator

کلیک بر روی دکمه Submit و تایید Configuration

پیکربندی VNX Data Mover Simulator

کلیک بر روی دکمه Next

پیکربندی VNX Data Mover Simulator

کلیک بر روی دکمه Next

پیکربندی VNX Data Mover Simulator

وارد نمودن نام NIS Domain و آدرس IP سرور NIS

پیکربندی VNX Data Mover Simulator

برای چک کردن پیکربندی بر روی دکمه Submit کلیک می کنیم:

پیکربندی VNX Data Mover Simulator

کلیک بر روی دکمه Next

پیکربندی VNX Data Mover Simulator

گزینه No را انتخاب کرده و بر روی Next کلیک می کنیم تا پیکربندی Network Services را به پایان برده و به مرحله بعدی که تنظیمات Network Interface است برسیم:

پیکربندی VNX Data Mover Simulator

کلیک بر روی دکمه Next

پیکربندی VNX Data Mover Simulator

کلیک بر روی دکمه Next

پیکربندی VNX Data Mover Simulator

کلیک بر روی دکمه Create Device

پیکربندی VNX Data Mover Simulator

کلیک بر روی دکمه Next

پیکربندی VNX Data Mover Simulator

انتخاب Network Device Type که ما در اینجا Fail-Safe Network را انتخاب می کنیم:

پیکربندی VNX Data Mover Simulator

تنظیم cge0 و cge1 به عنوان Device های Primary و Standby

پیکربندی VNX Data Mover Simulator

یکبار دیگر بر روی Submit کلیک می کنیم تا پیکربندی Validate شود.

پیکربندی VNX Data Mover Simulator

تایید تمام مراحل و کلیک بر روی دکمه Next

پیکربندی VNX Data Mover Simulator

کلیک بر روی دکمه Next

پیکربندی VNX Data Mover Simulator

تنظیم آدرس IP بر روی VNX Interface که این آدرس IP برای سرور CIFS استفاده خواهد شد:

پیکربندی VNX Data Mover Simulator

وارد نمودن MTU که بصورت پیش فرض بر روی 1500 می باشد.

=پیکربندی VNX Data Mover Simulator

در صورت VLAN ID وارد می کنیم.

پیکربندی VNX Data Mover Simulator

یکبار دیگر بر روی Submit کلیک می کنیم تا پیکربندی Validate شود.

پیکربندی VNX Data Mover Simulator

بر روی Next کلیک می کنیم تا Configuration از لحاظ درستی چک شود.

پیکربندی VNX Data Mover Simulator

کلیک بر روی دکمه Next

پیکربندی VNX Data Mover Simulator

بر روی دکمه Next کلیک می کنیم تا پیکربندی File System آغاز گردد.

پیکربندی VNX Data Mover Simulator

خوب Data Mover با موفقیت کانفیگ شد و مراحل بعد پیکربندی VNX File System و CIFS Share می باشند.

 

گروه فنی و مهندسی وی سنتر ارائه دهنده کلیه خدمات تجهیزات ذخیره سازی EMC آمادگی خود را برای تامین و پشتیبانی این تجهیزات اعلام می دارد.

شماره تماس: 88884268

ایمیل: info@vcenter.ir


پیکربندی VNX Control Station Simulator

پیکربندی VNX Control Station Simulator

این مطلب به عنوان دومین مطلب در خصوص EMC VNX Simulator می باشد.

در این مطلب به نحوه پیکربندی Control Station خواهیم پرداخت. برای آگاهی بیشتر باید با متدهای پیکربندی Control Station ها شما می توانید با تیم فنی و مهندسی وی سنتر همراه باشید.

در این مطلب ما به نصب معمولی Control Station می پردازیم.

خب مرورگر IE یا Mozilla خود را باز کنید و به آدرس IP دستگاه Control Station لاگین کنید.(مانند آدرس IP ما در اینجا که 192.168.98.35 می باشد)

صفحه ای که وارد می شود را Trust نموده و با نام کاربری root و کلیدواژه nasadmin لاگین می شویم البته در دستگاههای واقعی VNX این نام کاربری و پسورد sysadmin/sysadmin می باشد.

پیکربندی-VNX-Control-Station-Simulator-1

1 – انتخاب VNX Simulator/System

پیکربندی-VNX-Control-Station-Simulator-1

2 – انتخاب سیستم و کلیک بر روی Setup Wizard For File

پیکربندی-VNX-Control-Station-Simulator-1

3 – بر روی دکمه Next کلیک می کنیم.

پیکربندی-VNX-Control-Station-Simulator-1

4 – در این مرحله Hostname مربوط به دستگاه Control Station اعتبارسنجی می شود.

پیکربندی-VNX-Control-Station-Simulator-1

5 – وارد کردن نام DNS Domain و آدرس IP سرور DNS

پیکربندی-VNX-Control-Station-Simulator-1

6 – وارد نمودن دوباره نام دامین و انتخاب به عنوان Primary 

پیکربندی-VNX-Control-Station-Simulator-1

7 – وارد نمورن سرور NTP

ورود اطلاعات اشتباه سرور NTP می تواند باعث بروز اختلالاتی در مکانیزم لاگین Kerberos به دستگاه می شود و در این حالت شما قادر به اضافه کردن به دامین کنترلر نخواهید بود.

پیکربندی-VNX-Control-Station-Simulator-1

8 – چک کردن Time Zone  زمان و تاریخ

پیکربندی-VNX-Control-Station-Simulator-1

9 – فعال سازی لایسنس مورد نیاز

پیکربندی-VNX-Control-Station-Simulator-1

10 – تایید پیکربندی 

پیکربندی-VNX-Control-Station-Simulator-1

تمامی مراحل بصورت درست نصب شده و سبز می باشند.

پیکربندی-VNX-Control-Station-Simulator-1

پیکربندی Control Station تقریبا به پایان رسیده و بعد از این مرحله ما باید VDM را ایجاد و پیکربندی کنیم.

گروه فنی و مهندسی وی سنتر ارائه دهنده کلیه خدمات تجهیزات ذخیره سازی EMC آمادگی خود را برای تامین و پشتیبانی این تجهیزات اعلام می دارد.

شماره تماس: 88884268

ایمیل: info@vcenter.ir


نحوه راه اندازی Analyzer در EMC Unisphere

نحوه راه اندازی Analyzer در EMC Unisphere

ابتدا به کنسول Unisphere لاگین شده و سیستم استوریج مورد نظر را از تب سیستمها انتخاب می کنیم.

آدرس IP مربوط به SP دستگاه استوریج CLARiiON برای ورود به Unisphere مورد نیاز می باشد.

در حالتی که بیش از یک دستگاه در کنسول شما وجود دارد باید با توجه به شماره سریال دستگاه استوریج آنرا انتخاب نماییم.

 

باید Statistics Logging را در قسمت سیستم فعال نماییم.

در قسمت System Management بر روی گزینه Properties کلیک می نماییم و سپس تیک مربوط به Statistics Logging را می زنیم.

 

در تب بالای Monitoring گزینه Analyzer را کلیک می کنیم سپس بر روی لینک Performance Data Logging کلیک می کنیم.

 

تنظیمات مربوط به Data Logging در این صفحه مطابق شکل و با کلیک بر روی دکمه Start انجام می گردد. در این مرحله پیشنهاد می گردد تا دیتا حداقل در بازه هفت روزه جمع آوری گردد.

در این پنجره تایید خود را با زدن دکمه Yes به سیستم اعلام می کنیم.

زمانی که این مرحله به پایان رسید

پس از تکمیل این مرحله، صبر کنید تا زمان اختصاص داده شده به پایان برسد،و سپس مراحل زیر را برای جمع آوری داده های آماری انجام دهید.
 باید فایل NAR که شامل داده های آماری می باشد را در کنسول گرافیکی VNX Unisphere بازیابی نماییم. 

وارد کنسول Unisphere می شویم.

بر روی Array که می خواهیم دیتا را از آن جمع آوری کنیم کلیک می نماییم.

 

در تب System بر روی قسمت Monitoring and Alerts کلیک می کنیم.

بر روی آیکون Statistics for Block کلیک می نماییم.

در قسمت راست بر روی لینک Retrieve Archive کلیک می نماییم.

در پنجره Retrieve Archive ، آرایه خود را انتخاب و SPA را انتخاب نماید.(فایلهای NAR فقط به یکی از SP ها نیاز دارد.)

بر روی Save File As مسیر ذخیره سازی فایلها را مشخص می کنیم.

فایلهای NAR و NAZ را که مربوط به بازه زمانی که داده ها را جمع آوری کرده ایم برجسته می کنیم. حدود 10 الی 15 فایل وجود خواهد داشت که بر روی دکمه Retrieve کلیک می کنیم.

مراحل بازگردانی را با زدن گزینه های YES در پنجره Retrieve Archive تایید می کنیم.

در پشت قضیه فایل ها Verify می شوند و سپس بر روی دکمه Done کلیک می کنیم.

به دایرکتوری مربوط به فایلهای بازیابی شده رفته و فایلها را فشرده کرده و برای EMC و یا EMC Reseller ارسال می نماییم.

گروه فنی و مهندسی وی سنتر ارائه دهنده راهکارهای ذخیره سازی و بکاپ آمادگی خود را برای تامین نیازهای مشتریان اعلام می دارد.

شماره تماس: 88884268 – 021


  • 0

راه اندازی VMware VASA بر روی استوریج EMC VNX5200

راه اندازی VMware VASA بر روی استوریج EMC VNX5200

در ابتدا به اطلاع کلیه مهندسینی که قصد نصب و پیکربندی VMware VASA بر روی vSphere 5.5 برای استوریج VNX5200 و یا بقیه مدلهای VNX2 را دارند می رساند که این کار غیر ممکن می باشد و وقت خودشان را تلف نکنند.

این موضوع به دلیل وجود باگ در این ورژن می باشد که خود شرکت VMware نیز به آن اشاره نموده است البته این مشکل در ورژن vSphere 6.0 وجود ندارد و عزیزانی که از ورژن 6 استفاده می کنند بدون هیچ مشکلی می توانند نصب و پیکربندی نمایند. اما در صورتی که از نسخه vSphere 5.5 استفاده می کنید باید برای حل این مشکل یک سیستم عاملی مانند ویندوز یا لینوکس به عنوان EMC SMI-S Agent نصب کرده و آن را به دستگاه VNX وصل کنیم و بعد از آن می توانیم آن را بر روی vCenter ثبت کنیم.

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200

مراحل کار بسیار ساده می باشد، ابتدا باید آخرین نسخه SMI-S Provider که شامل ورژن های 4.6 و 7.6.2.65 می باشند را از وبسایت support.emc.com دانلود می کنیم و سپس در طول مراحل نصب بر روی Array Provider کلیک می کنیم.

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200
بر روی SYMAPI نیز کلیک می کنیم.

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200

از دستور TestSmiProvider.exe برای ارتباط با SMI-S Agent استفاده می کنیم:

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200

دستگاه استوریج VNX را در SMI-S ثبت می کنیم:

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200

از دستور dv برای چک کردن شناسایی دستگاه استفاده می کنیم. شایان ذکر است که می توان بیش از یک دستگاه را در اینجا Register نمود.

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200

در مرحله پایانی ما یک SMI-S Agent در vCenter به عنوان Storage Provider اضافه می کنیم. همانطور که در تصویر می بینید فقط یک Array در vCenter اضافه شده است. همچنین شما می توانید از یک Agent برای چندین vCenter استفاده کنید.

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200

شما می توانید از پرفایل استوریج خود را مشاهده و استفاده نمایید.

گروه فنی و مهندسی وی سنتر ارائه دهنده کلیه راهکارهای ذخیره سازی و بکاپ EMC آمادگی خود را برای تامین نیازهای مشتریان اعلام می دارد.

شماره تماس: 88884268 – 021

ایمیل: info@vcenter.ir


  • 0

نرم افزار EMC Total Efficiency Pack

نرم افزار EMC Total Efficiency Pack

نرم افزار EMC Total Efficiency Pack
نرم افزار EMC Total Efficiency Pack

نرم افزار EMC Total Efficiency Pack مجموعه ای از نرم افزارهای مدیریت استوریج و دیتا می باشد که به بالا بردن سرعت و Performance برنامه های کاربردی و محافظت از داده های بسیار حساس و پایین آوردن هزینه های استوریج کمک می کند.

نرم افزار پیشرفته EMC Total Efficiency Pack با استفاده از ساده سازی و اتوماتیک کردن بسیاری از Task های استوریج به صورت فزاینده ای بهره وری و کارایی سیستم را بالا می برد.

VNX Total Efficency Pack شامل کل نرم افزار Data Protection نیز می باشد.

 

  • بالا بردن بهره وری: تنظیم SLA ها برای Performance های مورد نیاز برای برنامه های کاربردی سبک و سنگین
  • محافظت: محافظت از داده ها در مقابل خطاهای احتمالی ، قطعی ها و حوادث
  • ساده سازی: مدیریت نرم افزار VNX با استفاده از EMC Unisphere

 

پک نرم افزار VNX Total Efficency Pack شامل پنج نرم افزار زیر می باشد:

 

 


  • 0

معرفی EMC VNX MirrorView

معرفی EMC VNX MirrorView

معرفی EMC VNX MirrorView
معرفی EMC VNX MirrorView

معرفی EMC VNX MirrorView: نرم افزار EMC VNX MirrorView ارائه دهنده راهکاری برای Replication در لایه بلاک در محصولات EMC VNX محسوب می شود.

این نرم افزار دارای دو Mode برای Remote Mirroring می باشد:

  • MirroView/S Synchronous
  • MirrorView/A Asynchronous

نرم افزار MirrorView به تکنولوژی گفته می شود که در آن اصل دیتای بلاک استوریج که در حالت اکتیو و استفاده می باشند در استوریج سایت ریموت ذخیره می شوند. این سایت ریموت که به آن سایت پشتیبان نیز گفته می شود در حال حاضر یکی از راهکارهای مناسب برای Disaster Recovery محسوب می شود. راهکار MirrorView بر پایه LUN کار می کند به این مفهوم که در عمل Replication یک LUN از سایت اصلی بر روی یک LUN در سایت دوردست یا همان سایت Disaster Recovery ذخیره می شود.

 

MirrorView/S

در حالت MirrorView/S که synchronous replication نیز نامیده می شود در فاصله های نزدیک قابلیت Replication همزمان را ارائه می نماید. ار آنجا که در راهکار Synchronous Replication همه چیز همزمان انحام می پذیرد اندازه RPO Recovery Point Objective صفر می باشد.

گردش دیتا در MirrorView/S به شرح ذیل می باشد:

1- هاست به استوریج اصلی VNX وصل شده و یک عمل Write را آغاز می کند.

2- استوریج اصلی VNX داده ها را در استوریج ثانویه Replicate می نماید.

3- استوریج ثانویه VNX خبر اتمام عملیات Write را به استوریج اصلی VNX می دهد.

4- استوریج ثانویه VNX خبر اتمام عملیات Write را به هاست می دهد.

خیلی مهم است که ما از نحوه گردش دیتا در MirrorView/S آگاه شویم. به عنوان شما باید بدانید زمان رفت و برگشت RTT Round Trip Time بین دو استوریج VNX نباید بیشتر از 10 میلی ثانیه باشد. اگر زمان RTT بالاتر از این مقدار باشد مدت زمان پاسخگویی هاست نیز بالاتر خواهد رفت بدلیل اینکه مدت زمان بیشتری برای ارسال Acknowledge برای درخواست Write طول خواهد کشید.

 

MirrorView/A

در حالت MirrorView/A قابلیت Replication برای فاصله های بلند را فراهم می سازد. این حالت می تواند برای انجام Replication بین دو دستگاه استوریج VNX مورد استفاده قرار گیرد. در این حالت مدت زمان RTT بسیار بالا می باشد ولی باید به این نکته توجه داشت که این زمان نباید بیشتر از 200 میلی ثانیه باشد. در حالت MirrorView Asynchronous  این نرم افزار ، مدلی برای آپدیت زمان دار تغییرات Track ها در سایت اصلی وجود دارد که با استفاده از این مدل تغییرات در سایت ثانویه با استفاده از فاصله زمانی RPO مورد نظر کاربر انجام می پذیرد.

با استفاده از MirrorView/A Replication اعلام اتمام عملیات نوشتن در زمان دریافت توسط استوریج اصلی به هاست ارسال می شود که اساسا هیچ تاثیر منفی در محیط عملیاتی ندارد در حالی که با استفاده از MirrorView/S همه عملیات نوشتن باید توسط دو استوریج Acknowledge شوند.

گردش دیتا در MirrorView/A به شرح ذیل می باشد:

1- هاست به استوریج اصلی VNX وصل شده و یک عمل Write را آغاز می کند.

2- استوریج اصلی VNX ارسال کرده و هاست را Acknowledge می کند.

3- استوریج اصلی VNX تغییرات را دنبال کرده و بر روی استوریج ثانویه با دستورالعمل RPO مشخص شده توسط کاربر Replicate می نماید.

4- استوریج ثانویه داده ها را دریافت و Ack را به استوریج اصلی ارسال می کند.

 

نکته مهم: در هر دو حالت MirrorView/A و MirrorView/S گروه های Consistent پشتیبانی می شوند. گروه های Consistent زمانی مورد استفاده قرار می گیرند که ما بخواهیم اطلاعات را با یک ترتیب مشخص بر روی چند LUN مشخص بنویسیم. به عنوان مثال شما اگر در ساختار VMWare خود یک Datastore متشکل از 6 عدد LUN داشته باشید نیاز خواهید داشت برای هر کدام از آنها در وضعیت Consistent بوده و در ارتباط با یکدیگر باشند تا کارکرد بهتری داشته باشند.

 

 

 


دستورات اصلی EMC Navisphere در Naviseccli

Navisphere CLI is a command line interface tool for EMC storage system management.

You can use it for storage provisioning and manage array configurations from any one of the managed storage system on the LAN.

It can also be used to automate the management functions through shell scripts and batch files.

CLI commands for many functions are server based and are provided with the host agent.

The remaining CLI commands are web-based and are provided with the software that runs in storage system service processors (SPs).

Configuration and Management of storage-system using Navisphere CLI:

The following steps are involved in configuring and managing the storage system (CX series, AX series) using CLI:

  • Install the Navisphere on the CLI on the host that is connected to the storage. This host will be used to configure the storage system.
  • Configure the Service processor (SP) agent on the each SP in the storage system.
  • Configure the storage system with CLI
  • Configuring and managing remote mirrors (CLI is not preferred to manage mirrors)

The following are two types of Navisphere CLI:

  1. Classic CLI is old version and it does not support any new features. But, this will still get the typical storage array jobs done.
  2. Secure CLI is most secured and preferred interface. Secure CLI includes all the commands as Class CLI with additional features. It also provides role-based authentication, audit trails of CLI events, and SSL-based data encryption.

Navisphere CLI is available for various OS including Windows, Solaris, Linux, AIX, HP-UX, etc.

Two EMC CLARiiON Navisphere CLI commands:

  1. naviseccli (Secure CLI) command sends storage-system management and configuration requests to a storage system over the LAN.
  2. navicli (Classic CLI) command sends storage-system management and configuration requests to an API (application programming interface) on a local or remote server.

In storage subsystem (CLARiiON, VNX, etc), it is very important to understand the following IDs:

  • LUN ID – The unique number assigned to a LUN when it is bound. When you bind a LUN, you can select the ID number. If you do not specify the LUN ID then the default LUN ID bound is 0, 1 and so on..
  • Unique ID – It usually refers to the storage systems, SP’s, HBAs and switch ports. It is WWN (world wide Name) or WWPN (World wide Port Name).
  • Disk ID 000 (or 0_0_0) indicates the first bus or loop, first enclosure, and first disk, and disk ID 100 (1_0_0) indicates the second bus or loop, first enclosure, and first disk.
  1. Create RAID Group

The below command shows how to create a RAID group 0 from disks 0 to 3 in the Disk Processor Enclosure(DPE).

naviseccli –h H1_SPA createrg 0  0_0_0   0_0_1   0_0_2  0_0_3

In this example , -h Specifies the IP address or network name of the targeted SP on the desired storage system. The default, if you omit this switch, is localhost.

Since each SP has its own IP address, you must specify the IP address to each SP. Also a new RAID group has no RAID type (RAID 0, 1, 5) until it is bound. You can create more RAID groups 1, 2 and so on using the below commands:

naviseccli –h H1_SPA createrg 1  0_0_4 0_0_5 0_0_6

 

naviseccli –h H1_SPA createrg 2 0_0_7 0_0_8

This is similar to how you create raid group from the navsiphere GUI.

  1. Bind LUN on a RAID Group

In the previous example, we created a RAID group, but did not create a LUN with a specific size.

The following examples will show how to bind a LUN to a RAID group:

navisecli -h H1_SPA bind r5 6 -rg 0  -sq gb -cap 50

In this example, we are binding a LUN with a LUN number/LUN ID 6 with a RAID type 5 to a RAID group 0 with a size of 50G. –sq indicates the size qualifier in mb or gb. You can also use the options to enable or disable rc=1 or 0(read cache), wc=1 or 0 (write cache).

  1. Create Storage Group

The next several examples will shows how to create a storage group and connect a host to it.

First, create a stroage group:

naviseccli -h H1_SPA storagegroup -create -gname SGroup_1

  1. Assign LUN to Storage Group

In the following example, hlu is the host LUN number. This is the number that host will see from its end. Alu is the array LUN number, which storage system will see from its end.

naviseccli -h H1_SPA storagegroup -addhlu -gname SGroup_1 -hlu 12 -alu 5

  1. Register the Host

Register the host as shown below by specificing the name of the host. In this example, the host server is elserver1

naviseccli -h H1_SPA elserver1 register

  1. Connect Host to Storage Group

Finally, connect the host to the storage group as shown below by using -connecthost option as shown below. You should also specify the storagegroup name appropriately.

naviseccli -h H1_SPA storagegroup -connecthost -host elserver1 -gname SGroup_1

  1. View Storage Group Details

Execute the following command to verify the details of an existing storage group.

naviseccli  -h H1_SPA storagegroup –list –gname SGroup_1

Once you complete the above steps, your hosts should be able to see the newly provisioned storage.

  1. Expand RAID Group

To extend a RAID group with new set of disks, you can use the command as shown in the below example.

naviseccli -h H1_SPA chgrg 2 -expand 0_0_9  0_1_0 -lex yes -pri high

This extends the RAID group with the ID 2 with the new disks 0_0_9 & 0_1_0 with lun expansion set to yes and priority set to high.

  1. Destroy RAID Group

To remove or destroy a RAID group, use the below command.

naviseccli -h H1_SPA destroyrg 2  0_0_7 0_0_8 0_0_9 0_1_0 –rm yes –pri high

This is similar to how you destroy raid group from the navisphere GUI.

  1. Display RAID Group Status

To display the status RAID group with ID 2 use the below command.

naviseccli -h H1_SPA getrg 2 -lunlist

  1. Destroy Storage Group

To destroy a storage group called SGroup_1, you can use the command like below:

naviseccli -h H1_SPA storagegroup -destroy -gname SGroup_1

  1. Copy Data to Hotspare Disk

The naviseccli command initiates the copying of data from a failing disk to an existing hot spare while the original disk is still functioning.

Once the copy is made, the failing disk will be faulted and the hotspare will be activated. When the faulted disk is replaced, the replacement will be copied back from the hot spare.

naviseccli –h H1_SPA copytohotspare 0_0_5  -initiate

  1. LUN Migration

LUN migration is used to migrate the data from the source LUN to a destination LUN that has more improved performance.

naviseccli migrate –start –source 6 –dest 7 –rate low

Number 6 and 7 in the above example are the LUN IDs.

To display the current migration sessions and its properties:

naviseccli migrate –list

  1. Create MetaLUN

MetaLUN is a type of LUN whose maximum capacity is the combined capacities of all LUNs that compose it. The metaLUN feature lets you dynamically expand the capacity of a single LUN in to the larger capacity called a metaLUN. Similar to LUN, a metaLUN can belong to storage group and can be used for Snapview, MirrorView and SAN copy sessions.

You can expand a LUN or metaLUN in two ways — stripe expansion or concatenate expansion.

A stripe expansion takes the existing data on the LUN or metaLUN, and restripes (redistributes) it across the existing LUNs and the new LUNs you are adding.

The stripe expansion may take a long time to complete. A concatenate expansion creates a new metaLUN component that includes the new LUNs and appends this component to the end of the existing LUN or metaLUN. There is no restriping of data between the original storage and the new LUNs. The concatenate operation completes immediately

To create or expand a existing metaLUN, use the below command.

naviseccli -h H1_SPA metalun -expand -base 5 -lun 2 -type c -name newMetaLUN-sq gb –cap 50G

This creates a new meta LUN with the name “newMetaLUN” with the meta LUN ID 5 using the LUN ID 2 with a 50G concatenated expansion.

  1. View MetaLUN Details

To display the information about MetaLUNs, do the following:

naviseccli -h H1_SPA metalun –info

The following command will destroy a specific metaLUN. In this example, it will destory metaLUN number 5.

naviseccli –h H1_SPA metalun –destroy –metalun 5

Add your comment

 


  • 0

SAN استوریج EMC

SAN استوریج EMC

استوریج های Block شرکت EMC به استوریج هایی که در شبکه SAN مورد استفاده قرار می گیرد اطلاق می شود.


  • 0

استوریج های سری VNX شرکت EMC

EMC VNX

Home, Optimizer, Benchmarks, Server Systems, Systems Architecture, Processors, Storage,
Storage Overview, System View of Storage, SQL Server View of Storage, File Layout,

PCI-ESASFCHDDSSD Technology RAID ControllersDirect-Attach,
SAN, Dell MD3200, EMC CLARiiON AX4, CLARiiON CX4, VNX, V-Max,
HP P2000, EVA, P9000/VSP, Hitachi AMS
SSD products: SATA SSDs, PCI-E SSDs , Fusion iO , other SSD

Updated 2013-10

Update 2013-10
A link to Storage Review EMC Next Generation VNX Series Released … by Brian Beeler. While the preliminary slidedecks mention VNX2, the second generation VNX is jsut VNX. No 2 at the end.

In the table below, the second generation VNX specifications (per SP except as noted). The VNX5200 will come out next year?

VNX5200 VNX5400 VNX5600 VNX5800 VNX7600 VNX8000
Max FE ports 12? 16? 20 20 20 40
Max UltraFlex I/O 2 4 5 5 5 11
embedded I/O 2 SAS? 2 SAS 2 SAS 2 SAS 2 SAS none
Max SAS 2 6 6 6 16
Max FAST Cache 600GB 1TB 2TB 3TB 4.2TB 4.2TB
Max drive 125 250 500 750 1000 1500*
Xeon E5 1.2GHz 4c 1.8GHz 4c 2.4GHz 4c 2.0GHz 6c 2.2GHz 8c 2×2.7G 8c
Memory 16GB 16GB 24GB 32GB 64GB 128GB
Cores 4 4 4 6 8 16

 

Below is the back-end of the VNX5400 DPE. The DPE has 2 SPs. Each SP has 5 slots? One the top are the power supply, battery backup unit (BBU) and SAS module with 2-ports. One the bottom, the first module is for management.

EMC VNX

Close-up

EMC VNX

Below is the EMC VNX 8000 SPE back-end

EMC VNX

I/O module options for the VNX are: quad-port 8Gb/s FC, quad-port 1Gb/s Ethernet, dual-port 10GbE. The VNX 5600 and up can also support a quad-port 6Gb/s SAS module.

 

Updated 2013-02

While going through the Flash Management Summit 2012 slide decks, I came across the session Flash Implications in Enterprise Storage Designs by Denis Vilfort of EMC, that provided information on performance of the CLARiiON, VNX, a VNX2 and VNX Future.

A common problem with SAN vendors is that it is almost impossible to find meaningful performance information on their storage systems. The typical practice is to cited some meaningless numbers like IOPS to cache or the combined IO bandwidth of the FC ports, conveying the impression of massive IO bandwidth, while actually guaranteeing nothing.

VNX (Original)

The original VNX was introduced in early 2011? The use of the new Intel Xeon 5600 (Westmere-EP) processors was progressive. The decision to employ only a single socket was not.

EMC VNX

Basic IO functionality does not require huge CPU resources. But the second socket would double memory bandwidth, which is necessary for driving IO. Data read from storage must first be written to memory before being sent to host? The second processor would also better support a second IOH. Finally, the additional CPU resources would support the value-add features that SAN vendors so desparately try to promote.

EMC did provide the table below on their VNX mid-range systems in the document “VNX: Storage Technology High Bandwidth Application” (h8929) showing the maximum number of front-end FC and back-end SAS channels along with the IO bandwidths for several categories. This is actually unusual for a SAN storage vendor, so good for EMC. Unfortunately, there is no detailed explanation of the IO patterns for each category.

EMC VNX

Now obviously the maximum IO bandwidth can be reached in the maximum configuration, that is with all IO channels and all drive bays populated. There is also no question that maximum IO bandwidth requires all back-end IO ports populated and a sufficient number of front-end ports populated. (The VNX systems may support more front-end ports than necessary for configuration flexibility?)

However, it should not be necessary to employ the full set of hard disks to reach maximum IO bandwidth. This is because SAN systems are designed for capacity and IOPS. There are Microsoft Fast Track Data Warehouse version 3.0 and 4.0 documents for the EMC VNX 5300 or 5500 system. Unfortunately Microsoft has backed away from the bare table scan test of disk rate in favor of a composite metric. But it does seem to indicate that 30-50MB/s per disk is possible in the VNX.

What is needed is a document specifying the configuration strategy for high bandwidth specific to SQL Server. This includes the number and type of front-end ports, the number of back-end SAS buses, the number of disk array enclosures (DAE) on each SAS bus, the number of disks in each RAID group and other details for each significant VNX model. It is also necessary to configure the SQL Server database file layout to match the storage system structure, but that should be our responsibility as DBA.

It is of interest to note that the VNX FTDW reference architectures do not employ Fast Cache (flash caching) and (auto) tiered-storage. Both of these are an outright waste of money on DW systems and actually impedes performance. It can make good sense to employ a mix of 10K/15K HDD and SSD in the DW storage system, but we should use the SQL Server storage engine features (filegroups and partitioning) to place data accordingly.

A properly configured OLTP system should also employ separate HDD and SSD volumes, again using of filegroups and partitioning to place data correctly. The reason is that the database engine itself is a giant data cache, with perhaps as much as 1000GB of memory. What do we really expect to be in the 16-48GB SAN cache that is not in the 1TB database buffer cache? The IO from the database server is likely to be very misleading in terms of what data is important and whether it should be on SSD or HDD.

CLARiiON, VNX, VNX2, VNX Future Performance

Below are performance characteristics of EMC mid-range for CLARiiON, VNX, VNX2 and VNX Future. This is why I found the following diagrams highly interesting and noteworthy. Here, the CLARiiON bandwidth is cited as 3GB/s and the current VNX as 12GB/s (versus 10GB/s in the table above).

EMC VNX

I am puzzled that the VNX is only rated at 200K IOPS. That would correspond to 200 IOPS per disk and 1000 15K HDDs at low queue depth. I would expect there to be some capability to support short-stroke and high-queue depth to achieve greater than 200 IOPS per 15K disk.

The CLARiiON CX4-960 supported 960 HDD. Yet the IOPS cited corresponds to the queue depth 1 performance of 200 IOPS x 200 HDD = 40K. Was there some internal issue in the CLARiiON. I do recall a CX3-40 generating 30K IOPS over 180 x 15K HDD.

A modern SAS controller can support 80K IOPS, so the VNX 7500 with 8 back-end SAS buses should handle more than 200K IOPS (HDD or SSD), perhaps as high as 640K? So is there some limitation in the VNX storage processor (SP), perhaps the inter-SP communication? or a limitation of write-cache which requires write to memory in both SP?

VNX2?

Below (I suppose) is the architecture of the new VNX2. (Perhaps VNX2 will come out in May with EMC World?) In addition to transitioning from Intel Xeon 5600 (Westmere) to E5-2600 series (Sandy Bridge EP), the diagram indicates that the new VNX2 will be dual-processor (socket) instead of single socket on the entire line of the original VNX. Considering that the 5500 and up are not entry systems, this was disappointing.

EMC VNX

VNX2 provides 5X increase in IOPS to 1M and 2.3X in IO bandwidth to 28GB/s. LSI mentions a FastPath option that dramatically increases IOPS capability of their RAID controllers from 80K to 140-150K IOPS. My understanding is that this is done by completely disabling the cache on the RAID controller. The resources to implement caching for large array of HDDs can actually impede IOPS performance, hence caching is even more degrading on an array of SSDs.

The bandwidth objective is also interesting. The 12GB/s IO bandwidth of the original VNX would require 15-16 FC ports at 8Gbps (700-800MBps per port) on the front-end. The VNX 7500 has a maximum of 32 FC ports, implying 8 quad-port FC HBAs, 4 per SP.

The 8 back-end SAS busses implies 4 dual-port SAS HBAs per SP? as each SAS bus requires 1 SAS port to each SP? This implies 8 HBAs per SP? The Intel Xeon 5600 processor connects over QPI to a 5220 IOH with 32 PCI-E gen 2 lanes, supporting 4 x8 and 1×4 slots, plus a 1×4 Gen1 for other functions.

In addition, a link is needed for inter-SP communication. If one x8 PCI-E gen2 slot is used for this, then write bandwidth would be limited to 3.2GB/s (per SP?). A single socket should only be able to drive 1 IOH even though it is possible to connect 2. Perhaps the VNX 7500 is dual-socket?

An increase to 28GB/s could require 40 x8Gbps FC ports (if 700MB/s is the practical limit of 1 port). A 2-socket Xeon E5-2600 should be able to handle this easily, with 4 memory channels and 5 x8 PCI-E gen3 slots per socket.

VNX Future?

The future VNX is cited as 5M IOPS and 112GB/s. I assume this might involve the new NVM-express driver architecture supporting distributed queues and high parallelism. Perhaps the reason both VNX2 and VNX Future are described is that the basic platform is ready but not all the components to support the full bandwidth?

EMC VNX

The 5M IOPS should be no problem with an array of SSDs, and the new NVM express architecture of course. But the 112GB/s bandwidth is curious. The number of FC ports, even at a future 16Gbit/s is too large to be practical. When the expensive storage systems will finally be able to do serious IO bandwidth, it will also be time to ditch FC and FCOE. Perhaps the VNX Future will support infini-band? The puprose of having extreme IO bandwidth capability is to be able to deliver all of it to the database server on demand. If not, then the database server should have its own storage system.

The bandwidth is also too high for even a dual-socket E5-2600. Each Xeon E5-2600 has 40 PCI-E gen3 lanes, enough for 5 x8 slots. The nominal bandwidth per PCIe G3 lane is 1GB/s, but the realizable bandwidth might be only 800MB/s per lane, or 6.4GB/s. A socket system in theory could drive 64GB/s. The storage system is comprised of 2 SP, each SP being a 2-socket E5-2600 system.

To support 112GB/s each SP must be able to simultaneously move 56GB/s on storage and 56GB/s on the host-side ports for a total of 112GB/s per SP. In addition, suppose the 112GB/s bandwidth for read, and that the write bandwidth is 56GB/s. Then it is also necessary to support 56GB/s over the inter-SP link to guarantee write-cache coherency (unless it has been decided that write caching flash on the SP is stupid).

Is it possible the VNX Future has more than 2 SP’s? Perhaps each SP is a 2-socket E5-4600 system, but the 2 SPs are linked via QPI? Basically this would be a 4-socket system, but running as 2 separate nodes, each node having its own OS image. Or that it is a 4-socket system? Later this year, Intel should be releasing an Ivy Bridge-EX, which might have more bandwidth? Personally I am inclined to prefer a multi-SP system over a 4-socket SP.

Never mind, I think Haswell-EP will have 64 PCIe gen4 lanes at 16GT/s. The is 2GB/s per lane raw, and 1.6GB/s per lane net, 12.8GB/s per x8 slot and 100GB/s per socket. I still think it would be a good trick if one SP could communicate with the other over QPI, instead of PCIe. Write caching SSD at the SP level is probably stupid if the flash controller is already doing this? Perhaps the SP memory should be used for SSD metadata? In any case, there should be coordination between what each component does.

Summary

It is good to know that EMC is finally getting serious about IO bandwidth. I was of the opinion that the reason Oracle got into the storage business was that they were tired of hearing complaints from customers resulting from bad IO performance on the multi-million dollar SAN.

My concern is that the SAN vendor field engineers have been so thoroughly indoctrinated in the SaaS concept that only capacity matters while having zero knowledge of bandwidth, that they are not be able to properly implement the IO bandwidth capability of the existing VNX, not to mention the even higher bandwidth in VNX2 and Future.

unsorted misc

EMC VNX

EMC VNX

EMC VNX

EMC VNX

EMC VNX

EMC VNX Early 2011?

VNX came out in early 2011 or late 2010? All VNX models use the Xeon 5600 processors, ranging from 2.13 to 2.8GHz, and four to six cores (actually from 1.6GHz and 2 cores?). The 5100, 5300 and 5500 are comprised of two Disk-processor enclosures (DPE) that house both the storage processors and the first tray of disks. The 5700 and 7500 models are comprised of Storage-processor enclosures (SPE) that house only the storage processors. Two DPE or SPE comprise an Array.

VNX 5100 VNX 5300 VNX 5500 VNX 5700 VNX 7500
Max Drives 75 125 250 500 1000
Enclosure 3U Disk + SP 3U Disk + SP 3U Disk + SP 2U SP 2U SP
DAE Options 25 x 2.5″-2U
15 x 3.5″-3U
25 x 2.5″-2U
15 x 3.5″-3U
25 x 2.5″-2U
15 x 3.5″-3U
25 x 2.5″-2U
15 x 3.5″-3U
60 x 3.5″-4U
25 x 2.5″-2U
15 x 3.5″-3U
60 x 3.5″-4U
Memory per Array 8GB 16GB 24GB 36GB 48GB
Max UltraFlex IO
Modules per Array
0 4 4 10 10
Embedded IO Ports
per Array
8 FC & 4 SAS 8 FC & 4 SAS 8 FC & 4 SAS
Max FC Ports
per Array
8 16 16 24 32
SAS Buses
(to DAEs)
2 2 2 or 6 4 4 or 8
Freq 1.6GHz 1.6GHz 2.13GHz 2.4GHz 2.8GHz
cores 2 4 4 4 6
Mem/DPE 4GB 8GB 12GB 18GB 24GB

The VNX front-end is FC with options for iSCSI. The back-end is all SAS (in the previous generation, this was FC). The 5100-5500 models have 4 FC ports and 1 SAS bus (2 ports) embedded per DPE, for 8 FC and 2 SAS busses per array. The 5100 does not have IO expansion capability. The 5300 and 5500 have 2 IO expansion ports per DPE, for 4 total in the array. The 5300 only allows front-end IO expansion, while the 5500 allows expansion on both front-end and back-end IO.

The 5300 and higher VNX models can also act as file servers with X-blades in the IO expansion slots. This capability is not relevent to high-performance database IO and is not considered here.

Disk-array enclosure (DAE) options are now 25 x 2.5″ in 2U, 15 x 3.5″ in 3U or a 60 x 3.5″ in 4U. The hard disk long dimemsion is vertical, the 1″ disk height is aligned along the width of the DAE for 12 across, and this is 5 deep.

An UltraFlex IO Module attaches to a PCI-E slot? (x8?). Module options are quad-port FC (upto 8Gbps), dual-port 10GbE, or quad-port 1GbE, or 2 SAS busses (4-ports). So a module could be 1 SAS bus (2 ports), 4 FC ports etc?

Each SAS port is 4 lanes at 6Gbp/s and 2 ports make 1 “bus” with redundant paths.

The first 4 physical disks reserves 192GB per disk.

There is an EMC document h8929-vnx-high-bandwidth-apps-ep with useful information. more later. The diagram below is from the EMC VNC document. The VNX storage engine core is a Westmere processor (1 or 2?) with 3 memory channels, and IO adapters on PCI-E gen 2. The backend is SAS, and the front-end to host can be FC, FCoE or iSCSI.

Below is the VNX System architecture from an EMC slidedeck titled “Introducing VNX Series”. Note EMC copyright, so I suppose I should get permission to use? In block mode, only the VNX SP is required. In file mode, up to four X-Blades can be configured?

Below from: Introducing VNX Series, Customer Technical Update

EMC VNX

Below from h8929

EMC VNX

As far as I can tell, the VNX models have a single Xeon 5600 processor (socket). While it may not take much CPU-compute capability to support a SAN storage system, there is a significant difference in the IO capability with 2 processor sockets populated (6 memory channels instead of 3), noting that IO must be writen to memory from the inbound side, then read from memory to the outbound side.

VNX 5100 VNX 5300 VNX 5500 VNX 5500* VNX 5700 VNX 7500
Backend SAS Buses 2 2 2 6* 4 4 or 8 Max Frontend FC 8 16 16 16 24 32 DSS Bandwidth (MB/s) 2300 3600 4200 4200 6400 7300 DW Bandwidth (MB/s) 2000 3200 4200 6400 6400 10000 Backup BW – Cache bypass mode 700 900 1700 1900 3300 7500 Rich Media BW 3000 4100 5700 5700 6200 9400

Note: * VNX 5500 Hi-BW option consumes all the flex-IO modules, and bandwidth is limited by FC front-end?

EMC VNX

The SAS IO expansion module adds 4 SAS ports for a total of 6 ports, since 2 are integrated. However, only a total of 4 ports (2 busses) are used per DPE.

Full Data Warehouse bandwidth requires at least 130 x 15K SAS drives.

h8177

h8177 says:
VNX5100 can support 1,500MB/s per DPE or 3,000MB/s for the complete 5100 unit.
VNX5300 can support 3,700MB/s for the complete unit.
VNX5500 can support 4,200MB/s for the complete unit on integrated back-end SAS ports, and 6,000MB/s with additional back-end SAS ports.

Flare 31.5 talks about the VNX5500 supporting additional front-end and back-end ports in the 2 expansion slots. To achieve the full 6,000MB/s, the integrated 8Gbps FC ports must be used in combination with additional Front-end ports in one of the expansion slots

h8297

The Cisco/EMC version of the SQL Server Fast Track Data Warehouse employs one VNX 5300 with 75 disks and two 5300’s with a total of 150 disks, each VNX with 4 x 10Gb FCoE connections. The throughput is 1985 for the single 5300 and 3419MB/s for two. This is well below the list bandwidth of 3GB/s+ for the VNX5300, which may have required 130 disks?

Of the 75 disks on each 5300, only 60 are allocated to data. So the 1985MB/s bandwidth corresponds to 33MB/s per disk, well below the Microsoft FTDW reference of 100MB/s per disk. The most modern 15K 2.5in hard drives are rated for 202MB/s on the outer tracks (Seagate Savvio 15K.3). The Seagate Savvio 10K.5 is rated for 168MB/s on the outer tracks. With consideration for the fact that perfect sequential placement is difficult to achieve, the Microsoft FTDW target of 100MB/s per disk or even a lower target of 50MB/s per disk is reasonable, but 33MB/s per disk is rather low.

EMC VNX

Data warehouse IO is 512KB random read.
DSS is 64KB sequential read.
Backup is 512KB sequential write.
Rich media is 256KB sequential read.

Deploying EMC VNX Unified Storage Systems for Data Warehouse Applications (Dec 2011)
h8177-deploying-vnx-data-warehouse-wp,
Introduction to the EMC VNX Series, A Detailed Review (Sep 2011)
h8217-introduction-vnx-wp,
h8046-clariion-celerra-unified-fast-cache-wp

Other EMC documents h8297 Cisco Reference Configurations for Microsoft SQL Server 2008 R2 Fast Track Data Warehouse 3.0 with EMC VNX5300 Series Storage Systems
h8929 VNX: Storage Technology High Bandwidth Applications


آخرین دیدگاه‌ها

    دسته‌ها