استوریج های EMC VMAX

  • ۰

استوریج های EMC VMAX

استوریج های EMC VMAX

استوریج های EMC VMAX

استوریج های EMC VMAX

EMC VMAX

در سال 2012 میلادی شرکت DELL/EMC  ، سری جدید استوریج های VMAX All-Flash خود را معرفی کرد.

سری دستگاههای جدید تولید شده VMAX 250F  ، VMAX 450F  و VMAX 850F  می باشند. این خانواده از معماری منحصر بفرد Dynamic Virtual Matrix  و  HYPERMAX OS استفاده می کند و استفاده از استوریج VMAX Hybrid می تواند تمامی نیازهای محیطهای دیتاسنتری از قبیل فضای مورد نیاز ذخیره سازی و سرعت انتقال مورد لازم را ارائه دهد.

تجهیزات VMAX All-Flash  با قابلیت های زیر طراحی و مهندسی شده اند:

* Performance

فارغ از فضای ذخیره سازی مورد نیاز کاربر ، دستگاه VMAX طوری طراحی شده است که بتواند 4 میلیون IOPS  را با تاخیر زمانی (Latency )  0.5 میلی ثانیه انجام دهد.

* دسترسی و مقاومت بالا

دستگاههای VMAX با کمترین زمان Downtime ممکن کار می کنند و همچنین با استفاده از نرم افزار SDRF ، قابلیت Multi-Site Replication  را برای بازگردانی و شروع دوباره سریع ، در اختیار کاربر قرار می دهد.

* فشرده سازی خطی:

این نوع از فشرده سازی در لایه HYPERMAX OS  انجام می شود تا فضای استوریج مدیریت گردد.

* مهاجرت بدون وقفه NDM

از این قابلیت برای مهاجرت دادن هاستها و Application ها به استوریج VMAX جدید و بدون هیچ وقفه ای استفاده می شود.

* افزایش عمر درایوهای فلش

دستگاه استوریج EMC VMAX از الگوریتم قدرتمندی برای Write  کردن استفاده می کند که در آن از هاردها و حافظه فلش برای پایین آوردن حجم Write  استفاده می کند.

* تکنولوژی فلشی

* مقیاس پذیری بالا

* سرویس های داده

از این سرویسها می توان به Remote Replication با استفاده از نرم افزار SDRF و Local Replication با استفاده از نرم افزار  TimeFinder SnapVX اشاره کرد. این استوریج ها همچنین قابلیت یکپارچه سازی با نرم افزار فوق العاده DELL/EMC AppSync  را برای Local Replication دارد.

* یکپارچگی

* بسته بندی و طراحی فوق العاده شیک

* مدیریت آسان استوریج

 

 

 


  • ۰

استوریج های EMC Atmos

استوریج های EMC Atmos

استوریج های EMC Atmos

استوریج های EMC Atmos

EMC Atmos

EMC Atmos  به پلتفرم استوریج ابری شرکت EMC اطلاق می شود و می تواند به عنوان یک ابزار سخت افزاری و یا نرم افزاری نصب و راه اندازی گردد.

Atmos از معماری Object-Storage استفاده می کند که برای مدیریت چندین پتابایت از داده ها و میلیاردها  Object در بین سایتهای جغرافیایی چندگانه و دور از هم به مانند یک سیستم استوریج واحد در یک محیط محلی عمل می کند.

EMC Atmos استوریجی Cloud بر پایه Object می باشد که در محیطهایی با مقیاس بالا مورد استفاده قرار می گیرد که در آن می توان داده های غیر ساختار یافته را ذخیره سازی و آرشیوگیری و مدیریت نمود.

تجهیزات Atmos قابلیت استفاده در محیطهای ابری Private ، Public و Hybrid را دارند.

نسل جدید دستگاههای استوریج Atmos ، مدل Elastic Cloud Storage ECS می باشد که می تواند بصورتهای زیر راه اندازی گردد:

  • EMC Atmos Cloud Storage Platform
  • EMC Atmos Virtual Edition

 

گروه فنی و مهندسی وی سنتر ارائه دهنده کلیه راهکارها و تجهیزات ذخیره سازی EMC آمادگی خود را برای تامین نیازهای مشتریان در این حوزه اعلام می دارد.

شماره تماس: 88884268

ایمیل: info@vcenter.ir

 

 


  • ۰

مفهوم Filer

مفهوم Filer

مفهوم Filer

مفهوم Filer

دستگاه های NAS موسوم به فایلر تمام توان پردازشی خود را صرفا روی خدمات فایلی و ذخیره سازی فایل متمرکز می کنند. در واقع فایلر به عنوان یک وسیله ذخیره سازی، نقش یک فایل سرور اختصاصی را ایفا می کند. فایلر مستقیما به شبکه(معمولا LAN) متصل می شود تا دسترسی به داده ها را در سطح فایل فراهم سازد. نصب، راه اندازی و مدیریت آسان فایلر، و همچنین مستقل از سکو بودن آن، باعث شده تا هزینه های مدیریتی کاهش چشمگیری پیدا کنند.
فایلر های NAS می توانند در هر جایی از شبکه مستقر شوند، بنابراین مدیر شبکه آزادی کامل دارد که آنها را در نزدیکی محلی قرار دهد که نیاز به خدمات ذخیره سازی دارد. یکی از فوایداصلی استفاده از فایلر آزاد شدن سرورهای همه منظوره و گران قیمت سازمان از انجام عملیات مدیریت فایل است. سرورهای همه منظوره غالبا درگیر عملیاتی می شوند که CPU را زیاد به کار می کشند و بنابراین نمی توانند به خوبی فایلر از عهده عملیات مدیریت فایل بر آیند.
تحلیلگران پیش بینی می کنند نیاز به ظرفیت ذخیره سازی طی سال آینده ده برابر نسبت به گذشته افزایش پیدا کند و به همین دلیل به مدیران IT استفاده از NAS را توصیه می کنند. برای هر سازمانی که در حال استفاده از فایل سرورهای همه منظوره هستند (یا قصد استفاده از آنها را دارند) بهترین راه حل این است که سیستم های NAS را جایگزین سرورهای خود بکنند.

 

 

 


  • ۰

ساختار هارد SSD و اجزای درونی آن

ساختار SSD ها و اجزای درونی آنها

ساختار SSD ها و اجزای درونی آنها

ساختار SSD ها و اجزای درونی آنها

ساختار SSD ها و اجزای درونی آنها: بطور خلاصه SSD یعنی ذخیره سازی اطلاعات روی تراشه سیلیکونی یا همان فلش مموری ها.

تمایز اصلی SSD ها با هارد دیسک ها در عدم استفاده از قطعه متحرک مکانیکی در ساختارشان است.

SSD ها دارای اجزای مختلفی هستند:

  • PCB – Printed circuit board – تخته مدار چاپی می باشد که انواع IC ها و اجزای دیگر SSD روی آن قرار می گیرد .
  • FLASH – حافظه های فلش که اغلب از نوع NAND هستند و ظرفیت های ۸،۱۶ و۳۲ دارند. همانطور که در تصویر می بینید درایو SX900 ای دیتا دارای ۸ چیپ ۱۶ روی مدار و ۸ چیپ ۱۶ در پشت آن می باشد.
  • Controller – پردازنده اصلی و تصمیم گیر فعالیت های SSD می باشد (در بخش های بعدی توضیح داده می شود)
  • SATA & Power –رابط های SSD می باشند که با رابط الکتریسیته و SATA ی هارد دیسک ها تناسب دارند.

 

 


  • ۰

بررسی استوریج EMC VNX5400

بررسی استوریج EMC VNX5400

در این هفته کاری که گذشت کارشناسان ما در یک سازمانی برای راه اندازی استوریج EMC VNX5400 و محیط مجازی سازی حضور پیدا کردند و از اینرو تصمیم گرفتیم تا در خصوص کلیات دستگاه استوریج EMC VNX5400 در این مطلب به بحث بپردازیم.

با یک نگاه معمولی به پشت دستگاه استوریج VNX5400 به راحتی می توان به تفاوت های اصلی آن با دستگاه استوریج VNX5300 پی برد.

اولین چیزی که به چشم می خورد وجود ماژول های مختلف SLIC و استقرار پورتها بر روی ماژول ها می باشد که در مدل VNX5300 همه آنها بصورت Onboard بودند. دستگاه Data Mover در استوریج های Unified نیز از این قاعده تبعیت می کند.

وجود یک پیچی نارنجی رنگ که برای جدا کردن ماژول های بالا بکار می رود. این ماژول ها شامل باطری های بکاپ در سمت چپ و پاورها در سمت راست می باشند که همه در پشت دستگاه تعبیه شده اند و قابلیت تعویض بصورت آنلاین را دارند.

بررسی-استوریج-EMC-VNX5400

تصویر بعدی نمایی از جلوی دستگاه VNX5400 می باشد که بسیار شبیه دستگاههای VNX5100 و یا VNX5300 با هاردهای 2.5 اینچی می باشد البته با این تفاوت که به جای یک Spacer آهنی در زیر هارد درایو ها در این دستگاه فن ها قرار دارند که دقیقا در جلوی ماژول های CPU دستگاه قرار دارند. این ماژول های CPU که قلب تپنده دستگاه SAN تلقی می شوند SP یا همان Storage Processor نامیده می شوند.

بررسی-استوریج-EMC-VNX5400

خب حالا یک نگاهی دقیق تر به پشت دستگاه و مشخصا طرف SP A می اندازیم. در قسمت بالای آن پورتهای BUS وجود دارند که این پورتها باید از طریق کابلهای SAS به محفظه های دیسک Enclosure یا همان DAE ها وصل می شوند. قبل از برقراری ارتباطات میان Enclosure ها باید پورتهای BUS صفر و یک از روی دستگاه DPE به دو DAE اول وصل شوند.

بررسی-استوریج-EMC-VNX5400

در عکس زیر می توانید نمونه کابلهای جدید BUS را ببینید.

بررسی-استوریج-EMC-VNX5400

در این عکس دو سر کابل ارتباطی نمایان می باشد.

بررسی-استوریج-EMC-VNX5400

در این مرحله با Power Supply و کابل مربوط به چراغهای Face Plate آشنا خواهیم شد. کابلهای مربوط به Face Plate تاثیری در کار اصلی دستگاه ندارند و همانطور که در عکس های بعدی مشاهده می کنید چراغهای LED را روشن می کند.

بررسی-استوریج-EMC-VNX5400بررسی-استوریج-EMC-VNX5400

این Face Plate برق مصرفی خود را از رک گرفته و به شکل زیر LED های جلوی دستگاه را روشن می نماید.

بررسی-استوریج-EMC-VNX5400

شما می توانید در ذیل تصویر ملحقات سیستم را مشاهده فرمایید. ما در مقالات بعدی به نصب و راه اندازی و تست Performance دستگاه خواهیم پرداخت.

پس با ما باشید.

 

بررسی-استوریج-EMC-VNX5400 بررسی-استوریج-EMC-VNX5400 بررسی-استوریج-EMC-VNX5400
عکس Visio از کلیه ملحقات استوریج EMC VNX5400 Unified
بررسی-استوریج-EMC-VNX5400 بررسی-استوریج-EMC-VNX5400 بررسی-استوریج-EMC-VNX5400
بررسی-استوریج-EMC-VNX5400 بررسی-استوریج-EMC-VNX5400 بررسی-استوریج-EMC-VNX5400

 

بررسی-استوریج-EMC-VNX5400 بررسی-استوریج-EMC-VNX5400

 


  • ۰

نحوه راه اندازی Analyzer در EMC Unisphere

نحوه راه اندازی Analyzer در EMC Unisphere

ابتدا به کنسول Unisphere لاگین شده و سیستم استوریج مورد نظر را از تب سیستمها انتخاب می کنیم.

آدرس IP مربوط به SP دستگاه استوریج CLARiiON برای ورود به Unisphere مورد نیاز می باشد.

در حالتی که بیش از یک دستگاه در کنسول شما وجود دارد باید با توجه به شماره سریال دستگاه استوریج آنرا انتخاب نماییم.

 

باید Statistics Logging را در قسمت سیستم فعال نماییم.

در قسمت System Management بر روی گزینه Properties کلیک می نماییم و سپس تیک مربوط به Statistics Logging را می زنیم.

 

در تب بالای Monitoring گزینه Analyzer را کلیک می کنیم سپس بر روی لینک Performance Data Logging کلیک می کنیم.

 

تنظیمات مربوط به Data Logging در این صفحه مطابق شکل و با کلیک بر روی دکمه Start انجام می گردد. در این مرحله پیشنهاد می گردد تا دیتا حداقل در بازه هفت روزه جمع آوری گردد.

در این پنجره تایید خود را با زدن دکمه Yes به سیستم اعلام می کنیم.

زمانی که این مرحله به پایان رسید

پس از تکمیل این مرحله، صبر کنید تا زمان اختصاص داده شده به پایان برسد،و سپس مراحل زیر را برای جمع آوری داده های آماری انجام دهید.
 باید فایل NAR که شامل داده های آماری می باشد را در کنسول گرافیکی VNX Unisphere بازیابی نماییم. 

وارد کنسول Unisphere می شویم.

بر روی Array که می خواهیم دیتا را از آن جمع آوری کنیم کلیک می نماییم.

 

در تب System بر روی قسمت Monitoring and Alerts کلیک می کنیم.

بر روی آیکون Statistics for Block کلیک می نماییم.

در قسمت راست بر روی لینک Retrieve Archive کلیک می نماییم.

در پنجره Retrieve Archive ، آرایه خود را انتخاب و SPA را انتخاب نماید.(فایلهای NAR فقط به یکی از SP ها نیاز دارد.)

بر روی Save File As مسیر ذخیره سازی فایلها را مشخص می کنیم.

فایلهای NAR و NAZ را که مربوط به بازه زمانی که داده ها را جمع آوری کرده ایم برجسته می کنیم. حدود 10 الی 15 فایل وجود خواهد داشت که بر روی دکمه Retrieve کلیک می کنیم.

مراحل بازگردانی را با زدن گزینه های YES در پنجره Retrieve Archive تایید می کنیم.

در پشت قضیه فایل ها Verify می شوند و سپس بر روی دکمه Done کلیک می کنیم.

به دایرکتوری مربوط به فایلهای بازیابی شده رفته و فایلها را فشرده کرده و برای EMC و یا EMC Reseller ارسال می نماییم.

گروه فنی و مهندسی وی سنتر ارائه دهنده راهکارهای ذخیره سازی و بکاپ آمادگی خود را برای تامین نیازهای مشتریان اعلام می دارد.

شماره تماس: 88884268 – 021


  • ۰

راه اندازی VMware VASA بر روی استوریج EMC VNX5200

راه اندازی VMware VASA بر روی استوریج EMC VNX5200

در ابتدا به اطلاع کلیه مهندسینی که قصد نصب و پیکربندی VMware VASA بر روی vSphere 5.5 برای استوریج VNX5200 و یا بقیه مدلهای VNX2 را دارند می رساند که این کار غیر ممکن می باشد و وقت خودشان را تلف نکنند.

این موضوع به دلیل وجود باگ در این ورژن می باشد که خود شرکت VMware نیز به آن اشاره نموده است البته این مشکل در ورژن vSphere 6.0 وجود ندارد و عزیزانی که از ورژن 6 استفاده می کنند بدون هیچ مشکلی می توانند نصب و پیکربندی نمایند. اما در صورتی که از نسخه vSphere 5.5 استفاده می کنید باید برای حل این مشکل یک سیستم عاملی مانند ویندوز یا لینوکس به عنوان EMC SMI-S Agent نصب کرده و آن را به دستگاه VNX وصل کنیم و بعد از آن می توانیم آن را بر روی vCenter ثبت کنیم.

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200

مراحل کار بسیار ساده می باشد، ابتدا باید آخرین نسخه SMI-S Provider که شامل ورژن های 4.6 و 7.6.2.65 می باشند را از وبسایت support.emc.com دانلود می کنیم و سپس در طول مراحل نصب بر روی Array Provider کلیک می کنیم.

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200
بر روی SYMAPI نیز کلیک می کنیم.

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200

از دستور TestSmiProvider.exe برای ارتباط با SMI-S Agent استفاده می کنیم:

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200

دستگاه استوریج VNX را در SMI-S ثبت می کنیم:

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200

از دستور dv برای چک کردن شناسایی دستگاه استفاده می کنیم. شایان ذکر است که می توان بیش از یک دستگاه را در اینجا Register نمود.

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200

در مرحله پایانی ما یک SMI-S Agent در vCenter به عنوان Storage Provider اضافه می کنیم. همانطور که در تصویر می بینید فقط یک Array در vCenter اضافه شده است. همچنین شما می توانید از یک Agent برای چندین vCenter استفاده کنید.

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200

شما می توانید از پرفایل استوریج خود را مشاهده و استفاده نمایید.

گروه فنی و مهندسی وی سنتر ارائه دهنده کلیه راهکارهای ذخیره سازی و بکاپ EMC آمادگی خود را برای تامین نیازهای مشتریان اعلام می دارد.

شماره تماس: 88884268 – 021

ایمیل: info@vcenter.ir


  • ۰

فروش استوریج HP

فروش استوریج HP

گروه فنی و مهندسی وی سنتر آمادگی خود را برای ارائه مشاوره فنی و فروش استوریج های HP اعلام می دارد.

شما همچنین می توانید استوریج خود را بصورت آنلاین پیکربندی و قیمت گیری نمایید.

شماره تماس: 88884268

پیکربندی آنلاین

استوریج های HP در دسته های زیر تقسیم بندی می شوند:

HP MSA 1040

HP MSA 2040

HP MSA P2000 G3

HP 3PAR StoreServ

HP D2600

HP D2700

HP D3700

 

برای دسترسی به آموزشهای دیتاسنتر به شبکه آموزشی وی سنتر بپیوندید.

شبکه آموزشی


  • ۰

معرفی EMC VNX MirrorView

معرفی EMC VNX MirrorView

معرفی EMC VNX MirrorView

معرفی EMC VNX MirrorView

معرفی EMC VNX MirrorView: نرم افزار EMC VNX MirrorView ارائه دهنده راهکاری برای Replication در لایه بلاک در محصولات EMC VNX محسوب می شود.

این نرم افزار دارای دو Mode برای Remote Mirroring می باشد:

  • MirroView/S Synchronous
  • MirrorView/A Asynchronous

نرم افزار MirrorView به تکنولوژی گفته می شود که در آن اصل دیتای بلاک استوریج که در حالت اکتیو و استفاده می باشند در استوریج سایت ریموت ذخیره می شوند. این سایت ریموت که به آن سایت پشتیبان نیز گفته می شود در حال حاضر یکی از راهکارهای مناسب برای Disaster Recovery محسوب می شود. راهکار MirrorView بر پایه LUN کار می کند به این مفهوم که در عمل Replication یک LUN از سایت اصلی بر روی یک LUN در سایت دوردست یا همان سایت Disaster Recovery ذخیره می شود.

 

MirrorView/S

در حالت MirrorView/S که synchronous replication نیز نامیده می شود در فاصله های نزدیک قابلیت Replication همزمان را ارائه می نماید. ار آنجا که در راهکار Synchronous Replication همه چیز همزمان انحام می پذیرد اندازه RPO Recovery Point Objective صفر می باشد.

گردش دیتا در MirrorView/S به شرح ذیل می باشد:

1- هاست به استوریج اصلی VNX وصل شده و یک عمل Write را آغاز می کند.

2- استوریج اصلی VNX داده ها را در استوریج ثانویه Replicate می نماید.

3- استوریج ثانویه VNX خبر اتمام عملیات Write را به استوریج اصلی VNX می دهد.

4- استوریج ثانویه VNX خبر اتمام عملیات Write را به هاست می دهد.

خیلی مهم است که ما از نحوه گردش دیتا در MirrorView/S آگاه شویم. به عنوان شما باید بدانید زمان رفت و برگشت RTT Round Trip Time بین دو استوریج VNX نباید بیشتر از 10 میلی ثانیه باشد. اگر زمان RTT بالاتر از این مقدار باشد مدت زمان پاسخگویی هاست نیز بالاتر خواهد رفت بدلیل اینکه مدت زمان بیشتری برای ارسال Acknowledge برای درخواست Write طول خواهد کشید.

 

MirrorView/A

در حالت MirrorView/A قابلیت Replication برای فاصله های بلند را فراهم می سازد. این حالت می تواند برای انجام Replication بین دو دستگاه استوریج VNX مورد استفاده قرار گیرد. در این حالت مدت زمان RTT بسیار بالا می باشد ولی باید به این نکته توجه داشت که این زمان نباید بیشتر از 200 میلی ثانیه باشد. در حالت MirrorView Asynchronous  این نرم افزار ، مدلی برای آپدیت زمان دار تغییرات Track ها در سایت اصلی وجود دارد که با استفاده از این مدل تغییرات در سایت ثانویه با استفاده از فاصله زمانی RPO مورد نظر کاربر انجام می پذیرد.

با استفاده از MirrorView/A Replication اعلام اتمام عملیات نوشتن در زمان دریافت توسط استوریج اصلی به هاست ارسال می شود که اساسا هیچ تاثیر منفی در محیط عملیاتی ندارد در حالی که با استفاده از MirrorView/S همه عملیات نوشتن باید توسط دو استوریج Acknowledge شوند.

گردش دیتا در MirrorView/A به شرح ذیل می باشد:

1- هاست به استوریج اصلی VNX وصل شده و یک عمل Write را آغاز می کند.

2- استوریج اصلی VNX ارسال کرده و هاست را Acknowledge می کند.

3- استوریج اصلی VNX تغییرات را دنبال کرده و بر روی استوریج ثانویه با دستورالعمل RPO مشخص شده توسط کاربر Replicate می نماید.

4- استوریج ثانویه داده ها را دریافت و Ack را به استوریج اصلی ارسال می کند.

 

نکته مهم: در هر دو حالت MirrorView/A و MirrorView/S گروه های Consistent پشتیبانی می شوند. گروه های Consistent زمانی مورد استفاده قرار می گیرند که ما بخواهیم اطلاعات را با یک ترتیب مشخص بر روی چند LUN مشخص بنویسیم. به عنوان مثال شما اگر در ساختار VMWare خود یک Datastore متشکل از 6 عدد LUN داشته باشید نیاز خواهید داشت برای هر کدام از آنها در وضعیت Consistent بوده و در ارتباط با یکدیگر باشند تا کارکرد بهتری داشته باشند.

 

 

 


  • ۰

دستورات اصلی EMC Navisphere در Naviseccli

Navisphere CLI is a command line interface tool for EMC storage system management.

You can use it for storage provisioning and manage array configurations from any one of the managed storage system on the LAN.

It can also be used to automate the management functions through shell scripts and batch files.

CLI commands for many functions are server based and are provided with the host agent.

The remaining CLI commands are web-based and are provided with the software that runs in storage system service processors (SPs).

Configuration and Management of storage-system using Navisphere CLI:

The following steps are involved in configuring and managing the storage system (CX series, AX series) using CLI:

  • Install the Navisphere on the CLI on the host that is connected to the storage. This host will be used to configure the storage system.
  • Configure the Service processor (SP) agent on the each SP in the storage system.
  • Configure the storage system with CLI
  • Configuring and managing remote mirrors (CLI is not preferred to manage mirrors)

The following are two types of Navisphere CLI:

  1. Classic CLI is old version and it does not support any new features. But, this will still get the typical storage array jobs done.
  2. Secure CLI is most secured and preferred interface. Secure CLI includes all the commands as Class CLI with additional features. It also provides role-based authentication, audit trails of CLI events, and SSL-based data encryption.

Navisphere CLI is available for various OS including Windows, Solaris, Linux, AIX, HP-UX, etc.

Two EMC CLARiiON Navisphere CLI commands:

  1. naviseccli (Secure CLI) command sends storage-system management and configuration requests to a storage system over the LAN.
  2. navicli (Classic CLI) command sends storage-system management and configuration requests to an API (application programming interface) on a local or remote server.

In storage subsystem (CLARiiON, VNX, etc), it is very important to understand the following IDs:

  • LUN ID – The unique number assigned to a LUN when it is bound. When you bind a LUN, you can select the ID number. If you do not specify the LUN ID then the default LUN ID bound is 0, 1 and so on..
  • Unique ID – It usually refers to the storage systems, SP’s, HBAs and switch ports. It is WWN (world wide Name) or WWPN (World wide Port Name).
  • Disk ID 000 (or 0_0_0) indicates the first bus or loop, first enclosure, and first disk, and disk ID 100 (1_0_0) indicates the second bus or loop, first enclosure, and first disk.
  1. Create RAID Group

The below command shows how to create a RAID group 0 from disks 0 to 3 in the Disk Processor Enclosure(DPE).

naviseccli –h H1_SPA createrg 0  0_0_0   0_0_1   0_0_2  0_0_3

In this example , -h Specifies the IP address or network name of the targeted SP on the desired storage system. The default, if you omit this switch, is localhost.

Since each SP has its own IP address, you must specify the IP address to each SP. Also a new RAID group has no RAID type (RAID 0, 1, 5) until it is bound. You can create more RAID groups 1, 2 and so on using the below commands:

naviseccli –h H1_SPA createrg 1  0_0_4 0_0_5 0_0_6

 

naviseccli –h H1_SPA createrg 2 0_0_7 0_0_8

This is similar to how you create raid group from the navsiphere GUI.

  1. Bind LUN on a RAID Group

In the previous example, we created a RAID group, but did not create a LUN with a specific size.

The following examples will show how to bind a LUN to a RAID group:

navisecli -h H1_SPA bind r5 6 -rg 0  -sq gb -cap 50

In this example, we are binding a LUN with a LUN number/LUN ID 6 with a RAID type 5 to a RAID group 0 with a size of 50G. –sq indicates the size qualifier in mb or gb. You can also use the options to enable or disable rc=1 or 0(read cache), wc=1 or 0 (write cache).

  1. Create Storage Group

The next several examples will shows how to create a storage group and connect a host to it.

First, create a stroage group:

naviseccli -h H1_SPA storagegroup -create -gname SGroup_1

  1. Assign LUN to Storage Group

In the following example, hlu is the host LUN number. This is the number that host will see from its end. Alu is the array LUN number, which storage system will see from its end.

naviseccli -h H1_SPA storagegroup -addhlu -gname SGroup_1 -hlu 12 -alu 5

  1. Register the Host

Register the host as shown below by specificing the name of the host. In this example, the host server is elserver1

naviseccli -h H1_SPA elserver1 register

  1. Connect Host to Storage Group

Finally, connect the host to the storage group as shown below by using -connecthost option as shown below. You should also specify the storagegroup name appropriately.

naviseccli -h H1_SPA storagegroup -connecthost -host elserver1 -gname SGroup_1

  1. View Storage Group Details

Execute the following command to verify the details of an existing storage group.

naviseccli  -h H1_SPA storagegroup –list –gname SGroup_1

Once you complete the above steps, your hosts should be able to see the newly provisioned storage.

  1. Expand RAID Group

To extend a RAID group with new set of disks, you can use the command as shown in the below example.

naviseccli -h H1_SPA chgrg 2 -expand 0_0_9  0_1_0 -lex yes -pri high

This extends the RAID group with the ID 2 with the new disks 0_0_9 & 0_1_0 with lun expansion set to yes and priority set to high.

  1. Destroy RAID Group

To remove or destroy a RAID group, use the below command.

naviseccli -h H1_SPA destroyrg 2  0_0_7 0_0_8 0_0_9 0_1_0 –rm yes –pri high

This is similar to how you destroy raid group from the navisphere GUI.

  1. Display RAID Group Status

To display the status RAID group with ID 2 use the below command.

naviseccli -h H1_SPA getrg 2 -lunlist

  1. Destroy Storage Group

To destroy a storage group called SGroup_1, you can use the command like below:

naviseccli -h H1_SPA storagegroup -destroy -gname SGroup_1

  1. Copy Data to Hotspare Disk

The naviseccli command initiates the copying of data from a failing disk to an existing hot spare while the original disk is still functioning.

Once the copy is made, the failing disk will be faulted and the hotspare will be activated. When the faulted disk is replaced, the replacement will be copied back from the hot spare.

naviseccli –h H1_SPA copytohotspare 0_0_5  -initiate

  1. LUN Migration

LUN migration is used to migrate the data from the source LUN to a destination LUN that has more improved performance.

naviseccli migrate –start –source 6 –dest 7 –rate low

Number 6 and 7 in the above example are the LUN IDs.

To display the current migration sessions and its properties:

naviseccli migrate –list

  1. Create MetaLUN

MetaLUN is a type of LUN whose maximum capacity is the combined capacities of all LUNs that compose it. The metaLUN feature lets you dynamically expand the capacity of a single LUN in to the larger capacity called a metaLUN. Similar to LUN, a metaLUN can belong to storage group and can be used for Snapview, MirrorView and SAN copy sessions.

You can expand a LUN or metaLUN in two ways — stripe expansion or concatenate expansion.

A stripe expansion takes the existing data on the LUN or metaLUN, and restripes (redistributes) it across the existing LUNs and the new LUNs you are adding.

The stripe expansion may take a long time to complete. A concatenate expansion creates a new metaLUN component that includes the new LUNs and appends this component to the end of the existing LUN or metaLUN. There is no restriping of data between the original storage and the new LUNs. The concatenate operation completes immediately

To create or expand a existing metaLUN, use the below command.

naviseccli -h H1_SPA metalun -expand -base 5 -lun 2 -type c -name newMetaLUN-sq gb –cap 50G

This creates a new meta LUN with the name “newMetaLUN” with the meta LUN ID 5 using the LUN ID 2 with a 50G concatenated expansion.

  1. View MetaLUN Details

To display the information about MetaLUNs, do the following:

naviseccli -h H1_SPA metalun –info

The following command will destroy a specific metaLUN. In this example, it will destory metaLUN number 5.

naviseccli –h H1_SPA metalun –destroy –metalun 5

Add your comment

 


آخرین دیدگاه‌ها

    دسته‌ها