تجهیزات ذخیره سازی Synology

تجهیزات ذخیره سازی Synology

تجهیزات ذخیره سازی Synology

تجهیزات ذخیره سازی Synology
تجهیزات ذخیره سازی Synology

تجهیزات ذخیره سازی Synology: شـرکت synology تولید کننده ذخیره ساز تحت شبکه سینولوژی در کشـور تایـوان پایـه گـذاری شـده اسـت . تجهیزات ذخیره ساز Synology راهی را بـرای شبکه سازمانها  و کاربـران خانگـی ، شبکه شرکتهای کوچک  فراهم کرده است  تا راهی  مطمئـن و قابـل اعتمـاد بـرای متمرکـز کـردن ذخیره اطلاعات در یک نقطه  و Backup   گیـری سـاده از اطلاعات  ، اشـتراک گـذاری فایلها  و همـگام سـازی فایلهـا بـر روی سیستمهای عامل  مختلـف و دسترسـی سـریع بـه داده هـا را فراهـم مـی آورد . بـرای مدیران شبکه  مدیریـت فایلها بصورت  منعطـف و پاسـخگو بـه عنـوان یـك چالـش مهـم مطـرح مـی باشـد . کاربـران تجـاری و خانگـی بـه دنبـال راهـی بـرای افرایـش حجـم و اسـتفاده موثرتـر از فایلهای خود در زمان مورد نیاز  مـی باشـند . سـینولوژی متعهـد بـه توسـعه راهکارهـای  NASبـرای موثرتـر و سـاده تـر کـردن مدیریـت فایلها  مـی باشـد . اسـتفاده از خلاقیت بـه عنـوان امـری کلیـدی باعـث گردیـده کـه تجهیزاتNAS سـینولوژی در بر گیرنـده خـط کاملـی از محصـولات سیسـتم عامـل ،  نـرم افـزاری ، ذخیـزه سـازی سـخت افـزاری و نـرم افزارهـا و سرویسـهای گوناگون گـرد.

 ذخیره سازهای تحت شبکه سینولوژی با توجه به تعداد هارد ، منابع سخت افزاری و نوع استفاده ای که از تجهیزات سینولوژی خواهد شد به چهار گروه مختلف تقسیم بندی می شوند . برای انتخاب بهترین محصول سینولوژی شما می توانید با کارشناسان مرکز پشتیبانی انفورماتیک ایران ، نمایندگی فروش و پشتیبانی Synology تماس گرفته و یا روی این لینک کلیک نمائید .

انواع ذخیره ساز تحت شبکه سینولوژی Synology

تجهیزات سینولوژی برای

کسب و کارهای مقیاس بزرگ

 

تجهیزات سینولوژی برای

کسب و کارهای کوچک و متوسط

تجهیزات سینولوژی برای

کسب و کارهای خانگی

تجهیزات سینولوژی برای

مصارف شخصی و خانگی

عملکرد برتر ذخیره سازهای Synology

تجهیزات سینولوژی عملکردی بالاتر  با توانی بسیار زیاد ( بیش از 3900 مگابایت/ثانیه و 348000)  عملیات ورودی و خروجی اطلاعات  را بر اساس انواع  پیکربندی RAID   فراهم می‌کند. تجهیزات سینولوژی دارای انواع رم  از 8 گیگابایت تا 64 گیگابایت  مجهز شده اند  که  در برخی از مدلهای ذخیره ساز سینولوژی نیز در  صورت نیاز امکان گسترش آن تا 1200 گیگابایت وجود دارد، بنابراین، مدیران  شبکه می توانند با استفاده از تجهیزات ذخیره سازی Synology  امنیت فایلهای شبکه خود را تضمین کنند و با خیالی آسوده از اطلاعات سرورهای شبکه خود Backup  تهیه نمایند .

 

انتقال سریع داده‌های رمزگذاری‌شده با AES-NI در ذخیره ساز شبکه سینولوژی

رمزگذاری داده‌ها در یک سیاست امنیتی سالم، ضروری است ذخیره سازهای تحت شبکه Synology    به یک موتور رمزگذاری اختصاصی مجهز شده اند تا  سیستمی ایده‌آل برای قفل کردن دیجیتالی فایلها ، داده ها  و پوشه‌های سرور شبکه  را فراهم کنند . سیستم رمز گذاری فایلها در سرور ذخیره اطلاعات Synology   هم‌زمان رمزگذاری شده و بدون فقدان قابل توجه عملکرد، منتقل می‌شوند. ذخیره سازهای شبکه سینولوژی دارای  سرعت خواندن بیش از 450 مگابایت/ثانیه و سرعت نوشتن بیش از 190 مگابایت/ثانیه هستند که این شرایط را  در انتقال داده‌های رمزگذاری‌شده فراهم می‌کنند .

 

پشتیبانی ذخیره ساز Synology  از سیستم عامل های مختلف

ذخیره ساز سینولوژی  با پشتیبانی از سیستم عامل ویندوز AD،   LDAP و Domain Trust، ادغام یکپارچه حساب را ممکن می‌سازد. ویژگی User Home، می‌تواند به صورت خودکار پوشه‌ای به نام «خانه» را جهت کمینه‌سازی تلاش مدیریتی در ایجاد پوشه‌های «خانه» برای تمام حسابها، برای هر حساب کاربری ایجاد کند. پشتیبانی ویندوز ACL در تجهیزات سینولوژی امکان تنظیم دقیق کنترلهای دسترسی و راه‌اندازی حق دسترسی به فایلها و پوشه‌ها در NAS سرور های Synology   از طریق رابط کاربری آشنا در ویندوز را برای مدیران فناوری اطلاعات فراهم می‌کند. تجهیزات سینولوژی  با   سازگاری که  با اکثر پروتکل‌ها دارد  می‌تواند هزینه‌های راه اندازی فایل سرور  را حذف کند و کارایی مدیران شبکه را افزایش دهد

 

Synology  دارای راه‌حل ذخیره‌سازی  مجازی سازی

ذخیره سازشبکه Synology دارای  راه‌حلهای ذخیره‌سازی یکپارچه   برای محیط‌های مجازی، شامل VMware، Citrix وMicrosoft Hyper-V می باشند . تجهیزات سینولوژی  با ادغام VMware vSphere 5 & VAAI، به تخلیه عملیات ذخیره‌سازی مشخص کمک می‌کند و قدرت محاسبه در محیط‌های مجازی  VMware را بهینه‌سازی می‌کند. پشتیبانی ویندوز ODX، توسطدستگاه ذخیره ساز سینولوژی Synology  کار با داده‌ها را در زمان تخلیه انتقال داده‌ها تسریع می‌کند.استفاده از  iSCSI  درذخیره ساز شبکه ای synology نیز امکان تقویت ذخیره‌سازی در مجموعه‌های ذخیره‌سازی مراکز داده‌ها را برای کاربران شبکه های کوچک و متوسط  فراهم می‌کند.

 

سیستم مدیریت مرکزی سرورهای Synology

CMS برای سازمانهایی که  بیش از یک سرور Synology NAS، دارند مناسب است و استفاده از CMS سیستم ذخیره ساز تحت شبکه Synology   سهولت و انعطاف‌پذیری را برای مدیر شبکه و سرورها  جهت مدیریت تمام تجهیزات ذخیره ساز شبکه سینولوژی ،  از یک نقطه ورودی فراهم می‌کند. اگر شما نیز یک مدیر شبکه هستید  می‌توانید از طریق یک رابط ساده مروری بر مصرف منابع و صورت‌های عملیات تجهیزات Synology مورد استفاده در شبکه خود را   بدست آورید که در شناسایی آنی هر مساله‌ای به شما کمک می‌کنند. CMS  با سیاستهای گروهی می‌تواند کارهای  بیشتری را برای وظایف روزانه شما انجام دهد. با الحاق NAS به یک گروه، به صورت خودکار و بدون تنظیمات اضافی، خود را با قوانین تطبیق داده و به نحو مطلوب رفتار می‌کند.

 

 

 


  • 0

SAN برای اتاق سرورها

SAN برای اتاق سرورها

SAN برای اتاق سرورها
SAN برای اتاق سرورها

SAN برای اتاق سرورها

SAN دیتا محور است. شبکه ای است که برای ذخیره سازی داده ها اختصاص داده شده است. SAN برخلاف NAS، جدای از LAN مرسوم است. بنابراین SAN می تواند از ایجاد ترافیک های استاندارد شبکه، به عنوان یک عامل بازدارنده سرعت، جلوگیری کند. SAN های مبتنی بر Filber Channel، با بهره گیری از مزایای کانال های I/O در یک شبکه اختصاصی جداگانه، سرعت را بهتر و تاخیر را کمتر می کنند.
SAN با استفاده از روتر، سوییچ و Gateway، انتقال داده ها بین محیط های ناهمگن ذخیره سازی و سروری را سهولت می بخشد. از همین رو، ایجاد یک شبکه ذخیره سازی نسبتا دور (در حد 10 کیلومتر) با SAN امکان پذیر است. معماری SAN برای انتقال داده های بلوکی در بهترین حالت است. در اتاق کامپیوترها، SAN غالبا بهترین انتخاب برای بررسی مسائل پهنای باند، دسترسی به داده ها، و یکپارچه سازی است.
با توجه به تفاوت های بنیادینی که بین تکنولوژی و اهداف SAN و NAS وجود دارد، برای انتخاب هر یک باید تصمیم اساسی گرفته شود. هر یک از این دو را می توان برای رفع نیازهای ذخیره سازی مورد استفاده قرار دارد. البته در آینده ممکن است مرز بین دو تکنولوژی آن چنان روشن نباشد و در یک مجموعه از هر دو روش استفاده شود.
راه حل های NAS برای نیازهای امروز شرکت ها
نیازهای شرکت های ISP، ASP و دات کام به سیستم های قابل اطمینان، کم هزینه، و قابل نصب در رک به گسترش راه حل های NAS کمک خواهد کرد. کاهش هزینه های کادر IT شرکت ها نیز از دیگر دلایل مقبولیت این راه حل ها خواهد بود. از دید کاربر، این که دسترسی به انبوه اطلاعات به صورت بلا درنگ امکان پذیر است، چیز خوشایندی است، و در سمت مدیریت، عدم نیاز به نیروی متخصص IT. مدیریت NAS از طریق یک رابط گرافیکی در مرورگر وب امکان پذیر است. از آنجا که فایلر NAS از قبل برای تامین نیازهای ذخیره سازی تنظیم شده است، اداره آن کار ساده ای است، و همین امر موجب کاهش خطاهایی می شود که هنگام دستکاری و تنظیم سیستم ها پیش می آیند. به علاوه، از آنجا که با NAS ظرفیت بیشتری را (نسبت به سرورهای همه منظوره) به ازاء هر مدیر می توان اداره کرد، هزینه کل مالکیت (TCO) نیز کاهش می یابد.
توسعه سریع، بدون توقف سرویسشرکت های دات کام و سایر شرکت های رو به رشد، همواره در تلاشند تا زیر ساخت های IT خود را با فعالیت های پویای کسب و کار خود همگام نگه دارند. اتکا به سرور یا سرورهای عمومی در بعضی فعالیت های شرکت، شاید ضروری باشد، اما نباید این سرورها را با نیازهای رو به افزون ذخیره سازی تحت فشار گذاشت. با اضافه کردن ظرفیت ذخیره سازی در سرورهای عمومی، قطعا با توقف سرویس (Downtime) مواجه خواهید شد. وقتی سیستمی را خاموش می کنید تا ظرفیت ذخیره سازی آن را افزایش دهید، برنامه های کاربردی شما از کار می افتند و تین یعنی کاهش بهره وری.
از سوی دیگر، افزایش ظرفیت ذخیره سازی با NAS نه تنها ساده است، بلکه بدون ایجاد اختلال در شبکه انجام می شود. طی 15 دقیقه می توانیدیک فایلر جدید به مجموعه اضافه کنید بدون اینکه مزاحم کار دیگران بشوید. بیشتر سیستم های پیشرفته NAS می توانند “درجا” ظرفیت ذخیره سازی را افزایش دهند و نیازی به اضافه کردن node جدید به شبکه ندارند. این بدان معنی است که کاربران به محض نیاز به ظرفیت ذخیره سازی بیشتر، به آن دست خواهند یافت.
رها شدن سروربا استفاده از فایلر NAS، سرورهای شما از انجام عملیات پرمصرف و زمان بر فایلینگ خلاص شده و بدین ترتیب، می توانند با توان بیشتر به پردازش داده ها بپردازند. اگر سرور عمومی خود را برای انجام عملیات فایلینگ (علاوه بر اعمال دیگر) اختصاص داده باشید، خواهید دید که فشار زیادی روی آن وارد می آید، به طوری که عملا از انجام سایر وظایف خود (مثل ارسال و دریافت email یا اداره برنامه ها) باز می ماند.

 

 

 


مفهوم Filer

مفهوم Filer

مفهوم Filer
مفهوم Filer

دستگاه های NAS موسوم به فایلر تمام توان پردازشی خود را صرفا روی خدمات فایلی و ذخیره سازی فایل متمرکز می کنند. در واقع فایلر به عنوان یک وسیله ذخیره سازی، نقش یک فایل سرور اختصاصی را ایفا می کند. فایلر مستقیما به شبکه(معمولا LAN) متصل می شود تا دسترسی به داده ها را در سطح فایل فراهم سازد. نصب، راه اندازی و مدیریت آسان فایلر، و همچنین مستقل از سکو بودن آن، باعث شده تا هزینه های مدیریتی کاهش چشمگیری پیدا کنند.
فایلر های NAS می توانند در هر جایی از شبکه مستقر شوند، بنابراین مدیر شبکه آزادی کامل دارد که آنها را در نزدیکی محلی قرار دهد که نیاز به خدمات ذخیره سازی دارد. یکی از فوایداصلی استفاده از فایلر آزاد شدن سرورهای همه منظوره و گران قیمت سازمان از انجام عملیات مدیریت فایل است. سرورهای همه منظوره غالبا درگیر عملیاتی می شوند که CPU را زیاد به کار می کشند و بنابراین نمی توانند به خوبی فایلر از عهده عملیات مدیریت فایل بر آیند.
تحلیلگران پیش بینی می کنند نیاز به ظرفیت ذخیره سازی طی سال آینده ده برابر نسبت به گذشته افزایش پیدا کند و به همین دلیل به مدیران IT استفاده از NAS را توصیه می کنند. برای هر سازمانی که در حال استفاده از فایل سرورهای همه منظوره هستند (یا قصد استفاده از آنها را دارند) بهترین راه حل این است که سیستم های NAS را جایگزین سرورهای خود بکنند.

 

 

 


  • 0

استوریج HPE StoreOnce 5100 48TB

استوریج HPE StoreOnce 5100 48TB

استوریج-HPE-StoreOnce-5100-48TB

رشد دیتا در یک سازمان باعث افزایش زمانهای بکاپ ، بروز مشکلات افزونه در سطح سرویس دهی سازمانها و به هدر رفتن منابع سخت افزاری و مدیریتی آن سازمان می شود. دستگاه StoreOnce یک ساختار بکاپ حرفه ای را برای محیط های Enterprise پیشنهاد می کند. ساختارهای بکاپ امروزی با ساختارهای بکاپ خطی قدیمی بسیار فاصله گرفته اند. این سیستم قابلیت کاهش حجم بکاپ تا 95 درصد و انتخاب از Small تا Enterprise می باشد.

سرعت مناسب برای ذخیره و بازیابی در محیطهای عملیاتی به این مفهوم است که مراحل بکاپ گیری نباید به روند کلی سرویس دهی سازمان اختلالی وارد نماید و همچنین مراحل بازگردانی اطلاعات نیز نباید آنقدر کند باشد که قراردادهای SLA را تحت الشعاع قرار دهد.

در دستگاه جدید HPE StoreOnce قابلیت Deduplication وجود دارد و شما می توانید عملیات Deduplication را در سرتاسر بزنامه کاربردی بکاپ انجام دهید.

این سیستم بالاترین درجه سازگاری و یکپارچگی را با نرم افزار های شناخته شده بکاپ دارد و همچنین این دستگاه می تواند با شبکه های SAN ، Virtual ، Ethernet شما کاملا هماهنگ شود و از این طریق باعث کمتر شدن هزینه ها و پیچیدگی های شبکه می گردد.

قابلیتهای سیستم

1- طراحی ماژولار دستگاه برای استفاده در محیط های Enterprise

طراحی ماژولار این دستگاه به کاربر این قابلیت را می دهد تا در هر لحظه با توجه به نیاز فعلی خود تصمیم گیری نماید و کار بسیار راحتی برای ارتقای آن در آینده داشته باشد.

2- طراحی مبتنی بر نیاز مشتری از مشتریان معمولی تا دیتاسنترهای بزرگ

3- سیستم مانیتورینگ StoreOnce Enterprise Manager

4- قابلیت ذخیره سازی حجم عظیمی از اطلاعات تا 1720 ترابایت در دستگاه StoreOnce 6500

5- مناسب برای محیط های معمولی Midsize با دستگاههای مدل 3520 و 3540 و 4900 و 5100

برای محیط های کوچک و دفاتر ریموت استفاده از ابزار StoreOnce VSA بهترین انتخاب می باشد و این ابزار دارای لایسنس های 4 و 10 و 50 ترابایتی می باشد. برای استفاده Entry نیز می توان از StoreOnce 3100 با قابلیت پشتیبانی از 8 ترابایت فضای کلی و 5.5 ترابایت قابل استفاده بهره برد.

دستگاه StoreOnce می تواند با انواع دستگاههای فیزیکی و مجازی عمل Deduplication را انجام دهد. علاوه بر این این دستگاه می تواند با سرور بکاپ و دستگاه StoreServ عملیات Deduplication را انجام دهد.

دستگاه HPE StoreOnce یک راهکار جامع برای انتقال اطلاعات میان محیطهای Enterprise می باشد. با استفاده از ماشین های مجازی بکاپ برای محیط های کوچک بسیار مقرون به صرفه می باشند.

بکاپ گیری این دستگاه توسط نرم افزار هایی مانند HP Data Protector و Symantec NetBackup و Backup Exec و از طریق نرم افزار هایی مانند OST و Veeam و BridgeHead صورت می پذیرد.

این دستگاه همچنین قابلیت پشتیبانی از Application های حیاتی مانند Oracle RMAN و SAP HANA و MS SQL را نیز بدون اضافه نمودن قطعه ای دارا می باشد.

دستگاه StoreOnce 6500  سرعت بکاپ گیری معادل 139 ترابایت بر ساعت را ارائه می دهد.

دستگاه StoreOnce 4900  سرعت بکاپ گیری معادل 22 ترابایت بر ساعت را ارائه می دهد.

دستگاه StoreOnce 5100  سرعت بکاپ گیری معادل 26 ترابایت بر ساعت را ارائه می دهد.

دستگاه StoreOnce 3540  سرعت بکاپ گیری معادل 13 ترابایت بر ساعت را ارائه می دهد.

دستگاه StoreOnce 3100  سرعت بکاپ گیری معادل 6.4 ترابایت بر ساعت را ارائه می دهد.

دستگاه پیکربندی شده با StoreOnce VSA نیز سرعت بکاپ گیری معادل 6 ترابایت بر ساعت را ارائه می دهد.

دستگاههای StoreOnce بالاترین سرعت بازگردانی اطلاعات را به میزان تقریبی 75 ترابایت بر ساعت را دارند.

کلیه عملیات Backup و Disaster Recovery بصورت اتوماتیک و بهینه تنها توسط یک کنسول به نام StoreOnce Catalyst انجام می گیرد و در صورت فیبر بودن ارتباط نیز از FC Fabric دستگاه استفاده خواهد نمود.

یکی از قابلیتهای کلیدی این دستگاه One-to-many Disaster Recovery می باشد که در آن بصورت همزمان می تواند دیتا را از یک سایت بر روی چند سایت دیگر انتقال نماید.

کلیه گزارشات و وضعیت های سیستمی در نرم افزار StoreOnce Enterprise Manager برای کاربر قابل مشاهده خواهد بود.

 

مشخصات فنی دستگاه

ظرفیت
  • فضای 48TB Raw
  • فضای 36TB Useable
  • قابل افزایش فضا تا میزان 288 ترابایت
نوع هارد دیسکها
  • تعداد 12 عدد هارد LFF SAS
اینترفیس های هاست
  • GbE
  • Fibre Channel
  • 1Gb Ethernet
  • Host interface type and number of ports per controller.
نرخ انتقال
  • 26.7 TB/hr
  • Maximum using StoreOnce Catalyst
Virtual appliance
  • No
Deduplication
  • HP StoreOnce deduplication
تعداد VTL ها و NAS Target ها
  • 32
حداکثر ظرفیت در صورت استفاده به عنوان Tape Library
  • 32768
حداکثر تعداد منابع اتصالی 
  • 32
قابلیت شبیه سازی به عنوان Tape های
  • HPE LTO-2/LTO-3/LTO-4/LTO-5/LTO-6 Ultrium Tape Drives in MSL2024 Tape Library, MSL4048 Tape Library, HPE D2D generic library with HPE D2D generic tape library
پروتکل های بکاپ
  • StoreOnce Catalyst, NAS (CIFS/NFS), and iSCSI/FC VTL
Storage expansion options
  • StoreOnce 5100 48TB Capacity Upgrade kit
RAID support
  • RAID 6
پشتیبانی از Replication
شکل و اندازه
  • 2U to 12U

محتویات جعبه
  • StoreOnce 5100 48 TB System, (12) 4TB disks, (2) Ethernet cables (Cat 5e) 3m, (2) Power cable (IEC 320 C13 Connector for Rack PDU), (1) Rack rail kit, Installation poster.

 

گروه فنی و مهندسی وی سنتر عرضه کننده کلیه تجهیزات و خدمات HP به مشتریان خود می باشد.

این مجموعه با بهره گیری از کارشناسان زبده آماده ارائه مشاوره فنی خرید تجهیزات به مشتریان می باشد.

شماره تماس: 88884268

 

 

 

 


  • 0

متدهای ذخیره سازی اطلاعات

امروزه یکی از مهمترین فاکتور ها در طراحی شبکه های سازمانی متد ذخیره سازی اطلاعات است. افزایش حجم اطلاعات، بازیابی اطلاعات و امنیت اطلاعات ذخیره شده از بزرگترین چالش های رو به رو است. در این مطلب سه تکنولوژی مختلف مورد بررسی قرار می گیرند.

توجه: این مطلب مفاهیم ابتدایی و مقدماتی را به صورت تئوری مورد بررسی قرار می دهد.

DAS – Direct-Access Storage

image

به سیستمی گفته می شود که در آن Storage ها مستقیما به Server یا WorkStation متصل باشند. با توجه به آن تعریف یک Hard Disk عادی که با استفاده از یکی از اینترفیس های رایج  SATA، IDE ، SCSI و یا SAS به سیستم متصل شده یک نوع DAS تلقی می شود. اما به عبارت رایج DAS به دسته از Hard Disk های داخلی و یا خارجی گفته می شود که به یک Server متصل باشد. ویژگی اصلی DAS آن است که آن Storage تنها در اختیار یک سیستم قرار می گیرد. DAS یک راهکار با توجیه مالی مناسب برای سرور هایی است که به سرعت دسترسی به اطلاعات بالا احتیاج داشته باشند اما حجم اطلاعات مورد ذخیره سازی آن ها اندک باشد. به عنوان مثال می توان به DHCP,DNS, Wins و DC ها اشاره کرد. با استفاده از DAS دسترسی به اطلاعات به صورت Block Base خواهد بود به آن معنا که دیتا در بلاک هایی بدون فرمت منتقل می شود. این تکنولوژی بر خلاف File Base عمل می کند. اغلب DAS برای تمیز دادن تکنولوژی های ذخیره سازی شبکه ای NAS و SAN با سایر تکنولوژی هایی ذخیره سازی غیر شبکه ای به کار می رود. معمولا اتصال DAS تنها به یک Server ممکن است البته با استفاده از برخی کنترلر های خارجی و در برخی از انواع DAS های خارجی امکان اتصال دو یا بیشتر سرور هم موجود است. رابط بین سرور و DAS معمولا HBA یا کنترلر SCSI است. علاوه بر پروتکل های ارتباطی که در فوق ذکر شد، با استفاده از Fiber Channel یا FC نیز امکان ارتباط  DAS با Server وجود دارد. با به کار گیری روش های رایج خنک سازی دوبل، مکانیزم ذخیره سازی RAID می توان Fault Tolerance را بهبود بخشید.

HBA یا host bus Adaptor یک یک سخت افزار است که یک کامپیوتر را به یک شبکه یا تجهیزات ذخیره سازی اطلاعات متصل می کند. این واژه هرچند بیشتر برای تجهیزات eSATA, SCSI و FC استفاده می شود، اما تجهیزاتی که با استفاده از IDE، Ethernet و یا FireWire و USB این امکان را ایجاد می کنند می توانند HBA گفته شوند. در تصویر زیر یک HBA مخصوص SCSI که اینترفیس ISA متصل می شود را می بینید.

800px-Controller_SCSI

 

نقص به کارگیری DAS در تمام سناریوهای ذخیره سازی ایجاد Islands Of Information یا جزایری اطلاعات است. همانطور که گفته شد، Storage در این حالت اغلب تنها توسط یک سرور قابل دسترسی است بنابراین مدیریت، افزایش هزینه نگه داری و استفاده بهینه از فضای ذخیره سازی با چالش های عمیقی رو به رو خواهد بود. مسئله دیگر آن است به دلیل آنکه DAS مستقیما به یک Server متصل است، در صورت Down شدن Server دسترسی به اطلاعات روی DAS تا راه اندازی مجدد سرور و یا انتقال DAS به یک سرور دیگر ممکن نخواهد بود که این باعث می شود برای Fault Tolerance از Failover Clustering استفاده شود. از روی دیگر هزینه اولیه DAS نسبت به سایر متد ها بسیار کمتر است که این سبب شده تا بیشتر سازمان ها به این روش برای ذخیره سازی اطلاعات روی آورند. در اینجا لازم است توجه شد که هر کدام از متد ها دارای مزایا و معایبی هستند که در سناریو های مختلف طراحی مناسب متفاوت خواهد بود و معایب ذکر شده در خصوص DAS به معنای ناکارآمدی آن نمی باشد. برای مدیریت DAS در ویندوز کنسول Disk Managment و Diskpart.exe به عنوان ابزاری در Command Line استفاده می شود.

NAS – Network Attached Storage

image

یک دستگاه NAS در واقع یک Server است که دارای یک سیستم عامل خاص مخصوص File Services است. مشهورترین سیستم عامل NAS سیستم عامل FreeNAS است که بر پایه FreeBSD و Open Sourece است. این سیستم عامل دارای قابلیت Web Managment است. FreeNAS به فضایی کمتر از 64MB نیاز دارد. برای آشنایی با این سیستم عامل می توانید از Disk Image مخصوص VMWare آن استفاده کنید. سیستم عامل های مشابه دیگری همچون NASLite و Nexenta نیز با قابلیت های مختلفی در دسترس اند. NAS ابتدا توسط سیستم عامل Novel و با استفاده از پروتکل NCP در سال 1983 معرفی شد. در سال 1984 شرکت SUN آن را در محیط یونیکس و با پروتکل NFS معرفی کرد. سپس Microsoft و 3com با توسعه نرم افزار LAN Manager و گسترش این پروتکل آن را توسعه دادند. 3Server و نرم افزار 3+share اولین سرور خاص برای این منظور بود که از سخت افزار، نرم افزار و چند هارد دیسک اختصاصی بهره می برد. IBM و SUN با الهام گرفتن از از فایل سرور NOVEL سرور های خاصی را ساختند. شرکت Auspex یکی از اولین سازندگان NAS است که در سال 1990 گروهی از متخصصان آن از آن شرکت جدا شدند و سیستمی را ایجاد کردند که هم از CIFT و هم از NFS به صورت همزمان استفاده می کرد. این اقدام در حقیقیت شروعی برای NAS سرور های خاص بود.

ویژگی اصلی NAS پیاده سازی آسان و قابلیت نگه داری حجم قابل توجهی اطلاعات که از طریق LAN قابل دسترسی باشد است. به صورت عملی برخلاف Local BUS دسترسی به اطلاعات از طریق LAN با سرعت کمتری اتفاق می افتد و به صورت File Based است. NAS برای File Server و Web Server ها می تواند یک Storage مناسب باشد. همچنین در محیط های کوچک به عنوان یک Backup Solution بسیار می تواند کارا عمل کند. معمولا NAS Server ها قابلیت اتصال ابزار های ورودی همانند Keyboard و ابزار های خروجی همانند مانیتور را ندارند و برای مدیریت آن ها از ابزار هایی که برای آن منظور طراحی شده استفاده می شود. ابزار مدیریتی NAS ها با توجه به نوعشان متفاوت هستند اما اغلب از طریق نرم افزار Web-Based خودشان صورت می گیرد. تصویر زیر مربوط به FreeNAS است. از آنجایی که NAS Server ها معمولا قابلیت ارتقا ندارند، ممکن است در اثر over load مشکلاتی ایجاد شود که نیاز به بازنگری در متد ذخیره سازی وجود دارد. NAS ها برای نگه داری فایل های Media با حجم زیاد در محیط های کوچک بهترین گزینه هستند. یک دستگاه NAS مناسب باید دارای تکنولوژی های Redundant Power Supply، Redundant data access path و Redundant  Controller باشد و قابلیت استفاده RAID و Clustering را داشته باشد.

freenas

پروتکل های مشهور مورد استفاده در تکنولوژی  NAS عبارت اند از:

CIFT – Common Internet File System و SMB – Server Message Block: یک پروتکل لایه Application است که برای دسترسی به فایل ها، پرینتر ها و پورت های سریال به اشتراک گذاشته شده به کار می رود. ابتدا توسط IBM پروتکل طراحی و پیاده سازی شده و سپس توسط Microsoft توسعه داده شده و قابلیت های آن اضافه شده.

NFS – Network File System: در 1984 توسط Sun Microsystems طراحی و پیاده سازی شد. امروزه NFS در اکثر سیستم عامل ها به کار گرفته شده است.

همچنین پروتکل های دیگری همچون AFP – Apple Filing Protocol، FTP، Rsync و… استفاده می شود.

Filer نوعی NAS است که صرفا نقش یک فایل سرور را ایفا می کند. با استفاده از Filer دیگر نیازی نیست تا سرور های گران قیمت شبکه درگیر کار ساده ی فایل سرور باشند. NAS Server ها در درون خود معمولا از SCSI استفاده می کنند.

300g_front

NAS یك وسیله شبكه محور است و عموما به دلیل یکپارچه سازی محل ذخیره سازی داده های كاربران در شبكه LAN مورد استفاده قرار می گیرد. NAS یك راهکار مناسب ذخیره سازی است كه دسترسی سریع و مستقیم كاربران به سیستم فایلی را فراهم می سازد. استفاده از NAS مشكل تاخیر هایی را بر طرف می سازد كه غالبا كاربران برای دسترسی به فایل های موجود در سرورهای همه منظوره با آن مواجه هستند. NAS ضمن تامین امنیت لازم، تمام خدمات فایلی و ذخیره سازی را از طریق پروتكل های استاندارد شبكه ای فراهم می سازد: TCP/IP برای انتقال داده ها، Ethernet و Giga Ethernet برای دسترسی میانی، و CIFS، HTTP، و NFS برای دسترسی به فایل از راه دور. علاوه بر این، با NAS می توان به طور همزمان به كاربران یونیكس و ویندوز سرویس داد و اطلاعات را بین معماری های متفاوت به اشتراك گذاشت. از نظر كاربران شبكه، NAS وسیله ای است كه دسترسی به فایل را بدون مزاحمت . ایجاد اختلال برای آنها مهیا می سازد. به كمك گیگا بایت اترنت به كارایی بالا و تاخیر كوتاه دست یافته و هزاران كاربران را از طریق فقط یك اینترفیس سرویس می دهد. بسیاری از سیستم های NAS دارای چند اینترفیس هستند و می توانند همزمان به چند شبكه متصل شوند.

SAN – Storage Area networks

image

SAN در واقع یک شبکه با عملکرد بسیار بالا است که مختص انتقال اطلاعات میان سرور ها و زیرسیستم ذخیره سازی اطلاعات است. از دیدگاه سیستم عامل سرور، محل ذخیره سازی به صورت local است. مهمترین وجه تمایز SAN با DAS آن است که در DAS فضا فقط در اختیار یک سرور است. اما با استفاده از Clustering و SAN می توان هم به بهینه ترین حالت ممکن از فضای ذخیره سازی موجود استفاده کرد و هم مقاومت در برابر خطا در وضعیت قابل قبولی قرار گیرد. با آنکه سرعت انتقال در DAS در گذشته بیشتر بوده، اما امروزه دیگر مسئله سرعت مطرح نمی باشد. راه اندازی SAN پیچیده تر و هزینه اولیه آن بسیار بیشتر از سایر تکنولوژی ها است. SAN زمانی بهترین انتخاب است که حجم عظیمی اطلاعات نیاز به مدیریت دارند و سرعت دسترسی به آن ها پر اهمیت است. SAN برای Backup Server ها گزینه مناسبی است و برای DataBase Server، Streaming Media Server، Mail Server ها در سازمانی بزرگ تنها راهکار موثر است. از سال 2000 پیچیدگی و هزینه بالای SAN کاسته شد و این سبب شده تا شرکت های کوچک تر هم به استفاده ازSAN ها روی آورند. SAN برای ارتباط میان Storage و Server از تجهیزات مخصوصی بهره می برد که به آن SAN Fabric گفته می شود. فضای موجود در SAN تحت پارتیشن های مجازی به نام LUN یا Logical Unit Number تقسیم بندی می شود و به عنوان پارتیشن Local در اختیار Server قرار می گیرد. سیستم عامل ها، File System مخصوص خود را روی LUN ها برقرار می کنند. برای آنکه چند Server بتوانند به دیتا ی ذخیره شده روی SAN دسترسی داشته باشند لازم است از SAN File System یا Clustered file system استفاده شود. SAN File System نوعی File System است که در آن امکان mount بودن هم زمان با چند سرور ایجاد می شود. مثال مناسب برای این نوع فایل سیستم، Cluster Shared Volume یا CSV  است که در ویندوز سرور 2008 R2 جزء ویژگی های Failover Clustering است و برای استفاده در Hyper-V کاربر دارد. برای مدیریت SAN، سیستم عامل ها ابزار های متمایزی ارائه می دهند. به عنوان مثال یکی از این ابزار ها SMfs در ویندوز سرور 2008 است که با استفاده از Add Features می توان آن را به قابلیت های پیش فرض نصب شده اضافه کرد. این ابزار برای ساخت و تخصیص دادن LUN ها کاربرد دارد. ویندوز سرور 2008 ابزار های متعدد دیگری را نیز دارا می باشد.

FC SANs

Fiber Channel یک عملکرد بالا با انتقال بلاکی (Block Based) برای زیرساخت ذخیره سازی اطلاعات را ایحاد می کند. راه انداریFC هزینه بالایی دارد و راه اندازی آن پیچیده است. اجزاء یک شبکه FC شامل سوییچ، Server HBAs و کابل ها است که تمام این اجزا مخصوص است و توسط کمپانی های محدودی ساخته می شود. FC تکنولوژی است که همچنان مشابه قبل مطلوب است. مزیت دیگر فاصله بسیار زیادی است که در این تکنولوژی پشتیبانی می شود.

FCoE

Fiber Channel over Ethernet یک نوع کپسوله کردن بلاک های FC برای انتقال روی Ethernet است. با این روش با استفاده از 10Gig Ethernet می توان با نگه داشتن زیرساخت FC گستره ی آن را افزود. FCoE در لایه IP قابل Route نیست و محدودیت های خاصی دارد.

iSCSI SANs

internet SCSI یک استاندارد برای توسعه انتقال بلاک های SCSI روی بستر Ethernet با استفاده از TCP/IP است. سرور ها با استفاده از نرم افزار هایی به نام iSCSI Initiator با تجهیزات مربوطه متصل می شوند. راه اندازی iSCSI به صورت عمومی ارزان تر و ساده تر از FC SANs است، اما با صرف نظر از این مزیت، کمپانی هایی که در گستره ی جغرافیایی وسعی به فعالیت می پردازند و به صورت توزیع شده فعالیت می کنند، ممکن است از جزایری از FC SANs بهره ببرند که محدود به 10KM می شود.( با آنکه امروزه برای افزایش 10KM تکنولوژی هایی موجود است، اما پیاده سازی آن ها توجیه اقصادی پیدا نکرده است) با استفاده iSCSI می توان ارتباط را در یک شبکه MAN یا WAN ایجاد کرد. بر خلاف FC Channel، پیاده سازی مایکروسافت از پروتکل iSCSI از پروتکل CHAP و IPSec بهره می برند.  بزرگترین ایراد iSCSI آن است که برای کارایی مناسب لازم است از سوییچ ها و کابل های 10GB Ethernet لازم است استفاده شود که گران قیمت هستند. از جهت دیگر، سرعت انتقال iSCSI از FC کمتر است. شاید بتوان امیدوار بود با پیشرفت و ارزان تر شدن جایگاه مناسب تری برای iSCSI ایجاد شود.

 

جمع بندی

بدون شک برای شبکه های کوچک استفاده از DAS به عنوان ساده ترین و کم هزینه ترین روش بهترین انتخاب است. همچنین در محیط های کوچک با استفاده از DAS هزینه نگه داری ممکن است کمتر از NAS باشد و به دلیل هزینه بالای راه اندازی و معمولا عدم نیاز، راهکار SAN در شبکه های کوچک استفاده نمی شوند مگر در شرایط خاص. در شبکه های بزرگتر با سایز متوسط، استفاده ترکیبی از NAS و DAS می تواند انتخاب مناسبی باشد. اما با افزایش فضای مورد نیاز هزینه SAN به ازای هر GigaByte فضا کاهش می یابد. با توجه به اهمیت اطلاعات و هزینه نگه داری راهکار SAN باید راهکاری مناسب باشد.

2983498217_31220ef649_o

در بررسی هزینه پیاده سازی باید مسئله استفاده بهینه از فضای موجود مد نظر قرار گیرد، هرچند که در محیط های کوچک مورد توجه قرار گرفته نمی شود اما با توجه به نمودار زیر که نرخ استفاده عملی را نمایش می دهد، نمودار دوم باز تعریف می شود که هزینه پیاده سازی و نگه داری SAN نسبت به DAS در آن کاهش چشم گیر پیدا می کند. برای اطلاعات بیشتر اینجا را بخوانید.

2983498429_e0ed69a270_o

2983498613_e40ed9e438_o


  • 0

SAN استوریج EMC

SAN استوریج EMC

استوریج های Block شرکت EMC به استوریج هایی که در شبکه SAN مورد استفاده قرار می گیرد اطلاق می شود.


  • 0

استوریج NAS

استوریج های NAS

تجهیزات ذخیره سازی NAS با توجه به حجم ذخیره سازی خود معمولا در سه گروه اصلی تقسیم می شوند:

در گروه بندی ذخیره ساز های NAS معمولا پارامتر هایی مانند تعداد هارد دیسکها و انواع و ظرفیت دیسکهایی که پشتیبانی می کنند مهم می باشند.

1- استوریج های High-End NAS و یا Enterprise NAS

استوریج های High-End و یا Enterprise  این دسته در سازمانهایی که نیاز به ذخیره سازی حجم عظیمی از فایلها را دارند و نیز برای نگهداری Image های ماشین های مجازی را دارند مناسب می باشد. استوریج High-End NAS یک دسترسی بسیار سریع به فایلها و همچنین قابلیت NAS Clustering را فراهم می سازد.

2- استوریج های Mid-Sized NAS

استوریج های این رده قابلیت ذخیره سازی صدها ترابایت اطلاعات را دارند و برای سازمانهای معمولی مناسب می باشد البته این استوریج ها قابلیت NAS-Clustering را پشتیبانی نمی کنند.

3- استوریج های Small NAS و یا Desktop NAS

این دستگاهها برای محیط های کسب و کار کوچک و یا حتی کاربران خانگی ساخته می شوند. با توجه به رشد فزاینده نیاز به این دستگاهها ، بازار مربوط به این رده به سمت دستگاههای Cloud NAS حرکت می کند.

 

 رشد تجهیزات ذخیره سازی NAS

با گذشت زمان تجهیزات NAS جوری طراحی شدند تا مجازی سازی را ساپورت کنند. استوریج های High-End NAS قابلیت های خاص دیگری مانند Data Deduplication و Replication و دسترسی Multi protocol به دیتا در قالب یک استوریج فلشی را ارائه می کنند.

برای حذف نقاط ضعف سیستمهای NAS معمولا سازندگان این دستگاهها سیستمهای Clustered NAS را ارائه می نمایند. یک سیستم Clustered NAS به یک فایل سیستم که بصورت همزمان بر روی چندین NAS Node ها اجرا می شوند گفته می شود. قابلیت کلاسترینگ دسترسی به تمامی فایلها از سمت تمامی نود های کلاسترینگ شده را بدون توجه در مکان قرار گیری فیزیکی فایل را میسر می سازد.

بعضی از استوریج های NAS از یک سیستم عامل مشخصی مانند ویندوز مایکروسافت بهره می گیرند. در این دستگاهها پروتکل IP به عنوان پروتکل اصلی برای ارسال دیتا استفاده می شود. پروتکل های دیگری نیز مانند NFS و IPX و NetBEUI و CIFS برای ارسال اطلاعات در این دستگاهها مورد استفاده قرار می کیرد.

در دستگاههای NAS امروزی شما می توانید از کارت شبکه هایی با سرعتهای بسیار بالا که قابلیت Teaming را نیز دارند بهره ببرید.

استوریج های NAS قدیمی و نسل جدید

In a traditional network-attached storage deployment, the NAS head — which is the hardware that performs the NAS control functions — provides access to back-end storage through an Internet connection. Scale-out NAS simply means that the storage administrator has installed larger heads and additional hard disks to boost storage capacity.

استوریج NAS و DAS

Directt-Attached Storage DAS به استوریجی گفته می شود که به یک سرور اختصاصی متصل شده است و این استوریج در شبکه ای قرار ندارد.

 

In order to access files stored on direct-attached storage, the end user must have physical access to the device where the files are stored. The advantage of DAS is that it can provide end users with better performance than NAS, which is important for compute-intensive software programs. The disadvantage of DAS is that it requires the storage on each device to be managed separately, which can complicate the way files are managed and shared.

NAS vs. SAN

A storage-area network (SAN) organizes storage resouces on an independent, high-performance network. The key distinction between NAS and SANs is that network-attached storage handles input/output (I/O) requests for individual files, whereas a storage-area network manages I/O requests for contiguous blocks of data. Today, some SANs can transport data over a standard Ethernet connection, but most often storage area networks use the Fibre Channel protocol, which was developed specifically for high-speed data transport on storage-area networks.

SAN/NAS convergence

Until recently, technological barriers have kept the file and block storage worlds separate, each in its own management domain and each with its own strengths and weaknesses. Many storage managers view block storage as first class and file storage as economy class. Given the prevalence of business-critical databases housed on storage area networks (SANs), that’s understandable.

Today, vendors are seeking to improve large-scale file storage by drawing these two worlds together with a hybrid SAN/NAS solution that allows companies to consolidate block- and file-based data on the same storage arrays. Companies that are looking to combine SAN and NAS operations have a sometimes bewildering number of choices, including standalone NAS gateways, SAN solutions with integrated NAS functionality and NAS devices that allow block I/O and filer I/O to run within the same set ofswitches.


  • 0

نصب کابلهای استوریج VNX5300 Unified و DAE ها

Shown in the upcoming figures (Figure 80 on page 94 and Figure 81 on page 96) are
graphical representations of SAS cabling in a DPE-based VNX storage platform, the
VNX5300 File. The Storage Processors connect to the DAEs with SAS cables. The cables
connect LCCs in the DAEs of a storage platform in a daisy-chain topology.
The DPE is automatically Enclosure 0 (EA0). The DAE connected to SAS output port 0 is
Enclosure 1 (EA1).
The first DAE connected to the Storage Processor SAS output port 1 is designated
Enclosure 0 (EA0). Each DAE connected after the first DAE increments the enclosure
number by one. All enclosures connected to SAS Port 0 will show an ID of 0.
Figure 80 on page 94 shows the first example of a VNX5300 File platform with two DAEs
(one 3U, 15 disk drive DAE and the other a 2U, 25 disk drive DAE) or a VNX5300 platform
with a total of from 55 disk drives (if the DPE is a 3U, 15 disk drive device) or 65 disk
drives (if the DPE is a 3U, 25 disk drive device).
The SAS ports on the VNX5300 platform 3U DPE are labeled 0 and 1. SAS 0 is connected
internally to the SAS expander that connects the internal DPE disks. Since SAS 0 is
already connected internally to the DPE disks, the first DAE is connected to SAS 1 to
balance the load on the SAS ports. The second DAE is connected to SAS 0, the third DAE is
connected to SAS 1, and so on.
In Figure 80 on page 94, notice that each DAE device supports two completely redundant
buses (LCC A and LCC B).
The rule of load or bus balancing is applied to all DAEs. That is, Bus 0 is Enclosure
Address 0 (EA0), Bus 1 is EA0, and so on. In the case of the VNX5300 platform, Bus 0 EA0
is the DPE (SP A and B). So, to balance the load, Bus 1 EA0 becomes the first DAE (LCC A
and B) in the cabinet with the next DAE (LCC A and LCC B) as Bus 0 EA1, and so on. If you
have several DAEs in your VNX5300 platform, you can daisy chain them within that
particular bus. However, it is recommended that you balance each bus. In other words,
always optimize your environment by using every available bus, and spreading the
number of enclosures as evenly as possible across the buses.
Note: On the DPE and DAE, each cable connector includes a symbol to denote the
direction the cable needs to connect to. The cable connector that has a double circle
symbol is the input to the device. The cable connector with the double diamond
symbol is the output from the device.
IMPORTANT
Notice the description of the cable labels affixed to the SP to DAE cables.

The cables shown in Figure 81 are:
Note: The cable colors shown in the example are orange for Bus 0 and blue for Bus 1.
◆ Cable 1, blue, DPE to 1st DAE (labels SP A SAS 1 to LCC A)
◆ Cable 2, blue, DPE to 1st DAE (labels SP B SAS 1 to LCC B)
◆ Cable 3, orange, DPE to 2nd DAE (labels SP A SAS 0 to LCC A)
◆ Cable 4, orange, DPE to 2nd DAE (labels SP B SAS 0 to LCC B)

Cabling-with-two-DAEs-in-a-VNX5300-File-Unified-platform-نحوه-نصب-استوریج


  • 0

Control Station در استوریج های EMC

Control-Station-در-استوریج-های-EMC-قیمت-استوریج

Control Station به یک استیشن که برای مدیریت استوریج از طریق محیط GUI مورد استفاده قرار می کیرد گفته می شود.

Control Station معمولا جاهایی مورد استفاده قرار می گیرد که ما یک استوریج Unified داشته باشیم و یا استوریج NAS یعنی Data Mover ها را از طریق آن مدیریت می کنیم.

Storage Processor به واحدی گفته می شود که وظیفه انجام عملیات پردازشی برای استوریج SAN را انجام می دهد.

Control Station یک دستگاه یک یونیتی مستقل می باشد که در پیکربندی های دستگاههای File و Unified مورد استفاده قرار می گیرد. این دستگاه ارتباط مدیریتی را با Blade ها برقرار می کند. Control Station ها وظیفه مدیریت و مانیتورینگ Blade ها و همچنین انجام عملیات Failover با کنترل استیشن های دیگر را دارند.

Control Station ها ارتباط شبکه ای SP ها را نیز تامین می کنند و این ارتباط از طریق پروتکل Proxy ARP اتفاق می افتد که در آن پورتهای مدیریتی کنترل استیشن ها به پورتهای مدیریتی SP ها وصل می شود.

Control Station ها همیشه بصورت جفت تهیه می شوند تا بتوان بصورت Redundant از آنها استفاده نمود و تا زمانی که استیشن اصلی در حالت Operative باشد استیشن دومی بصورت Standby کار خواهد نمود.

استوریج-EMC-VNX-مشاوره-خرید-قیمت-استوریج-control-station

پورت Ethernet شبکه RJ45 که در شکل با شماره 5 نشان داده شده است از تکنولوژی IPMI استفاده می کند و به کنترل استیشن دومی وصل می شود.

در شکل زیر می توانید ساختار کلی سخت افزار های استوریج EMC VNX 5500 را مشاهده فرمایید.
نصب-و-راه-اندازی-استوریج-EMC-VNX5500-اجزای-تشکیل-دهنده-سخت-افزار

نصب-و-راه-اندازی-استوریج-EMC-VNX5500-Rack-اجزای-تشکیل-دهنده-سخت-افزار

گروه فنی و مهندسی وی سنتر ارائه کننده کلیه خدمات استوریج و دیتاسنتر می باشد.

شماره تماس: 88884268


  • 0

استوریج D2D چیست؟

D2D-Disk-to-Disk-Backup-Solutions-راهکارهای-بکاپ-استوریج

واژه Disk-to-Disk به نوعی از دیتا استوریج های بکاپ اطلاق می شود که در آنها بطور معمول داده ها از یک هارد دیسک به هارد دیسکی دیگر و یک سیستم استوریجی دیگر کپی می شوند. در سیستم D2D ، دیسکی که اطلاعات از روی آن کپی می شوند به عنوان Primary Diak و دیسک دیگر که اطلاعات بر روی آن کپی می شوند Secondary Disk و یا همان Backup Disk گفته می شود.

در مقایسه با سیستمهای D2T در سیستمهای D2D فایل های بکاپ به راحتی و بدون واسطه در دسترس هستند و دقیقا مانند هارد های سیستمی عمل می کنند. Tape ها نیاز دارند تا بصورت خطی اطلاعات را جستجو کنند و این باعث کندی در بازیابی داده ها می شود.

 

Backup technology is changing, and it is changing fast. Not so long ago, backing up meant copying your primary data from hard disk to tape – initially to the spools of half-inch tape beloved of film directors, and more recently to various types of tape cassettes and cartridges.

Now though, more and more organizations are using hard disks for their backups as well as their primary data, a process that has become known as disk-to-disk backup, or D2D for short.

There are a whole host of reasons for this shift. In particular, the cost of hard disks has fallen dramatically while their capacity has soared, and disk arrays have much better read/write performance than tape drives – this is particularly valuable if an application must be paused or taken offline to be backed-up.

In addition, tape is quite simply a pain to work with, especially if a cartridge must be retrieved, loaded, and scanned in its entirety, just to recover one file. Tapes can be lost or stolen, too. While we put up with all that in the past because we had to, that is no longer the case.

Sure, a tape cartridge on a shelf – albeit in a climate-controlled storeroom – is still the cheapest and least energy-consuming way to store data for the long term, but that is increasingly the role of an archive not a backup. So while tape is unlikely to vanish altogether, its role in backup is declining fast.

Disk can be incorporated into the backup process in many ways, from virtual tape libraries (VTLs) through snapshots to continuous data protection (CDP), and each method may suit some applications or user requirements better than others. An organization may even use more than one D2D backup scheme in parallel, in order to address different recovery needs.

Disk is also used in many other forms of data protection, such as data replication and mirroring, although it is important to understand that these are not backups. They protect against hardware failure or disasters, but they cannot protect against data loss or corruption as they offer no rollback capability.

When it comes to restoring data, disk’s big advantage over tape is that it is random-access rather than sequential access. That means that if you only need one file or a few files back, it will be faster and easier to find and recover from disk.

What backup and recovery methods you use will depend on two factors – the recovery point objective (RPO), i.e. how much data the organization can afford to lose or re-create, and the recovery time objective (RTO), which is how long you have to recover the data before its absence causes business continuity problems.

For instance, if the RPO is 24 hours, daily backups to tape could be acceptable, and any data created or changed since the failure must be manually recovered. An RTO of 24 hours similarly means the organization can manage without the system for a day.

If the RPO and RTO were seconds rather than hours, the backup technology would not only have to track data changes as they happened, but it would also need to restore data almost immediately. Only disk-based continuous data protection (CDP) schemes could do that.

Ways to use disk

Most current disk-based backup technologies fall into one of four basic groups, and can be implemented either as an appliance, or as software which writes to a dedicated partition on a NAS system or other storage array:

* Virtual tape library (VTL): One of the first backup applications for disk was to emulate a tape drive. This technique has been used in mainframe tape libraries for many years, with the emulated tape acting as a kind of cache – the backup application writes a tape volume to disk, and this is then copied or cloned to real tape in the background.

Using a VTL means there is no need to change your software or processes – they just run a lot faster. However, it is still largely oriented towards system recovery, and the restore options are pretty much the same as from real tape. Generally, the virtual tapes can still be cloned to real tapes in the background for longer-term storage; this process is known as D2D2T, or disk-to-disk-to-tape.

Simpler VTLs take a portion of the file space, create files sequentially and treat it as tape, so your save-set is the same as real tape. That can waste space though, as it allocates the full tape capacity on disk even if the tape volume is not full

More advanced VTLs get around this problem by layering on storage virtualization technologies. In particular this means thin provisioning, which allocates a logical volume of the desired capacity but does not physically write to disk unless there is actual data to write, and it has the ability to take capacity from anywhere, e.g. from a Storage Area Network, from local disk, and even from Network Attached Storage.

* Disk-to-disk (D2D): Typically this involves backing up to a dedicated disk-based appliance or a low-cost SATA array, but this time the disk is acting as disk, not as tape. Most backup applications now support this. It makes access to individual files easier, although system backups may be slower than streaming to a VTL.

An advantage of not emulating tape is that you are no longer bound by its limitations. D2D systems work as random-access storage, not sequential, which allows the device to send and receive multiple concurrent streams, for example, or to recover individual files without having to scan the entire backup volume.

D2D can also be as simple as using a removable disk cartridge instead of tape. The advantage here is backup and recovery speed, while the disk cartridge can be stored or moved offsite just as a tape cartridge would be.

* Snapshot: This takes a point-in-time copy of your data at scheduled intervals, and is pretty much instant. However, unless it is differential (which is analogous to an incremental backup) or includes some form of compression, data reduction or de-duplication technology, each snapshot will require the same amount of disk storage as the original.

Differential snapshot technologies are good for roll-backs and file recovery, but may be dependent on the original copy, so are less useful for disaster recovery.

Many NAS (network attached storage) vendors offer tools which can snapshot data from a NAS server or application server on one site to a NAS server at a recovery location.

However, in recent years snapshot technology has become less dependent on the hardware – it used to be mainly an internal function of a disk array or NAS server, but more and more software now offers snapshot capabilities.

* Continuous data protection (CDP): Sometimes called real-time data protection, this captures and replicates file-level changes as they happen, allowing you to wind the clock back on a file or system to almost any previous point in time.

The changes are stored at byte or block level with metadata that notes which blocks changed and when, so there is often no need to reconstruct the file for recovery – the CDP system simply gives you back the version that existed at your chosen time. Any changes made since then will need to be recovered some other way, for example via journaling within the application.

CDP is only viable on disk, not tape, because it relies on having random access to its stored data. Depending on how the CDP process functions, one potential drawback is that the more granular you make your CDP system, the more it impacts performance of the system and application. So technologies that do not rely solely on snapshot technology offer an advantage.

In addition, it can be necessary to roll forward or backward to find the version you want. One option here is to use CDP to track and store changes at very granular level, then convert the backed-up data to point-in-time snapshots for easier recovery.

Beyond data protection, a well designed CDP solution can bring other advantages, such as a lower impact on the application and server. It also moves less data over the network than file-based protection schemes, as it sends only the changed bytes.

Coherency and recovery

In order to be useful, a backup has to be coherent – a copy of something that is in the middle of being updated cannot reliably be restored. With traditional backup methods, applications would be taken offline for backup, usually overnight, but newer backup methods such as snapshots and CDP are designed to work at any time.

Snapshots provide a relatively coarse temporal granularity, so are more likely to produce a complete and coherent backup. However, they will miss any updates made since the last snapshot. The fine-grained approach of CDP is less likely to lose data, but it may be harder to bring the system back to a coherent state.

How you achieve a coherent backup will depend on the application or data. For instance, with unstructured file systems you need to find a known-good file version – typically the last closed or saved version. For files that can stay open a long time, you need to initiate a file system flush and create a pointer to that in the metadata.

To recover data, you would then find the right point in the CDP backup, wait for the data to copy back to the application server and then reactivate the application. However, that means that the more data you have, and the slower your network is, the longer recovery will take.

Fortunately, technologies are emerging to speed up this process. These provide the application with an outline of the restored data that is enough to let it start up, even though all the data has not yet truly been restored; a software agent running alongside the application then watches for data requests and reprioritises the restoration process accordingly – in effect it streams the data back as it is called for.

Schemes such as this can have applications up and running in less than 10 minutes, as the quickly recovered shell-file is just a few megabytes. Of course it does still take time to fully restore the application, but it does allow users to start using it again immediately.

One other issue that may affect the choice of snapshots or CDP is the level of interdependency within the application and its files. If there is too much interdependency, it will be more difficult to find a consistent recovery point. A potential solution is to choose software that is application-aware and can apply granular recovery intelligently, because it knows the dependencies involved.

Power and efficiency issues

One thing that must be said in tape’s favour is that its power consumption for offline data storage is very low – potentially as low as the cost of the air-conditioning for the shelf space to keep the cartridges on. Removable disk cartridges can match that of course, but only for traditional backup processes with their attendant delays.

To use newer backup processes such as snapshots and CDP requires the disk storage to be online. D2D hardware developers have therefore come up with schemes such as MAID (massive array of idle disk), which reduces power consumption by putting hard disks into a low-power state when they are not being accessed.

MAID-type systems from the likes of Copan, Hitachi Data Systems and Nexsan, and related technologies such as Adaptec’s IPM (intelligent power management) RAID controllers, therefore allow banks of disk drives to operate in different power states at varying times.

For instance, they can automate drives to go into standby mode or even spin down completely during idle periods. If a drive is accessed while powered down, the controller will spin it back up; alternatively the administrator can define peak IT activity periods when drives will never be spun down. The controller also monitors drives that have been powered down for a while, to make sure they still work OK.

Conversely, when drives do need to be accessed these storage arrays implement staggered spin-up techniques. This is to avoid overloading an array’s power supply by trying to power up all its drives at the same time.

It is claimed that these power management techniques can be configured to reduce a drive’s power consumption by up to 70 percent, without sacrificing performance. Higher reductions are possible, but may come at the cost of added latency and/or lower throughput.

Deduplication

There is more to using disks for backup than merely speed. A big advantage of disk over tape is that disk storage is random-access, whereas tape can only be read sequentially. That makes it feasible to reprocess the data on disk once it has been backed up, and as well as snapshots and CDP, that has enabled another key innovation in backup: deduplication.

This is a compression or data reduction technique which takes a whole data set or stream, looks for repeated elements, and then stores or sends only the unique data. Obviously, some data sets contain more duplication than others – for example, virtual servers created from templates will be almost identical. It is not unusual for users to report compression ratios of 10:1 or more, while figures of 50:1 have been reported in some cases.

In the past, de-duplication has typically been built into storage systems or hardware appliances, and has therefore been hardware-dependent. That is changing now though, with the emergence of backup software that includes deduplication features and is hardware-independent.

The technology is also being used for backups between data centres, or between branch offices and headquarters, as it reduces the amount of data that must be sent over a WAN connection.

D2D in branch offices and remote offices

There are many challenges involved in backing-up branch offices and remote offices. Who changes the tapes and takes them off-site, for instance? Plus, local data volumes are growing and more sites now run applications locally, not just file-and-print, so what do you do when the backup window becomes too small?

One possibility is to backup or replicate to headquarters, preferably using CDP or de-duplication technology to reduce the load on the WAN by sending only the changed data blocks. The drawback with anything online or consolidated is how long it takes to restore a failed system, however. Even if you have the skills on hand and a fast connection, it can take an enormous time to restore just a few hundred gigabytes of data.

D2D is the obvious next step – it can be installed as a VTL, so it functions the same way as tape but faster, but it also gives you a local copy of your files for recovery purposes. That local copy will probably answer 90 to 95 percent of recovery needs.

Add asynchronous replication to headquarters, and you can store one generation of backups locally with more consolidated at the data centre. Layer de-duplication on top, and there is less data to backup from the branch office and therefore less bandwidth consumed.

Consolidating backups at the data centre can bring other benefits too, in particular it enables information to be searched and archived more readily. It also takes the backup load off the branch offices as their backups are simply for staging and fast local recovery, so they no longer need to be retained.

Should the entire branch or remote office be lost, there are techniques to speed up the process of restoring a whole server or storage system. An example is the use of external USB hard drives, sent by courier and used to ‘seed’ the recovered system.

Even faster though are data-streaming technologies. This virtualizes the recovery process, presenting the application with an image of its data and streaming the underlying data back as it is called for.


آخرین دیدگاه‌ها

    دسته‌ها