مفهوم Big Data یا کلان داده

مفهوم Big Data یا کلان داده

مفهوم Big Data یا کلان داده

مفهوم Big Data یا کلان داده
مفهوم Big Data یا کلان داده

Big Data یا داده بزرگ به چه صورت است؟ تصور شما از حجم انبوهی از داده‌ها چیست؟ یک هزار گیگابایت، ده‌ها هزار گیگابایت یا صدها هزار ترابایت!

راهکارهای پایگاه داده، برای سال 2015 می‌توان نام‌های مختلفی یافت سال شبکه‌های اجتماعی، سال محاسبات ابری، سال تبلت‌ها و تلفن‌های همراه هوشمند، سال سرویس‌های رنگارنگ اینترنتی و بسیاری موارد ریزودرشت دیگر؛ اما تنها با لحظه‌ای تأمل درخواهیم یافت که استفاده از هر یک از این ابزارهای نرم‌افزاری و سخت‌افزاری، یک نتیجه واحد در برخواهد داشت: تولید داده و اطلاعات در ابعادی باورنکردنی و غیرقابل‌تصور.
شکل 1 : BigData

آمار و ارقام حاکی از آن است که در حال حاضر، روزانه 2,5 اگزابایت (1,048,576 ترابایت) داده و اطلاعات توسط اشخاص و سازمان‌ها تولید می‌شود و این در حالی است که نود درصد از مجموع داده‌های موجود در جهان تنها در طول دو سال گذشته، یعنی سال‌های 2010 و 2011 ایجاد شده‌اند. پرواضح است که این روند با گسترش روزافزون تعداد کاربران دستگاه‌های ارتباطی، بدون وقفه و با شیبی مهارناشدنی ادامه یافته و آنچه بیش از هر زمان دیگری اهمیت خواهد داشت، یافتن روش‌ها، ابزارها و مکانیسم‌هایی برای ذخیره، بازیابی و تحلیل این حجم از داده به شکلی مؤثر و با کارایی بالا است. رشد فوق‌العاده سریع حجم داده‌ها، اگرچه به‌خودی‌خود فرآیند ذخیره‌سازی، بازیابی و تحلیل اطلاعات را دشوار و مواجهه با آن را نیازمند ایجاد ابزارهایی جدید می‌کند، اما آنچه بحث داده و مکانیسم‌های مدیریتی آن را در پایان سال 2011 به‌چالش کشیده و به‌نوعی رویکرد اصلی سال آینده میلادی را در حوزه پایگاه‌های داده مشخص می‌سازد، آگاهی از این حقیقت است که نزدیک به نود درصد از کل داده‌های ذخیره‌شده در جهان دیجیتال، به‌نوعی غیر ساخت‌یافته (Unstructured Data) هستند و این موضوع ما را با مفهومی به‌نام «داده بزرگ» یا Big Data روبه‌رو می‌سازد.

در یک تعریف ساده و به‌دوراز پیچیدگی‌های فنی، داده بزرگ، به مجموعه‌هایی از داده (datasets) گفته می‌شود که نرخ رشد آن‌ها بسیار بالا بوده و در مدت‌زمان کوتاهی، شامل چنان حجمی از اطلاعات می‌شوند که دریافت، ذخیره‌سازی، جست‌وجو، تحلیل، بازیابی و همچنین تصویرسازی آن‌ها با ابزارهای مدیریت داده موجود غیرقابل انجام خواهد بود. آنچه حائز اهمیت است، این است که برخلاف گذشته، مفهوم داده بزرگ تنها مختص به حوزه آکادمیک و حل مسائل علمی مانند شبیه‌سازی‌های پیچیده فیزیکی، تحقیقات زیست‌محیطی، هواشناسی و مانند آن نبوده و بسیاری از سازمان‌ها و شرکت‌های بزرگ در سال‌های آینده با مشکلات مربوط به داده‌های انبوه غیر ساخت‌یافته یا همان داده بزرگ مواجه خواهند بود.

شواهد فراوانی در اثبات این ادعا وجود دارند که از آن میان می‌توان به چهل میلیارد تصویر بارگذاری شده در تنها یکی از شبکه‌های اجتماعی، ثبت تراکنش‌های یک‌میلیون مشتری در هر ساعت در فروشگاه‌های زنجیره‌ای وال مارت به‌منظور تحلیل علایق و عادت‌های خرید ایشان با حجمی بالغ بر 2,5 پتابایت (هر پتابایت برابر یک هزار ترابایت) و در یک‌کلام تولید 75 درصد از کل «داده بزرگ» توسط افراد و کاربران معمولی به میزان 1,35 زتابایت (هر زتابایت برابر یک هزار اگزابایت) اشاره کرد. این در حالی است که بر اساس تحقیقات به‌عمل آمده، حجم داده‌های موجود در جهان در سال 2012، چهل درصد افزایش یافته و به عددی بالغ بر 2,52 زتابایت خواهد رسید!

پرواضح است که چنین حجمی از داده نیازمندی‌های خاص خود را داشته و ابزارهای مختص به خود را می‌طلبد. ابزارهایی مانند هادوپ (Hadoop) که بدون تردید جزء موفق‌ترین نمونه‌های پیاده‌سازی شده از تفکر NoSQL محسوب می‌شود. جنبش No SQL که در ابتدا باهدف جایگزینی پایگاه‌های رابطه‌ای و با شعار پایان رابطه‌ای‌ها (No SQL) خود را معرفی کرد، با مقاومت بزرگان و پشتیبانان مکانیسم‌های رابطه‌ای مواجه شد. مقاومتی که باعث شد تا این جنبش نوپا به‌درستی دست از سماجت برداشته و خود را به‌عنوان راه‌حلی مناسب برای مسائلی که پایگاه‌های داده رابطه‌ای در حل آن با دشواری مواجه هستند، مطرح کند و شعار «نه‌فقط رابطه‌ای» (Not only SQL) را برای خود برگزیند.

این تغییر رویکرد، شرایط لازم را فراهم آورد تا تمامی فعالان این عرصه از موافق و مخالف بر مزایا و منافع این رویکرد تمرکز کرده و با مشارکت شرکت‌های قابل‌احترامی مانند یاهو و بنیاد آپاچی پروژه‌هایی مانند Hadoop، MangoDB، Cassandra، CouchDB و بسیاری از پروژه‌های دیگر، در جهت حل مسائل مرتبط با داده بزرگ، پا به عرصه حیات بگذارند. رویکردی که بدون کمترین تردیدی در سال 2012 و سال‌های بعد از آن، در مرکز توجه بسیاری از شرکت‌های تولیدکننده پایگاه‌های داده مانند آی‌بی‌ام، اوراکل، مایکروسافت و دیگران خواهد بود.

درواقع اگر بخواهیم با موشکافی بیشتری این حرکت جمعی به‌سوی تولید ابزارهای مدیریت داده‌های حجیم را موردبررسی قرار دهیم باید این نکته را در نظر داشته باشیم که تقریباً تمامی این شرکت‌ها یا محصولاتی را (اغلب مبتنی بر کتابخانه هادوپ) روانه بازار کرده‌اند یا مراحل آماده‌سازی نهایی آن را سپری می‌کنند. به‌عنوان‌مثال، شرکت مایکروسافت در کنفرانس سالیانه PASS 2011 و درست یک هفته پس از آن‌که شرکت اوراکل از عرضه Big Data Appliance با توانایی پردازش داده‌های ساخت‌یافته و غیر ساخت‌یافته مبتنی بر هادوپ خبر داد، به‌طور رسمی پشتیبانی از پردازش داده بزرگ مبتنی بر این کتابخانه نرم‌افزاری را در SQL Server 2012 اعلام کرد. نکته جالب‌توجه آن‌که این شرکت پا را فراتر از پایگاه‌های رابطه‌ای گذاشته و وعده پشتیبانی از پردازش‌های موردنیاز داده‌های حجیم و غیر ساخت‌یافته را روی سیستم‌عامل Windows Server 2012 و معادل مبتنی بر ابر آن، یعنی Windows Azure را به علاقه‌مندان محصولات خود داد.
علاوه بر مایکروسافت و اوراکل دیگر صاحب نامان این حوزه همچون آی‌بی‌ام (عرضه‌کننده محصولاتی مانند Info Sphere BigInsight وInfo Sphere Streams) و همچنین شرکت EMC (با مجموعه ابزارهای Greenplum شامل Database، HD و Chorus) حرکت خود را به سمت فراهم آوردن مکانیسم‌های موردنیاز برای پردازش داده‌های بزرگ آغاز کرده‌اند و شکی نیست که در سال آینده نیز با تمام توان و به‌منظور کسب سهم بیشتری از این بازار رو به گسترش، تلاش کرده و شاهد ورود ابزارهای پردازشی فراوانی در این حوزه خواهیم بود.

کلام پایانی آن‌که سال 2012 را در بحث پایگاه‌های داده، می‌توان به‌نوعی سال پردازش داده‌های انبوه و غیر ساخت‌یافته و در یک‌کلام داده‌های بزرگ دانست. رویکردی که به‌جز ابزار و روش، به سخت‌افزارها و پلتفرم‌های پرقدرت و قابل‌اعتماد نیاز داشته و این در شرایطی است که بسیاری از سازمان‌ها و شرکت‌ها، حتی درصورتی‌که توان مالی خرید چنین تجهیزاتی را در اختیار داشته باشند، از حیث مدیریت، نگه‌داری و به‌روزرسانی و بسیاری مسائل و مشکلات مرتبط با آن، رغبت چندانی به آن نخواهند داشت. این المان‌های تصمیم‌گیری به‌ظاهر متناقض، در عمل ما را به یاد سرویس‌های قابل‌ارائه در قالب محاسبات ابری (Cloud Computing) انداخته و این نکته را به ذهن متبادر می‌سازد که نیاز به حجم انبوهی از ماشین‌های سرویس‌دهنده و توان پردازشی فوق‌العاده بالا در کنار عدم درگیر شدن با مسائل فنی مرتبط با زیرساخت‌های مذکور، سال آتی را به مکانی برای قدرت‌نمایی انواع سرویس‌های ابری تبدیل کرده و بسیاری از شرکت‌ها به سمت استفاده از آن سوق خواهند یافت.

باید منتظر ماند و دید!

آپاچی هادوپ (Apache Hadoop)

کتابخانه نرم‌افزاری هادوپ، یک چارچوب کاری (Framework) نوشته‌شده با زبان برنامه‌سازی جاوا است که با الهام از مقاله‌های منتشرشده توسط گوگل در حوزه محاسبات توزیع‌شده و سیستم فایلی اختصاصی این شرکت موسوم به GFS ایجاد شده و با استفاده از یک مدل برنامه‌سازی ساده، امکان پردازش توزیع‌شده روی مجموعه‌های عظیم داده‌ای روی کامپیوترهای به‌هم متصل را فراهم می‌آورد. از ویژگی‌های قابل‌توجه هادوپ می‌توان به قابلیت مقیاس‌پذیری آن از یک سرویس‌دهنده به هزاران ماشین با حافظه و قدرت پردازش محلی اشاره کرد. همچنین این کتابخانه با قابلیت تشخیص و مدیریت خطاها در لایه کاربری، مستقل از سخت‌افزار عمل کرده و درنتیجه سرویس‌هایی با دسترس‌پذیری بالا را برای کاربران فراهم می‌آورد. لازم به ذکر است که امروزه هادوپ در بسیاری از پروژه‌های تجاری عرضه‌شده توسط بزرگانی مانند آی‌بی‌ام، اوراکل و مایکروسافت مورداستفاده قرار می‌گیرد.

 

 

 


سرورهای نسل نهم Proliant شرکت HP

سرورهای نسل نهم Proliant شرکت HP

ویژگی-های-سرورهای-پرولیانت-نسل-نهم-شرکت-HP

در 28 آگوست 2014 شرکت HP نسل نهم از سرورهای خانواده Proliant خود را به بازار معرفی کرد . هدف اصلی ارائه و تولید این نسل ،کمک به مشتری در جهت کاهش هزینه ها ، پیچیدگی ها و افزایش سرعت سرویس رسانی در محیط های Cloud می باشد .
تکنولوژیها و قابلیتهای جدیدی که به این نسل اضافه شده است به شرح ذیل می باشد :
1 ) PCIe Accelerator مخصوص شرکت HP و Smart Memory جدیدکه می تواند ظرفیت محاسباتی سرورها را بالا ببرد.
2 ) مدیریت یکپارچه در سرتاسر سرور از طریق تلفیق کردن کامل ارتباطات Storage و Network در جهت مترکز کردن مدیریت
3 ) نصب و راه اندازی سریع تر و آسانتر نسبت به نسل قبلی ، مکانیزم Monitoring و Firmware قابل اطمینان
4) مدیریت ایمن به صورت پیش فرض و همچنین بهره گیری از ابزارهای مدیریتی UEFI و RESTful APIs برای محیط های ابری هیبرید
5 ) بالارفتن سرعت Smart Cache و آداپتورهای Flaxfabric
افزایش گرایشهای امروزی به سمت Cloud ، Mobility ، BigData ، Security باعث خلق فرصت های جدید تجاری برای شرکتهای پیشرو در حوزه انفورماتیک شده است . در این فضا مشتریان دیگر فقط به کیفیت تجهیز فکر نمیکنند بلکه آنها در مورد مشکلات احتمالی تجهیز ، قیمت آن ، Margin رشد شبکه سازمان ، درصد سهم بازار برند و خیلی چیزهای دیگر فکر می کنند و بعد از چک کردن کلیه این ملاحظات اقدام به خرید سرور می کنند.
با توجه به رشد دیتا سنترها به طبع آنها مصرف برق و هزینه های Cooling مربوط به IT هم افزایش می یابد . بهینه سازی HP در طراحی نسل به نسل خود باعث کاهش در برق مصرفی سرورها ، هزینه های Cooling و نیز صرفه جویی در فضای نگهداری سرورها شده است .
از تغییرات کلیدی می توان به موارد ذیل اشاره کرد:
• دوبرابر شدن توان محاسباتی با توجه به توان مصرفی
• Smart Memory
• هاردهای Solid SSD 12G SAS
• فضای نگهداری سرورها با توجه به توان محاسباتی سرورهای ، 50درصد کاهش یافته است .

سرور-HP-Proliant-DL380-G9-Server-قیمت

سرورهای HP Proliant DL380 G9
در این دستگاه قابلیت استفاده از 3 عدد Bay مخصوص هارد که هر کدام به تنهایی 8 عدد هارد SFF را ساپورت می کنند، فراهم است .
دستگاه از 4 عدد کارت شبکه GbE و 4 عدد کارت شبکه Flexible OEM استفاده می کند .
این دستگاه قابلیت استفاده از کارت Micro SD در روی مادربرد دستگاه وجود دارد .
نرم افزار HP Oneview 2.0 برای مدیریت یکپارچه و آسان سرور بکار می رود .
کنترلرهای جدید HBA با ظرفیت های بالاتر تعبیه شده است .
این دستگاه از کارتهای گرافیکی حرفه ای NVIDIA جهت Rendering پشتیبانی می کند .
این دستگاه قابلیت پشتیبانی از 40 گیگابیت Ethernet را با اضافه کردن کارتهای InfiniBandرا دارا است .
این دستگاه سرور از پردازنده های سری E5-2600 ازپردازنده2603V3 گرفته تا 2699V3 را ساپورت می کند .
این دستگاه قابلیت پشتیبانی از حداکثر 1.5 ترابایت RAM از نوع LRDIMM و 384GB RAM از نوع RDIMM را دارا است .
دستگاه DL380 G9 قابلیت پشتیبانی از 3 عدد PCIE Riserرا دارد که به صورت استاندارد یک PCIE Riser بر روی دستگاه قرار داده می شود .
این دستگاه از کارتهای Storage Controller ذیل پشتیبانی می کند:
• Smart Array B140i
• Smart Array B140i
• Flexible Smart Array P440ar/2G
• Flexible Smart Array P840/4G
• Smart Array B140i
• Flexible Smart Array P440ar/2G
این دستگاه پاورهای 500 و 800 و 1400 وات را ساپورت می کند .

جدول مقایسه ای نسل های هشتم و نهم خانواده Proliant
قسمتهایی که بصورت بولد نشان داده می شوند نسبت به نسل قبل تغییر کرده اند.

تفاوتهای-سرورهای-HP-Proliant-G8-و-G9

سرور-HP-Server-Proliant-DL380-G9-و-Proliant-DL380p-G8

تصاویر
سرور-اچ-پی-HP-Server-Proliant-DL380-G9

قیمت-آنلاین-سرورهای-HP-Proliant

    قیمت گیری آنلاین                     


آخرین دیدگاه‌ها

    دسته‌ها