مجازی سازی و رایانش ابری



مجازی سازی دسکتاپ یا به اصطلاح Virtual Desktop Infrastructure (VDI) کلید طلایی حل بسیاری از مشکلاتی است که این روزها مدیران IT سازمان­‌ها درگیر آن هستند.

زیرساخت دسکتاپ مجازی (‌VDI) یک فناوری مجازی‌ سازی است که در آن، یک سیستم عامل دسکتاپ بر روی یک سرور مرکزی در دیتاسنتر میزبانی می‌شود. زیرساخت دسکتاپ مجازی، نوعی از مدل محاسبه‌ای کلاینت-سرور است که گاهی اوقات آن را محاسبه بر مبنای سرور می‌نامند. این اصطلاح نخستین بار توسط VMWare ابداع شد.

ظهور مجازی‌ سازی دسکتاپ در سال 2006، به‌عنوان جایگزینی برای مدل‌‌های محاسبه‌ای بود که توسط Citrix و Microsoft Terminal Services استفاده می‌شدند. امروزه پلتفرم‌هایی همچون VMware، Citrix و Microsoft مجازی سازی دسکتاپ را ارائه می دهند.

روش های مجازی سازی دسکتاپ

درمورد مجازی سازی دسکتاپ، دو روش اصلی: پایدار و ناپایدار وجود دارد.

مجازی ‌سازی دسکتاپ پایدار، تصاویر دسکتاپ مختص هر کاربر را تقریبا مشابه دسکتاپ فیزیکی سنتی برای او تهیه می کند، به طوری که کاربر می تواند برای استفاده های بعدی آن را تغییر داده و ذخیره کند.

مجازی ‌سازی دسکتاپ ناپایدار، مجموعه ای از دسکتاپ های یکسان را تهیه می کند که کاربران درصورت نیاز می توانند به آن دسترسی داشته باشند. در هر بار خروج کاربر، این نوع دسکتاپ ها به حالت اصلی خود باز می گردند و به همین دلیل به عنوان ناپایدار نامگذاری شده اند.

مزایای مجازی سازی دسکتاپ

زیرساخت دسکتاپ مجازی، یک رویکرد مجازی سازی دسکتاپ است که در آن یک سیستم عامل دسکتاپ مانند مایکروسافت ویندوز در یک دیتاسنتر اجرا و مدیریت می شود. تصویر دسکتاپ روی یک شبکه به یک دستگاه endpoint تحول داده می شود. این کار، به کاربر امکان می دهد با سیستم عامل و برنامه های آن (اگر به طور محلی اجرا شده بودند) تعامل داشته باشد. Endpoint ممکن است یک سیستم سنتی، کلاینت یا حتی یک دستگاه موبایل باشد.

این رویکرد می تواند باتوجه به نوع زیرساخت دسکتاپ مجازی مستقر، مزایای بسیاری داشته باشد. ازآنجایی که محاسبات واقعی اندکی در endpoint اتفاق می افتد، دپارتمان های IT با تغییر سیستم های منسوخ به کلاینت های دسکتاپ مجازی، این امکان را دارند که طول عمر آنها را افزایش دهند. علاوه براین، هنگام فرا رسیدن زمان خرید دستگاه های جدید، سازمانها می توانند دستگاه های ارزان تر و با توان کمتر را خریداری کنند.

اگر از خرابی پی در پی سخت افزار PC و Laptop کاربران خسته شده­اید،

اگر هزینه­های نگهداری و به روز رسانی Desktopهای سازمان به شدت بالا رفته است،

اگر به عنوان مدیر IT بیشتر وقت و انرژی شما بابت حل مشکلات پیش پا افتاده و تکراری کاربران هدر می­رود،

اگر نگران داده­های ارزشمند سازمان خود هستید و مدیریت متمرکزی در این زمینه وجود ندارد،

اگر فراهم سازی Desktop جدید برای کارمندان تازه استخدام شده بیش از حد زمان می­برد،


مجازی سازی و رایانش ابری

تکنولوژی IPMI که اختصار شده از Intelligent Platform Management Interface می باشد یکی از تکنولوژی های پرکاربرد در دنیای مرکزداده می باشد.
شرکت همیشه پیشتاز INTEL که مبتکر اصلی این تکنولوژی می باشد با همکاری شرکت های cisco , Dell , HP , NEC , Supermicro و Tyan اقدام به توسعه و تکمیل این ویژگی نمودند که حاصل این تلاش ها نسخه های مختلفی از IPMI می باشد که این نسخه ها شامل ۱ و ۱٫۵ و ۲ می باشد که امروزه نسخه شماره ۲ مورد استفاده قرار می گیرد.

این تکنولوژی در قالب سخت افزاری اضافه بر روی مادربرد سرور است که برای مدیریت و ارتباط با سرور بوسیله پروتکل (IP) فواصل دور استفاده می شود،در حقیقت تکنولوژی IPMI دقیقا شبیه تکنولوژی KVM over IP می باشد امروزه نیز مورد استفاده مدیران شبکه قرار می گیرد.

از طریق IPMI می توان فعالیت های گوناگونی را انجام داد مانند :
مدیریت کنسول سرور (خروجی مانیتور , موس , کیبرد)
ریبوت کردن سرور
خاموش یا روش کردن سرور
مشاهده و مدیریت سنسور های موجود که برای اطلاع از وضعیت سرور مثل دمای سرور , فن هاس سرور , دمای CPU ها و غیره استفاده می شود.
استفاده از گزارش ها (log) و وضعیت سرور از طریق پروتکل SNMP

موارد بالا بخشی از امکانات تکنولوژی IPMI می باشند که مورد استفاده مدیران شبکه می باشد.

 

امروزه می توان گفت تمامی سرورهای جدید این تکنولوژی را بصورت پیشفرض روی مادربرد خود دارند و البته بصورت کارت توسعه مجزا نیز می توان به سرورهای قدیمی اضافه گردد.
برای بکارگیری از سرویس IPMI همانطور که گفته شد نیاز به یک کابل شبکه می باشد که به پورت IPMI متصل شود و سپس از طریق رابط کاربری Bios یا UEFI اقدام به پیکربندی این تکنولوژی نمود .
از مهمترین موارد پیکربندی تعریف آدرس آی پی و پسورد دسترسی به سرور می باشد که لازم بذکر است که یوزر و پسورد پیش فرض ADMIN می باشد.

مشابه این تکنولوژی در سرورهای مختلف نیز با نام های مختلف و امکانات مختلف وجود دارد برای مثال محصولات شرکت HP از تکنولوژی iLO استفاده می کنند که در مقالات قبلی توضیح داده شده است.


مجازی سازی و رایانش ابری

Microsoft sql server یک ابزار دسترسی به حافظه به شکل غیرهمسان را دارا می باشد که در سخت افزارهای numa و بدون  نیاز به پیکربندی خاصی به راحتی کار می کند.

با افزایش سرعت clock و تعداد پردازنده ها، کاهش میزان تاخیر پاسخدهی حافظه دشوار می شود. برای حل این موضوع سازندگان سخت افزار کش های L3 را طراحی کرده اند.اما راه حل بهتر استفاده از معماری Numa است. معماری numa راه حلی جامع را برای این مشکل فراهم آورده است. sql server  به شکلی طراحی شده تا از سایر مزایای کامپیوترهایی که بر مبنای Non-uniform memory access هستند بدون هیچ گونه تغییری در برنامه بهره مند گردد.

هر گروه از پردازنده ها حافظه ی مخصوص خود را داشته و کانال های ورودی/خروجی خود را نیز دارد.هر cpu میتواند به حافظه ای که گروه های دیگر از آن استفاده می نمایند دسترسی داشته باشد. هر گروه یک نود numa نامیده می شود. از آنجایی که دسترسی به حافظه داخلی در مقایسه با اختصاص حافظه به نود numa  سریعتر انجام می پذیرد ، به همین دلیل numa را معماری دسترسی به حافظه به شکل غیریکنواخت می نامیم.

در سخت افزار numa برخی مناطق حافظه به صورت فیزیکی متفاوت از سایر مناطق دیگر می باشند. از آنجاییکه numa از حافظه داخلی و بیرونی استفاده می نماید دسترسی به برخی مناطق با زمان بیشتری انجام می شود. حافظه داخلی حافظه ای است که مربوط به  نودی می شود که  cpu در حال اجرای thread است. هر حافظه ای که به این نود تعلق ندارد خارجی نامیده می شود.

مهمترین حسن Non-uniform memory access مقیاس پذیری آن است. در روش smp همه ی دسترسی به یک حافظه اشتراکی داده می شود و کل cpu به طور همزمان از آن استفاده می نمایند.

Numa با محدود کردن درگاه تعداد cpu ها  و اتصال نودها با اتصالات داخلی سریع این مشکل را مرتفع کرده است.

زمانیکه sql server با پیکربندی non-local memory اجرا می شود، لاگ sql server پیام های چندگانه را برای تمامی نودها به صورت جداگانه ثبت می کند.

کامپیوترها با hard numa بیش از یک bus دارند که چندین پردازنده را به خدمت می گیرند.برای اینکه متوجه شوید سیستم شما سخت افزار numa را دارد یا خیر از دستورات ذیل استفاده نمایید :


SELECT DISTINCT memory_node_id
FROM sys.dm_os_memory_clerks


اگر خروجی دستور node 0 باشدبدین معنی است که hard numa را پشتیبانی نمی نماید.

Soft numa زمانی مورد استفاده قرار می گیرد که شما سخت افزار cpu به تعداد زیاد نداشته باشید. تنها افزارهای SQL Server scheduler و SQL Server Network Interface معادل soft numa هستند.

نودهای حافظه که بر روی hard numa ساخته می شوند دیگر نیازی به soft numa ندارند.

نکته : شما نمی توانید soft numa بسازیدکه شامل  چند cpu  با سخت افزارهای مختلف باشد.


مجازی سازی و رایانش ابری

پس از نصب nsx که در پست های نصب NSX Manager و نصب Data Plane و نصب Control Plane به آن پرداختیم، نوبت به پیکربندی زیرساخت nsx رسید که در اولین مرحله به پیکربندی vxlan پرداختیم و در این پست در مورد ایجاد logical switch ها و همچنین مفاهیم مربوط به Transport Zone و Segment ID صحبت خواهیم کرد.

Logical Switch:

یکی از مفاهیم جدید و خاص در NSX، موضوع Logical Switch می باشد. در حقیقت همانطور که از نام آن پیداست می توان با استفاده از vxlan ، سوییچ هایی را در overlay networking ایجاد کرد که از قبل وجود نداشته اند و کاملا مجزا از زیرساخت زیرین یا  Underlay Network می باشند. این سوییچ ها در لایه 2 کار میکنند.

همانطور که می دانیم، هر سوییچ فیزیکیِ قابل مدیریت، دارای لایه های Management Plane، Control Plane و Data Plane می باشد. پس اگر ما قصد داریم سوییچ منطقی ایجاد کنیم باید بتوانیم این سه لایه را تامین کنیم که به شرح زیر می باشد:

سوییچ هایی که ما ایجاد خواهیم کرد، سوییچ های Unmanageable هستند یعنی امکان مدیریت آنها به صورت مستقیم وجود ندارد.

وظایف لایه کنترلی توسط ماشین های مجازی ای که در بخش Control Plane ایجاد کردیم، تامین خواهد شد.

لایه Data Plane برای این سوییچ ها محدوده ای است بین VTEP های داخل یک منطقه ی از قبل تعیین شده به نام Transport Zone، به عبارتی Logical Switch میتواند برای انتقال دیتا در محدوده ای به نام Transport Zone از پورت های فیزیکی هاست ها و همچنین تجهیزات شبکه ای  احتمالی بین آن‌ها استفاده کنند.

در آخرین مرحله از پیکربندی NSX نیاز داریم تا Transport Zone و Segment ID را مشخص کنیم.

Transport Zone:

TZ یا Transport Zone در زیر ساخت nsx محدوده ای است که در آن Logical switch  ها و DLR ها می توانند قرار گیرند، محدوده هر TZ میتواند متشکل از یک یا چند کلاستر باشد و همچنین یک کلاستر می تواند در چند Transport Zone قرار گیرد.

یک Logical Switch فقط می تواند در یک TZ باشد و logical switch های دو TZ مختلف نمی توانند به صورت لایه 2 همدیگر را ببینند.

نکته مهم:

همیشه مرزهای TZ را در داخل یک VDS قرار دهید. یعنی اگر قرار است یک TZ دارای 3 کلاستر باشد هر سه آنها به یک VDS متصل باشند  و اگر در محیط چند VDS داشتید حتما مطمئن شوید کلیه کلاسترهای متصل به آن VDS  در داخل TZ قرار بگیرند. این موضوع برای جلوگیری از عملیات Routing در DLR مهم است و از misalignment جلوگیری میکند.

نکته :

معمولا یک TZ کافی است اما میتوان به تعداد دلخواه در موارد خاص، TZ ایجاد کرد.

 

در هنگام ایجاد TZ می بایست تعیین کنیم که اطلاعات مورد نیاز برای ارتباط بین  VTEP ها از طریق کدام control plane تغذیه شود، داخلی (توسط Control Plane VMs)، خارجی (توسط تجهیزات لایه فیزیکی ) یا ترکیبی از این دو


مجازی سازی و رایانش ابری

آخرین جستجو ها

وبلاگ شخصی رضا محبی (رزبلاگ) | قم روش های درمان بیماری های کلیه مجله تصویری تاب ناب خرید آنلاین پوستر سه بعدی دانلود رایگان فیلم و سریال،بازی،نرم افزار | ایران سافت اخبار سراسری ، دانلود معرفی بهترین برندهای لوازم آرایشی و بهداشتی DIGIKALA مطالب مهم در مورد شغل های نوین روز دنیا ممد دارک| واسط زولا ایران