جستجو برای:
سبد خرید 0
  • آموزش
    • آموزش CCNP DCCOR
    • آموزش CCNP DCACI
    • آموزش CCNP DCACIA
    • آموزش CCIE DC
    • آموزش UCS
  • خدمات
  • محصولات دانلودی
  • دست نوشته ها
  • درباره ما
    • تماس با ماهورنت
    • آشنایی با ماهورنت
  • video های آموزشی
   

ورود

رمز عبور را فراموش کرده اید؟

هنوز عضو نشده اید؟ عضویت در سایت
ماهورنت
  • آموزش
    • آموزش CCNP DCCOR
    • آموزش CCNP DCACI
    • آموزش CCNP DCACIA
    • آموزش CCIE DC
    • آموزش UCS
  • خدمات
  • محصولات دانلودی
  • دست نوشته ها
  • درباره ما
    • تماس با ماهورنت
    • آشنایی با ماهورنت
  • video های آموزشی
ورود و ثبت نام

وبلاگ

معرفی تکنولوژی VXLAN

معرفی تکنولوژی VXLAN

access_time2024/05/10
perm_identity ارسال شده توسط مدیریت
folder_open آموزش Cisco Data Center
visibility 985 بازدید
.. ..


از مشخصه های دیتاسنتر های Fabric Base این است که بتواند پاسخ گو به نیاز های زیر باشد

  1. نیاز به قدرت توسعه پذیری 
  2. نیاز به کاهش قطعی ها در تمامی سطوح 
  3. نیاز به افزایش قدرت مدیریت و بهره بری در زمان راه اندازی و بهره بری 
  4. نیاز به قرار گیری هر سرویسی در هر نقطه از دیتاسنتر جدا  از محدودیت های فیزیکی 

با توجه به اینکه در طراحی هایی قبل از طراحی های Fabric Base ، همچون طراحی های Core-Aggregation-Access ، پاسخ دهی به نیاز های Fabric امکان پذیر نبود ، یعنی معماری فیزیکی و همچنین معماری سرویس و تکنولوژی های منطبق بر آن با محدودیت همراه بود ، لذا برای رسیدن به این مهم می بایست یک مهاجرت از معماری فیزیکی قبل به معماری فیزیکی Spine and Leaf صورت می گرفت . 

در این معماری پارامترهای لازم برای رسیدن به تمامی نیازهای Fabric برطرف شد. این مهم هم می بایست در معماری فیزیکی تحقق پیدا می کرد هم در معماری سرویس و هم پروتکل هایی که برروی آن راه اندازی می شد . 

ارتباطات تمامی Spine ها و Leaf ها به گونه است که در آن تمامی Leaf  ها می بایست به تمامی Spine ها ارتباطات خود را داشته باشند و بالعکس . درحالی که هیچ ارتباط  فیزیکی مابین Leaf  ها با هم و Spine ها با هم به صورت مستقیم جهت عبور ترافیک شبکه نخواهیم داشت . 

از طرفی هیچ پروتکلی نباید این ارتباطات را به صورت موقت در حالت قطع دراورد . مانند پروتکل STP . 

از طرفی سرعت همگرایی این شبکه باید بالاتر از قبل باشد . یعنی می بایست از تمامی ظرفیت های پروتکل های Layer3  استفاده کرد . این بدان معنی است که برای داشتن Load Balancing یا همان ECMP می بایست از تکنیک های Layer 3 بهره برد . در چنین شرایط نباید ارایه سرویس های Layer 2 را از دست داد .پس برای آن باید تدابیری پیش بینی کرد . VXLAN از جمله پروتکل هایی است که می تواند Layer 2 را حفظ و جابه جا کند . 

در طراحی Spine And Leaf می توان Block های مختلف مانند Service ، Computing و External بدون محدودیت معماری به شبکه اضافه و یا کم کنیم . با این شرایط قدرت Scalability و افزایش منابع و ظرفیت در دیتاسنتر امکان پذیر می شود . 

 

امروزه دیتاسنترها با مشتریان متعددی مواجه شده اند که نیازهای آنها فراتر از فقط برقراری ارتباط است ، نیاز به امکان VM Mobility در لایه سرویس از مهمترین نیازهای آنها در سطح یک دیتاسنتر یا چندین دیتاسنتر است . همچنین امکان داشتن Virtual Network هم درسطح تجهیزات هم در سطح سرویس . این شرایط دیگر با تکنیک های معمول Layer 2  مانند VLAN و Layer 3 مانند VRF به تنهایی راه گشا نیست . بلکه نیاز به تکنولوژی دیگری است که این موارد را خود به خدمت بگیرد ولی در نهایت بتواند نیازهای مختلف مشتری و یا به عبارتی tenant های مختلف را پاسخ گو باشد . VXLAN دقیقا همان تکنولوژی مورد نظر است . 

VXLAN دیگر با هیچ چیزی محدود نمی شود . می تواند فراتر از رک ، POD و حتی دیتاسنتر عمل کند . با راه اندازی VXLAN هم نیازهای Intra DC هم نیازهای Inter DC پاسخ داده می شود . .

UnderLay and Overlay : 

در Fabric DC دو واژه از اهمیت بالایی برخوردار است . Underlay and Overlay

این تعریف می تواند در قسمت های مختلف یک دیتاسنتر جابه جا شود . در حوزه راه اندازی VXLAN ، که در فاز نخست در ارتباطات مابین Leaf and Spine بررسی می شود ، همان طور که در شکل می بینید ، تمامی ارتباطات فیزیکی و پروتکل هایی که می تواند ارتباطات Leaf ها با یکدیگر را برقرار کند ، به عنوان Underlay شناخته می شود .

بعد از اینکه Leaf ها همدیگر را شناخته باشند ، نوبت به این است که این زیرساخت فیزیکی و منطقی ، به عنوان جاده عمل کند و تمامی ترافیکی که از سوی Leaf وارد می شود را به سمت Leaf ها هدف ارسال کند . بدون اینکه زیرساخت فیزیکی دانشی از آنها و نوع ترافیک داشته باشد . این به دان معناست که ما باید Overlay اختصاصی برای خود داشته باشیم که از لحاظ ترافیکی و پردازشی مستقل عمل می کند . 

آنچیزی که VXLAN می بایست فراهم کند این است که بتواند ترافیک های مختلف که از لحاظ سرویس ایی ، می تواند  Layer 2 Service و یا Layer 3 Service باشد را جابه جا کند . یعنی در سطح تمام دیتاسنتر اگر مشتری سرویس لایه 2 بخواهد باید آن را در تمامی سوییچ های Leaf و یا حتی در vLeaf ارایه کند ، چه در داخل یک دیتاسنتر باشد و چه در چندین دیتاسنتر ، این ارتباط لایه 2 را برقرار کند . یا حتی ارتباط Layer 3 در سطح دیتاسنتر به صورت اختصاصی خود مشتری برقرار کند . 

 

در تعاریف VXLAN ، Edge Device ها می تواند سوییچ های Leaf باشد ، یعنی Network Edeg که در این شرایط Copmputing  و ارتباطات بیرونی به Leaf  ها متصل می شود . همچنین می تواند Host Device باشد یعنی لایه سرور . این بدان معنی است که vLeaf به عنوان vSwitch در لایه Virtilization قرار گرفته که درک از VXLAN را دارد و توانایی برقراری ارتباطات اختصاصی VXLAN 

تمامی تجهیزات مانند روتر یا سوییچ با این دو تعریف مواجه بودند . Data Plane  وControl Pane . 

Data Plane

 یعنی هیچ ترافیک اماده جابه جایی نیست تا مسیرهای بهینه مشخص شود . تمامی پروتکل هایی که وظیفه برقراری ارتباطات را دارند و یا حتی Policy های مربوطه به عنوان عملیات Control Plane عمل می کنند و در این زمان نتایج عملکرد خود را به عنوان سند در Data Plane قرار می دهند تا ترافیک امکان حرکت را داشته باشد .

 

Data Plane 

یعنی پردازش در خصوص مسیریابی تمام شده است و ترافیک اماده است برای جابه جا شد . تمامی جداول لازم برای جابه جایی ترافیک مانند Mac-table یا IP Table آماده است تا ترافیک را جابه جا کند .

VXLAN توانایی ارایه سرویس لایه 2 و لایه 3 را دارد . این موضوع هم به لاینس ها و توانایی سخت افزاری دیتاسنتر برمی گردد هم به راه اندازی آن . اما در صورت راه اندازی سرویس لای 2 ، کل سرویس لایه 2 یک مشتری به عنوان یک Virtual Switch عمل می کنه که پورت های آن در تمامی دیتاسنتر توزیع شده و یا اگر Overlay VXLAN 3 راه اندازی شود ، به مانند  Router  در سطح کل دیتاسنتر خواهد بود که هر کدام از اینترفیسهای این روتر روی یکی از Leaf ها قرار گرفته و می تواند Layer 3 subnet های مختلف یک مشتری را به هم Route کند .

برای راه اندازی Underlay ، تمامی پروکل های مسیریابی لایه 3 مانند IS-IS , OSPF , BGP و مابقی پروتکل ها ، نقش خود در جهت برقراری Leaf ها به یکدیگر را بازی می کنند . این پروتکل های مسیریابی توانایی ECMP را خواهند داشت ، پس براحتی می توان redundancy در سطح لینک را در این دیتاسنتر داشت و دیگر هیچ لینکی برای جلوگیری از Loop قطع نخواهد شد . 

از سوی دیگر سوییچ های Leaf سوییچ هایی هستند که Layer 2 قدیمی یعنی فقط VLAN را می توانند درک کنند ، درواقع مابین Leaf  ها ناحیه Fabric خواهد بود که VLAN جایی ندارد ، اما خارج از ناحیه fabric ، VLAN و یا به عبارتی traditional Layer 2 network درک می شود و شناخته می شود .

ترافیک هایی که نیاز مشتری است که جابه جا شود ، تحت عنوان BUM Traffic ، Broadcast  ،  unknown unicast و Multicast .

بنابراین سرویس های لایه 2 یا لایه 3 و یاهردو سرویس لایه 2و 3 مشتری باید درقالب Tunnel هایی جابه جا شود ، یعنی traffic باید در قالب Header ، VXLAN جابه جا و به صورت IP  و MAC تحویل داده شود . 

VXLAN VTEP :

به تمامی سوییچ های LEAF در VXLAN ، VTEP گفته می شود . این دقیقا میشخص می کند که طرفین TUNNEL های VXLAN سوییچ های LEAF قرار گرفته اند که وظیفه این را دارند از یک سو با شبکه Fabric در ارتباط باشد و از سوی دیگر با شبکه LAN

این VTEP ها می تواند ، یک Host Edge device باشد یا یک Network Edge Device . به عبارتی می تواند یک سوییچ Leaf باشد و یا یک virtual Switch روی Virtualization مانند Cisco VME . 

VXLAN Header :

هر کدام از VTEP وظیفه Encapsulation و Decapsulation ترافیک را به عهده دارند . 

به اطلاعات دریافتی یک VXLAN Header اضافه می کنند . یعنی Frame دریافتی را بعد از Encapsulation و پنهان کردن IP و MAC داخلی ، با اطلاعات VETP ، جایگزین می کند و داده به سمت VTEP هدف ارسال می شود .

چند فیلد اصلی داخل VXLAN Header موجود است که مهمترین آن VNI است . این مشخصه اصلی VXLAN برای تمایز ترافیک لایه 2 و لایه 3 در سطح کل دیتاسنتر است . به عبارتی به ازای هر مشتری یک VNI خواهیم داشت که تمامی VTEP ها آنها را می شناسند و مشتری براساس این مشخصه ترافیک خود را به صورت تفکیک شده جابه جا می کند . 

این عدد می تواند از 1 تا 16 میلیون تغییر کند ، یعنی می توان به این تعداد ابزار برای تفکیک ترافیک مشتری ها داشت در مقابل VLAN که پیش از VXLAN به عنوان ابزار کار بود .

وقتی VTEP ترافیک را دریافت کرد ، بعد از اینکه VNI را که قبلا تنظیم شده بود را به آن اضافه کرد ، با اطلاعات خود که برای تمامی VTEP های دیگر شناخته شده است ، اماده سازی می کند ، مانند UDP Port که مشخص می کند که داده VXLAN را دارد حمل می کند و درصورتی که Firewallدر مسیرش باشد می بایست این 4789  UDP Port اجازه عبور را داشته باشد و Source IP که مربوط به VTEP ایی که ترافیک را دریافت کرده است و Destination IP مربوط به VTEP ایی که از قبل میداند که باید به آنجا ترافیک را ارسال کند . 

اسامی VXLAN به نسبت اینکه در کدام فاز مورد بررسی قرار می گیرد متفاوت است ، این نام گذاری به Underlay و Overlay برمی گردد . 

در زمانی که هنوز VXLAN راه اندازی کامل نشده است یعنی در فاز Underlay Control Plane هستیم ، به تمامی سوییچ های Leaf که می تواند هر جا قرار بگیرد ، NVE یا همان Network Virtual Edge گفته می شود . 

Underlay Control Plane شامل تمامی پروتکل هایی است که وظیفه برقراری ارتباطات VXLAN را به عهده دارند ، مانند Layer 3 Routing Protol هایی مانند OSPF ، BGP و همچنین پروتکل هایی که وظیفه جابه جایی Multicast که به عنوان ابزار VXLAN برای جابه جایی ترافیک است .

بعد از اینکه ارتباط مابین Leaf ها شکل گرفت به کمک Underlay Control Plane نوبت به برقراری tunnel ها و حفظ و نگهداری آن می رسد . این کار نیز به کمک پروتکل هایی مانند BGP ، PIM انجام می شود . در این شرایط هیچ یک از Spine های دیتاسنتر اطلاعایی از این پروتکل ها و عملکرد آنها ندارند و فقط ترافیک آنها را جابه جا و ارتباط Leaf ها را برقرار می کنند . 

در صورتی که بخواهیم عملکرد VXLAN را منطبق به OSI مدل کنیم ، اطلاعاتی که از یک host به host دیگر ارسال می شود بعد از قرار گیری اطلاعات IP , mac مبدا و مقصد ، شماره VNI مربطه الصاق شده و تا اینجای کار وظیفه Underlayer Control Plane به اتمام می رسد بعد از encapsulation ، وظایف Overlay Control Plane روی کار امده و برای ارسال از یک VTEP  به VTEP دیگر ، اینترفیس های NVE که به صورت مجازی هستند اطلاعات IP و MAC خود را وارد کرده و داده ارسال می شود . 

برای راه اندازی VXLAN ، باید اینترفیس های Tunnel را کانفیگ کنیم . این اینترفیس ها ، همان Interface NVE است که هر کدام از سوییچ های Leaf برای ارتباط با یک شبکه Fabric ، یک اینترفیس NVE را run می کند . 

بعد از راه اندازی اینترفیس های NVE باید مشخص کنیم ترفیک چه VLAN یا BD ایی قرار است map شود به این اینترفیس مجازی . 

این اطلاعات VLAN به هیچ وجه در شبکه جابه جا نمی شود بلکه فقط روی سوییچ های Leaf باقی می ماند . به طور مثال می تواند شماره VLAN هایی که روی هر سوییچ Leaf به Interface NVE ، متصل شده است و طرفین Tunnel است متفاوت باشه .

  1. هر کدام از ترافیکی که می بایست در طرفین VTEP باهم در ارتباط باشند ، می بایست با یک شماره که مشخص کننده Tunnel است ، تعریف شوند . این مشخص VNI است ، یعنی ترافیک لایه 2 ایی که با VLAN به Leaf رسیده است می بایست با مشخصه VNI ، Encapsulation انجام شود و به سمت سوییچ VTEP دیگر در شبکه ارسال شود . بنابراین می بایست برای هر VLAN مشخص کنیم که با چه شماره   VNIایی قرار است جابه جا شود . به کمک فرمان vn-segment  ، می توان این شماره VNI را برای ترافیک VLAN مشخص کنیم . 

بعد از مشخص کردن VLAN  ، VNI ، می بایست مانند سابق مشخص کنید که چه پورتی عضو VLAN است . که این کار روی اینرتفیس های فیزیکی LEAF انجام می شود . 

همچنین باید مشخص شود ارتباطات مابین VTEP های برای جابه جایی ترافیک به صورت یک Switch گسترده عمل می کند ، یعنی از نوع Bridging یا همان Layer 2 Traffic است یا نه ؟ از نوع ارتباطات Layer 3 ، و ارتباطات Fabric مابین آنها علاوه بر Layer 2  ، Layer 3  را هم خواهد داشت ، به عبارتی ناحیه Fabric ایی بینشان به مانند یک روتر عمل می کدر راه اندازی یک شبکه Fabric چند تا سوال مطرح می شود که باید برای هر کدام از آنها پاسخی داشت ، همان طور که در شکل می بینید باید مشخص شود که هر کدام از VTEP ها کجا هستند و چه آدرس های MAC و IP ایی پشت آنها قرار گرفته است . همین طور در مواجه با ورود ترافیک BUM یا همان Broadcast , Unknown Unicast , Multicast  هر کدام از VTEP ها به چه گونه ای عمل می کنند و ترافیک را جابه جا می کنند . 

همان طور که در شکل مشاهده می کنید ، ارتباط مابین Host ها دو حالت اصلی دارد ، VXLAN Bridging و VXLAN Routing . 

 

دو واژه Anycast gateway و Centralized Gateway در ادامه توضیح داده می شود . 

 

به صورت کلی VXLAN در دو Mode  راه اندازی می شود :

  • Flodd and Learn

  • MPBGP/EVPN

تفاوت عمل کردی این دو مد درزمانی که Host Reachability انجام می شود برای شناسایی MCA and IP های سمت LAN Segment متصل به هر کدام از VTEP ها متفاوت است و همچنین در زمان شناسایی VTEP هایی که آن VNI انجا قرارگرفته ، به عبارتی VTEP Discovery

VXLAN Control Plane

به صورت کلی VXLAN Control Plane  نسبت به اینکه براساس چه مدی راه اندازی شده باشد متفاوت است ، حالت اول 

VXLAN Flood and Learn Multicast-Based Control Plane که در شرایط شبکه با اندازه کوچکتر راه اندازی می شه و مورد بعد VXLAN MPBGP EVPN که کامل ترین نوع VXLAN است که در Control Plane  آن کامل تر و جامع تر است و از طرفی پیچیدگی آن هم بیشتر خواهد بود .

VXLAN Flood and Learn Multicast-Based Control Plane : 

 در این شرایط سوییچ های Nexus  با استفاده از مکانیزم Layer 2 flooding می توانند  به موارد زیر برسند :

  • Discover Remote VTEP
  • Learn Remote-Host MAC Address  and MAC-to-VTEP Mapping 
  • Transport BUM Traffic

همان طور که در شکل می بینید ، مراحل کامل شدن Table ها ، با دریافت یک فریم ARP Broadcast ، آغاز می شود . در این شرایط سوییچ از پورتی که Broadcast را دریافت کرده است ، متناسب با VLAN و Mapping  بین VLAN  و VNI را براساس کانفیگ های قبلی تعیین کرده و پس از آن با توجه به آدرس  Multicast ایی که از قبل برای تمامی VNI ها تعیین کردیم ، در تمامی سوییچ ها ، به آدرس Multicast متناسب با VNI ، این فریم ارسال می شود . با توجه به اینکه از قبل Multucast Tree به کمک پروتکل هایی مثل PIM  و IGMP شکل گرفته است ، پس براساس این Tree به تمامی VTEP هایی که بابت آن آدرس Join شده اند این Broadcast  ارسال می شود . سوییچ های دریافت کننده با این آدرس می توانند در فاز نخست IP Address  مر بوط به VTEP ایی که این فریم ارسال شده و همچنین MAC Address پشت آن را شناسایی کرده و در Table خود قرار دهند . بعد از دریافت این فریم ، به تمامی Host های پشت سر خود ارسال می کنند

 Host ایی که Arp Request به ادرس آن ارسال شده است ، پاسخ داده و در این برگشت ، مابقی اطلاعات مورد نیاز VTEP ها تکمیل می شود . یعنی هم MAC Addres ها و هم VTEP IP Address ها مشخص می شود .

ترافیک هم براساس Table هایی که از قبل تکمیل شده است جا به جا خواهد شد . با این شرایط که اینبار نه به صورت Multicast بلکه براساس Source / destination های مربوط به VTEP  ها . 

برای راه اندازی VXLAN می بایست چند مورد را مشخص کرد . 

Topology و Multipathing : 

پس از اینکه مشخص شد قرار است ، VXLAN از تمامی ظرفیت لینک های ارتباطی مابین سوییچ ها استفاده کند برای جا به جایی ترافیک و دیگر هیچ سوییچ و یا پورتی در حالت غیر فعال در نمی آید ، بنابراین طراحی این شبکه را از حالت Core-aggregationp-access قبل به حالت Spine-Leaf تغییر داده و به گونه که بعد از اینکه Tunnel های مابین سوییچ های Leaf شکل گرفت ، ترافیک بتواند با حداکثر سرعت و ظرفیت به صورت East-West مابین سوییچ های Leaf جابه جا شود . بنابراین ارتباط تمامی Leaf با Spine به صورت Full برقرار خواهد شد . 

با این تکنیک می توان Load Balancing را هم به ازای ارتباطات فیزیکی متصور شد هم به واسطه Tunnel هایی که به موازات هم مابین Leaf های مبدا و مقصد شکل می گیرد . 

MTU : 

یکی دیگر از مواردی که در راه اندازی VXLAN باید توجه کرد ، مقدار MTU در جریانات ترافیک در شبکه است . به صورت پیش فرض VXLAN به اندازه 50 Byte به Header اصلی فریم اضافه می کند بنابراین می بایست برای جلوگیری از Fragmentation ، میزان اصلی فریم را کاهش داد تا با اضافه شدن این مقدار مشکل برای فریم پیش نیاید.

ارتباطات مابین سوییچ های Leaf و Spine می بایست به صورت Layre 3 باشد ، این به این معنی است که می بایست هر کدام از لینک های Point to Point دارای IP Address بوده و هر کدام از Point-to-point هم رنج آدرس مستقل از مابقی شبکه داشته باشند که بتوان آنها را در شبکه Route کرد .

با توجه به اینکه این لینکها به صورت Point-to-point هستند می توان با حداقل یک رنج /31 نیازمندی را پوشش داد . اما اگر در یک Scale بزرگ تر به ماجرای IP در شبکه نگاه کنیم مدیریت کردن آنها کار پیچیده است که می توان با یک تکنیک ساده حل کرد.

با استفاده از IP Unnumbered می توان روی تمامی تجهیزات اینترفیس های Loopback را ساخته و آدرس ها را برای آنها در نظر گرفت ، به عبارتی یک رنج آدرس . بعد تمامی اینترفیس ها را تنظیم کرد که در صورت نیاز به IP ، به interface loopback مراجعه کرده و مقدار آن را برداشت کنند . 

Routing Protocol :

یکی دیگر از نیازمندی های VXLAN وجود یک پروتکل مسیریابی جهت شناسایی Leaf ها به یکدیگر است . این پروتکل کافی است که بتواند به عنوان یک پروتکل Underlay سرعت همگرایی در شبکه را بالا برده و از سوی دیگر توانایی مدیریت و بهره برداری از Multipathing را داشته باشد . 

بنابراین OSPF می تواند گزینه مناسبی برای این کار باشد و یا حتی EIGRP

 

Multicast :

یکی دیگر از پروتکل هایی که وجودش از ضروریات VXLAN است ، پروتکل هایی است که Multicast را درک و جا به جا کنند . این پروتکل ها PIM و IGMP است که هر کدام در قسمتی از کار وارد عمل می شود . 

PIM مابین سوییچ ها راه اندازی می شود و با داشتن جداول مسیریابی اختصاصی مبتنی بر Multicast ،Tree اختصاصی خواهد داشت که به ازای هر کدام از Multicast ادرس ها خواهد بود . این پروتکل ها در Mode های مختلف VXLAN نقش بازی می کنند ، در Flood and Learn نقش اصلی و در MPBGP/EVPN هم ابزار کار

درصورتی که Virtual Switch در لایه Leaf داشته باشیم که روی سرور راه اندازی شده است ، بنابراین نیاز است که وجود آن در این قسمت به مابقی VTEP ها اعلام شود . پروتکل IGMP در ناحیه سرور و سوییچ فعال می شود که به کمک آن Join to Group انجام شود .

PIM در صورتی که روی کل Leaf  ها و Spine  ها راه اندازی شود ، هر Leaf برای هر Multicast Group یک Tree در نظر می گیرد . یعنی هر کدام از Leaf ها به عنوان Source Tree در نظر گرفته می شوند . یعنی tree های یکطرفه . 

  • درصورتیکه این میزان حافظه بیشتری از Leaf ها درگیر خواهد کرد ، تکنیک دیگری از PIM است که درصورتی که تجهیز ساپورت کند می تواند این مورد را بهبود ببخشد . یعنی PIM BiDir

در این شرایط یک Tree به ازای Multicast group در سطح کل Leaf and Spine ها خواهیم داشت و نقاط RP به عنوان نقاط کلیدی در مدیریت این Tree ها بازی خواهند کرد . 

VXLAN Layer 2 Gateway , VXLAN Layer 3 Gateway

به صورت کلی سرویس VXLAN یکی از دو حالت زیر خواهد بود ، لایه 2 یعنی شبیه به یک سوییچ و لایه 3 یعنی شبیه به یک روتر .

در صورت که Layer 2 gateway باشد ، یعنی به عنوان یک مرز عمل می کند و ترافیک لایه 2 را دریافت کرده و آن را منطبق بر VNI کرده و جا به جا می کند و در نهایت لایه 2 هم تحویل می دهد . یعنی mac-ip-mac ویا به عبارتی vlan-vxlan-vlan

ما به ازای هر کدام از VLAN ها یک VNI خواهیم داشت . بنابریان VLAN ابتدا Map میشه به VNI بعد با مشخص شدن tunnel ترافیک Encapsulation روش انجام میشه و ارسال می شود . در VTEP مقصد ترافیک براساس شماره VNI و Mapping ایی که روی همان سوییچ انجام شده است ، براساس MAC Table بررسی شده و تحویل پورت مربوطه میشه 

اما در صورت که VXLAN Layer 3 Gateway راه اندازی شده باشد . در این شرایط ترافیک براساس VRF دریافتی ، با VNI  متناسب ان VRF ، جا به جا شده و به VTEP مربوطه می رسد و بعد براساس اینکه این ترافیک دارای چه IP ، یا به عبارتی توی رنج چه SVI است ، شماره VLAN و درنهایت MAC address مقصد جابه جا می شود . به عبارتی ترافیک های VLAN های مختلف یک VRF با یکدیگر ارتباط برقرار می کنند . به واسطه یک VNI واسط . 

پیاده سازی VXLAN در دو حالت Unicast mode و Flood and Learn :

این سناریو یک حالت ساده از پیاده سازی VXLAN است برای مشخص شدن تعاریف پایه ای آن . 

پیاده سازی OSPF فقط روی سوییچ های Leaf  برای برقراری ارتباط Layer 3 

سناریو دوم : پیاده سازی VXبراساس LAN Multicast

فاز دوم : راه اندازی Overlay Network

VXLAN MP-BGP/EVPN

این الگوریتم برای ساختن Vxlan Tunnel ها و شناسایی IP / MAC متصل به هر کدام از VTEP در سطح شبکه به کمک پروتکل BGP است . 

پیش از VXLAN ، پروتکل MPLS VPN به گونه ای عمل می کرد که می توانست Subnet های هر کدام از مشتریان را که به کمک VRF مشخص می شد را جا به جا کند . برای اینکه بتواند این کار انجام دهد از پروتکل BGP و Attribute های مختلف آن بهره می برد . در نهایت بعد از جا به جایی Sunnet ها و مشخص شدن اینکه که هر Subnet پشت کدام PE قرار دارد ، ترافیک به کمک پروتکل MPLS که خود ان هم محصول LSP بود ، جا به جا می شد . 

در VXLAN MPBGP EVPN نیز وضعیت به صورت ترکیب چند الگوریتم در کنار هم هست تا نتیجه حاصل شود .

VXLAN خود یک عملیات Data Plane است ، اینکه فریم Encapsule می شوند و بعد Header آن تغییر می کند با اطلاعاتی که VXLAN Header به آن اضافه می کند . اما پروتکل های دیگر باید عملیات ها متعدد انجام دهند در کنار هم که این نتیجه حاصل شود . یکی از این پروتکل ها ، پروتکل BGP است . پروتکل BGP برای انجام کارهای مختلف دارای  Extention های مختلفی است . به طور مثال برای جابه جایی ترافیک لایه 3 مابین VRF های مختلف ، از تکنیک MP-BGP استفاده می کند که در نتیجه آن می شود MPLS-VPN . به عبارتی در MP-BGP ، که یک پروسه Control Plane ایست ، به کمک Address Family های VPNV4 و یا VPNV6 ، شبکه های شناسایی و advertise می شود . 

دقیقا مشابه همان ، در VXLAN ، پروتکل BGP به کمک EVPN که یک L2VPN است ، می تواند همزمان Information مربوط به پشت هر کدام از VTEP ، شامل IP / MAC / Subnet را به سایر VTEP ها Advertise کند . درواقع تمامی اطلاعات لایه 2 و یا لایه 2 و3 همزمان باهم . 

MP-BGP/EVPN برای انجام این کار ، از مجموعه ای Attribute استفاده می کند . مشابه MPLS-VPN ، یعنی RD و RT

اشتراک گذاری:
برچسب ها: Cisco ACIData_CenterVXLANدیتاسنتر


مطالب زیر را حتما بخوانید
  • مقایسه دو تکنولوژی VXLAN و Cisco ACI در دیتاسنتر

    106.2k بازدید

قدیمی تر مقایسه دو تکنولوژی VXLAN و Cisco ACI در دیتاسنتر

دیدگاه ها بسته شده است

جستجو برای:
دسته‌ها
  • آموزش Cisco Data Center
آدرس:
  • location_on
    دفتر تهران: تهران ،پونک شمالی ، خیابان امام حسین ، خیابان بهار ، پلاک ۳۳
    دفتر کرج : البرز ، کرج ، گوهردشت ، فاز 2 ، خیابان 14 غربی ، پلاک 16 واحد 5
  • phone_android
    021-91694779
  • perm_phone_msg
    021-91694779
  • email
    info@mahoornet.ir
محتوی ارایه شده در سایت متعلق به شرکت ماهورنت می باشد و با درج لینک و ذکر منبع محدودیتی ندارد.
keyboard_arrow_up