본문 바로가기

유용한 자료

네트워크의 새로운 트렌드

출처 : http://jkhan012.blog.me/150100667906

서버와 스토리지 환경이 지난 10년 동안 크게 변화하였지만, 네트워킹 상에 있어서의 기술진보는 아직도 정체된 상황이다. 가상화 네트워크 컨버전스에 대한 새로운 요구가 새로운 네트워크 개발을 가능하게 하고 있는데, 다음의 항목들을 중심으로 이와 같은 방향들이 어떠한 방식으로 펼쳐질지에 대하여 살펴보고자 한다.

가상화
가상화는 사용자에게 서버를 통합하고, 이용률을 촉진시키도록 하지만, 가상화가 변화 없이 이루어지지는 못한다. 가상화는 복잡성을 증가시키고, 네트워크 관리에 있어서 새로운 요소들을 촉발시키면서, 네트워크 트래픽에 커다란 충격을 미치도록 한다.

가상화에 우선하여 ToR 스위치는 20에서 35개의 서버로부터 네트워크 트래픽을 지원하는데, 각각이 단일 애플리케이션 형태로 운영되도록 만든다. 가상화에 대하여, 각각의 서버는 전형적으로 4대에서 10대의 가상 머신을 호스팅하고 다양한 스위치 기술이 아닌 단일 ToR를 통하여 지원하는 80에서 350개의 애플리케이션을 운영하고 네트워크 트래픽을 통합한다. 결과적으로, ToR은 네트워크 트래픽이 피크일 때 매우 민감하게 작용하고, 하나의 스위치상의 트래픽 통합화와 피크와 밸리 자체를 증가하게 만든다. 네트워크 아키텍처는 이와 같은 네트워크 트래픽이 매우 높은 부분들을 지원하도록 설계되어 있다.

네트워크를 평평(Flattening)하게 만들기
레이어 3 네트워크에 대하여 VM을 이동시키는 것이 가능하지는 않지만, VM에 대한 증가된 의존성은 네트워크 자체를 평평하게 만들도록 하는 부분들로 귀결된다. 레이어 2 아키텍처를 이전의 레이어 3로 교체하는 것을 의미한다. 이에 더하여 보다 평평한 네트워크는 잠재성과 복잡성을 감소시키면서, ToR 스위치나 EoR 스위치의 끝부분에 의존하여 핵심 스위치에 대한 연결 작업을 수행하도록 지원한다. 이를 통한 장점은 보다 적은 서버를 구매하도록 만듦으로써 비용을 줄일 수 있고, 보다 광범위한 네트워크상에 걸쳐 VM을 이전하도록 하면서 네트워크상의 문제점을 해결한다.

TRILL
레이어 2 네트워크의 구축을 촉진시키기 위하여, 다양한 프로토콜들이 나타나고 있는데, 여기서 나타날 수 있는 가장 큰 도전과제중 하나가 SRT를 어떻게 교체하는지에 관한 부분이다. 스위치에서 서버로 이전시 다양한 경로들이 존재하기 때문에, SPT는 각각의 장치에 대하여 단 한 가지 경로만을 설정하도록 함으로써, 복수의 잠재적인 상황들을 다룰 수 있도록 한다. 그렇지만, SPT는 네트워크 대역폭을 제안하고, 보다 대형의 레이어 2 네트워크에 대한 개발 필요성을 증가시킨다. SPT는 너무 비효율적이어, 이와 같은 작업들을 수행하기가 쉽지 않다.

TRILL은 레이어 2 조직 내에서 다양한 경로의 로드 밸런싱을 제공하는 새로운 방법으로 기존의 SPT를 대체할 수 있다. TRILL은 IETF에서 정의하였고, IEEE내에 802.1q에 대한 맵을 제공하고 있다. TRILL은 미래사용을 위한 보호된 연결성에 대한 필요성을 제거하고, 대역폭에 대한 문제점을 해결할 수 있게 된다.

가상 물리적 스위치 관리
가상 환경에서, 가상 스위치는 전형적으로 서버에서 수행되면서, 서버내의 가상 머신에 대한 네트워크 연결성을 제공한다. 나타나는 변화는 각각의 가상 스위치가 또 다른 네트워크 기기가 되어 관리가 이루어져야 한다는 부분이다. 부가적으로, 가상 스위치는 가상화 매니지먼트 소프트웨어를 통하여 관리되어지는데, 이는 가상화 관리자가 가상 스위치에 대한 네트워크 정책을 정의하고, 네트워크 관리자는 물리적 스위치에 대한 네트워크 정책을 정의하도록 만드는 것을 의미한다. 이러한 사항들은 두 명의 사람이 네트워크 정책을 정의하게 만드는 문제점을 낳게 되고, 일치된 보안과 더불어, 모든 스위치 전체의 정책을 통제하도록 만들어, 야기될 수 있는 문제점을 해결하는 것이 중요하다.

EVB(Edge Virtual Bridging)는 이와 같은 관리적인 이슈를 알리는 IEEE 표준이다. EVB는 두 가지 측면을 가지고 있는데, 하나는 VEPA이고 또 다른 하나는 VN-Tag이다. VEPA는 가상 스위치에서 물리적 스위치로 모든 스위칭을 오프 로드할 수 있다. VM들로부터의 모든 네트워크 트래픽은 물리적 스위치에 직접 연결되고, 연결성, 보안성, 플로우 통제를 포함한 스위치 내에 정의된 네트워크 정책은 모든 트래픽에 적용되게 된다.

데이터가 동일 서버내의 다른 VM에 전송되면, 해당 데이터는 헤어핀 턴이라 불리는 메커니즘을 통하여 서버로 다시 전송된다. 가상 스위치 숫자가 증가함에 따라, VEPA에 대한 필요성이 증가하게 되는데, 이는 가상 스위치가 해당 서버로부터 더 많은 처리 전력을 요구하기 때문이다. 가상 스위치 기능을 물리적 스위치에 오프로딩하게 되면, VEPA는 가상 매니저를 스위치 관리 기능으로부터 제공하게 되고, 처리 파워를 서버에 되돌려 준다. 이를 통하여, 네트워크 관리자는 QoS를 위한 연결성을 얻을 수 있고, 이외에 보안과 전체 네트워크 아키텍처의 다른 설정사항들을 얻을 수 있게 되는 것이다.

이와 같은 VEPA에 더하여, IEEE 표준에서는 멀티채널 VEPA를 정의하고 있다. 이는 다양한 가상 채널을 정의하면서, 단일 물리적 이더넷 연결성을 다양한 가상 채널을 통하여 관리할 수 있도록 지원하는 것이다. EVB에 대한 두 번째 측면은 VN 태그이다. VN 태그는 원래는 시스코사의 VEPA에 대한 대안 솔루션으로써 소유하고 있는 부분인데, VN-Tag는 가상 인터페이스에 대한 개별적인 인식을 가능하도록 하는 이더넷 프레임의 부가적인 헤더 필드를 정의하고 있다. 시스코사에서는 이미 몇몇 제품에 이와 같은 VN-Tage를 수행하고 있다.

VM 이전
가상화된 데이터 센터에서, VM들은 하나의 서버에서 다른 서버로 이전하게 되고, 하드웨어 유지보수, 재앙관리, 애플리케이션 요구사항에 있어서 변화들을 관리할 수 있도록 지원한다. VM이 이전하게 될 때, VLAN와 포트 프로파일은 네트워크 연결성, 보안 QoS를 유지할 수 있도록 이전하게 된다. 오늘날, 가상화 관리자는 네트워크 관계자와 접촉하여 수작업으로 VLAN들과 포트 프로파일을 해당 VM이 이전할 때 관리할 수 있게 된다. 이와 같은 수작업 프로세스는 데이터 센터에 대한 유연성에 대한 충격을 줄여주고, 해당 수작업 프로세스가 수분에서 수시간, 수일이 소요될 수 있을 때, 네트워크 작업 관리자의 작업부담을 줄여주게 된다.

자동화된 VM/네트워크 이전에 있어서, VLAN과 포트 프로파일이 VM이 이전될 때 자동으로 이전되게 되는데, 이는 네트워크 관리자로 하여금 이를 수작업으로 수행하여야 할 필요성을 줄이게 하고, VM/네트워크 이전이 완전히 즉시 이루어지도록 지원한다.

컨버전스
데이터 센터 네트워킹에서 진행주인 또 다른 트렌드는 구조에 있어서의 컨버전스이다. IT 관리자는 스토리지와 서버를 위하여 분리된 네트워크를 제거하기를 희망하고, 구조 컨버전스를 가지고, 관리측면의 오버헤드를 제고하고 장비, 케이블, 공간, 전력을 절감할 수 있다. 세 가지 서로 상관된 프로토콜이 컨버전스를 가능하게 하는데, DCB와 연관된 FCoE와 이더넷 자체와 40/100GB 이더넷 등이 해당된다.

스토리지 관리자는 스토리지 네트워크 프로토콜로써 섬유 조직 채널에 매력을 가지고 있는데, 이는 스토리지 트래픽이 전송에 있어서 어떤 손실도 일어나지 않게 하는 무손실 구조이기 때문이다. FCoE는 광학 채널 트래픽을 이더넷에 넣을 수 있도록 지원하고, 관리자로 하여금 동일 융합된 이더넷 구조에서 스토리지와 서버 트래픽을 수행할 수 있도록 지원한다. FCoE는 네트워크 관계자로 하여금 자신의 FCoE 콘트롤러를 유지할 수 있도록 하고, 전송에 필요한 융합된 이더넷 네트워크로의 이전을 가능하도록 한다. 이를 통하여 두 가지 완전하게 분리된 네트워크를 유지하도록 만들게 되는 것이다.

DCB는 이더넷으로 하여금 FCoE를 전송하는 요구되는 무손실 프로토콜을 가능하도록 지원할 수 있다. FCoE와 DCB 표준의 조합은 FCoE가 완전한 기능적인 표준 기반의 확장으로써 작용할 준비가 되기 이전에 초고속 데이터 센터 내에서 광학 채널 SAN으로 하여금 이전 경로를 지원한다.

서버와 스토리지 트래픽 증가는 또 다른 진화방향을 만들어 내는데, 40GB와 100GB의 이더넷에 대한 융합된 네크워크로써의 작동을 의미한다. 온 보드 형태의 10GbE 포트는 가까운 시기에 서버에서 사용이 가능하고, ToR 스위치는 이더넷 업링크시 40GB를 필요하게 하고, 네트워크 병목현상을 유발하게 된다.

미래를 위한 준비
위에서 언급된 프로토콜 중 몇몇은 아직 개발 중이고, 사용자가 이를 레버리지할 필요가 없는데, 변화를 위하여 준비하여야 할 몇 가지 방법들이 있다. 이와 같은 기술을 이해하고, 수행하는 것이 중요한지 여부에 대하여 결정하라. 또한, 이와 같은 새로운 기술들을 통합하는 부분을 평가하고, 현재는 필요성이 없다하더라도, 미래 업그레이드를 위하여 데이터 센터 네트워크를 설계하는 것이 필요하다.

개방화된 표준을 준비하라
데이터 센터 네트워크 아키텍처는 오픈 표준을 기반으로 이루어진다. 이는 사용자로 하여금 유연성을 제공하고, 독점 제품들이 벤더의 특정 제품 하에 사용자들을 고착시키도록 한다. 공개된 표준에 기반을 둔 제품들은 사용자로 하여금 미래 기술을 통합시킬 때, 설계적인 측면의 재량권을 제공하고, 향후 비즈니스 추진을 위하여 미래 기술들을 통합할 수 있도록 지원한다.

향후 2년 내에 10GbE로의 업그레이드를 계획하자
가격이 하락한다면, 40/100GbE의 업그레이드를 준비할 필요성이 존재한다. 포트당 10GbE의 가격은 2012년에 상당부분 하락될 전망이고, 10GB 포트 설치에 있어서 중요한 지렛대로 작용하게 될 것이다. 네트워크가 가상 컴퓨팅 스택에 있어서 중요한 부분이 된다는 것이 분명하고, 데이터 센터를 재형성하는 이와 같은 다이내믹한 변화를 앞지를 수 있는 계획을 수립하는 것이 중요한 것이다.

 

 

http://www.networkworld.com/news/tech/2011/110103techupdate-network-trends.html?page=1   KISTI