Wednesday, May 27, 2009

Cloud Computing - Virtual Environments - Observations

During webDU here in Sydney, I got into several conversations centered around ColdFusion-CFML in cloud computing environments. I have not yet had any client use any of the cloud computing offerings for production, I have had one client I worked with who moved from a dedicated server environment to a fully virtual one, with VM Ware ESX and another client who moved from dedicated SQL Server boxes to an Storage Area Network (SAN) environment. Both are mildly related to cloud computing and in both cases these two different clients had performance degradation after the move. Where I see these as being "mildly related" is that there was a loss of actual physicality (NIC's, Hard Drives CPU's etc) and these were substituted by virtual equivalents.

In one of the conversations, which related more to virtual environments at webDU, we got talking about what we actually get in a virtual server. Well we get a defined CPU with a defined amount of RAM, we get an amount of storage space but what we don't get are defined, unique, dedicated hard-drives. We share storage space and I personally do not like that, it is in fact, the very reason that the two clients I mentioned above both had problems. So in cloud computing, I imagine the abstraction from resources is, at the very least, similar. As I spend most of my time troubleshooting issues I always want to investigate everything, network layer detail, hard-drive configuration and controllers etc.

Another element in all of this relates to accountability and auditability. I have helped several clients who fell into PCI and/or Sarbanes Oxley compliance requirements. Both of these sets of needs impose many clear levels of responsibility and procedures. Client data is largely seen as belonging to the client and not to the company that holds the client data (this is simplistic I know but it is a mind set that is often not present). So in my opinion both virtual and cloud computing obscure/blur the pristine element of dedicated hard-drive storage. Unless my experiences so far are not typical, cloud computing seems to, at best, cause confusion about PCI-SOX compliance in a cloud.

My last issue with cloud computing, in particular, relates to getting out of a cloud offering, there are several vendors of course, easily and having portability to go to a rival vendor. This is more of a concern than something I have seen clients experience. However, there are several documented issues that address this problem around the Internet.

There is no doubt that cloud computing and the ability it gives to grow and shrink, at will, is powerful and pervasive. We will be impacted by it and I am sure it will continue to grow in terms of usage, at this point, however, were a client to ask me if I would recommend it for production I could not recommend that they use cloud computing for production purposes with any great level of confidence.

If any out there have direct experience using cloud computing for production and know that they are well covered in terms of PCI-SOX compliance, I would be interested to know.

from: http://www.cfwhisperer.com/post.cfm/cloud-computing-virtual-environments-observations

Sunday, May 24, 2009

비활성 데이터 위한 클라우드 스토리지 서비스 등장

지난 23일 아이언마운틴(Iron Mountain)이 비활성 데이터 백업용 클라우드 기반 스토리지 서비스를 발표했다.

새로 발표된 VFS(Virtual File Store) 서비스는 엔터프라이즈급 아카이빙 서비스로, 정적인 데이터 파일을 저장하고 관리하는 데 있어서 내부 시스템에 저장하는 것보다 저렴하다는 것이 특징이다.

아이언마운틴 디지털사업부 사장 존 챈시는 이번 서비스가 기업 데이터의 50~60%에 달하는 비활성 데이터를 타깃으로 한 것이라고 강조했다.

VFS 서비스는 무제한 스토리지 용량을 가상으로 제공하며, 기업의 기존 스토리지 인프라와 통합할 수 있어 비활성 데이터 파일을 VPN을 통해 아이언마운틴의 데이터센터로 쉽게 이전할 수 있다. 인증된 사용자는 VPN을 통해 필요한 데이터 파일을 온디맨드 방식으로 이용할 수 있으며, 애플리케이션이 필요한 데이터에 자동으로 액세스하도록 설정할 수 있다.

챈시는 “날로 증가하는 스토리지 비용과 감축된 IT 예산을 감안하면, 기업이 모든 데이터를 내부 시스템에 저장하는 것은 계속 유지하기 어려운 스토리지 전략”이라며, “VFS는 아카이빙 데이터를 안정하고 사용하기 쉽게 저장하면서 비싼 스토리지 자원을 절약할 수 있는 방안”이라고 설명했다.

데이터센터 설계 및 구축 전문업체인 브룬즈팍의 IT 관리자인 엘리엇 타운젠드는 아이언마운틴의 VFS 서비스와 함께 서버 데이터 백업 서비스인 라이브볼트(LiveVault) 서비스를 조합해 매우 비용 효율적이고 안정적인 재해 복구 솔루션을 이용하고 있다고 밝혔다.

VFS 서비스는 저장하는 데이터의 양과 기간에 따라 이용 요금이 정해지는데, 구체적인 서비스 요금은 공개되지 않았다. lucas_mearian@computerworld.com

클라우드 스토리지의 세 가지 위험

클라우드 스토리지의 세 가지 위험
기술적 약점으로 사용 제한되는 경우 있어
2008-12-18/데이타넷

공중 및 전용 클라우드 스토리지가 어느 정도 기업의 필요를 충족시켜 줄 수는 있다.
하지만 심각한 기술적 약점으로 인해 그 사용이 매우 제한되는 경우가 최소한 세 가지는 된다.

>>규칙 1: 클라우드는 고도의 트랜잭션 시스템이나 대기시간에 민감한 데이터를 위한 공간이 아니다. 완벽히 기능적인 데이터 주도식 애플리케이션을 파괴하고 싶다면 스토리지 클라우드에 백엔드를 두라. 보통 다단계 애플리케이션들은 최적의 성능을 내기 위해 100MB에서 몇 개씩 합쳐진 기가비트 이더넷으로 서로간에 연결돼 있다.

대량의 인터넷 대역폭은 그 엄청난 비용으로 인해 지금까지 기간업무 애플리케이션용으로 클라우드 스토리지가 폭넓게 사용되는 데 가장 큰 장애물이 되고 있다. 전체 시스템을 서비스 사업자가 호스팅하는 것이 아니라면 고도의 트랜잭션 백엔드용으로 클라우드 스토리지를 선전하는 업체들도 보기 힘들 것이다. 마찬가지로 몇 명의 직원들이 공유하는 10MB의 엑셀 스프레드시트를 하나의 공중 스토리지 클라우드에 둬서도 안 된다. 랜 속도가 필요한 대기시간에 민감한 데이터는 전용 클라우드를 이용하도록 하라.

>>규칙 2: 백업 계획이 없으면 클라우드로 기간 데이터를 이동시키지 말아야 한다. 대부분의 대형 클라우드 스토리지 사업자들은 99.9%의 가동시간 SLA(Service Level Agreements)를 제공하고 있는데, 이것은 1년에 다운타임이 몇 시간쯤 된다는 것과 같은 말이다. 하지만 이러한 보증에도 불구하고 고장이 발생했을 때 회사의 기간 데이터로 액세스할 수 없는 사태는 바라지 않을 것이다. 아마존 S3는 지난 7월 거의 하루 종일 다운돼 있어 고객들을 심심하게 만들기도 했다.

시간은 돈이다. 공중 스토리지 클라우드를 주 파일 리포지토리로 사용할 계획이라면 액세스가 신속히 복구 가능한 곳에 데이터를 복제해야 한다. 작은 조직에서는 500달러짜리 외장형 1TB 드라이브가 대체 시스템이 될 수 있을 것이다. 그리고 큰 조직에서는 복제 시스템에 하나의 전용 스토리지 클라우드나 직접 연결식 스토리지가 있는 저렴한 파일 서버, 혹은 보조 클라우드 스토리지 업체가 포함될 것이다.

>>규칙 3: 기업에서 소비자 등급의 클라우드 사업자를 사용하지 말라. HP의 업라인(Upline)과 같은 소비자 서비스가 중소기업에게 선전되는 일이 많아지고 있는데, 이런 제품들은 아직 아주 간단한 백업과 파일 공유에 한정돼 있다. 업라인을 엔터프라이즈 애플리케이션의 백업 타깃으로 사용할 생각은 접는 게 좋다. 게다가 가동시간 서비스 수준에 대해서도 아무런 언급이 없다. 사용자가 자신들의 데이터에 액세스하는 길을 더 나쁘게 만드는 서비스라면, 즉 이들이 브라우저나 웹 애플리케이션을 사용해야 하게 만드는 것이라면 피하는 게 마땅하다.

클라우드 스토리지의 다섯 가지 기회

클라우드 스토리지의 다섯 가지 기회
가상화와 클라우드 컴퓨팅 이슈 대처
2008-12-17/데이타넷

올해에 이어 내년에도 핫 이슈는 가상화와 클라우드 컴퓨팅이 될 것이다. 모든 규모의 IT 조직이 스토리지 등에 호스티드 서비스를 사용하기 위해 점점 더 많은 관심을 보이고 있으며, 업체들은 이를 놓치지 않기 위해 비즈니스 모델과 ‘클라우드’ 지원 제품을 내놓고 있다. 클라우드 스토리지 서비스가 우리에게 줄 수 있는 다섯 가지 기회를 알아본다.

>>기회 1: D2D2D에서 두 번째 D. 값비싼 ATA 드라이브를 사용하는 스토리지 시스템(티어 2 스토리지)의 폭발적인 성장에는 몇 가지 요소들이 기여하고 있다. 이들 가운데 최고는 생산 시스템의 데이터 중 상당 부분을 직접 테이프로 백업하는 것을 피하라는 지시다. 이러한 문제를 해결하기 위한 표준 전략은 미들 스토리지 티어를 추가하는 것인데, 이것이 D2D2T(Disk-to-Disk-to-Tape) 구성이다. 생산 데이터를 티어 2 볼륨으로 복제하고 그 스토리지 풀에 대해 백업을 수행함으로써 서버를 테이프로 백업하고, 이를 통해 서버와 네트워크에 미치는 영향을 없앨 수 있다.

하지만 이러한 효율성을 얻으려면 그만한 값을 치러야 한다. EMC나 브로케이드의 하드웨어와 소프트웨어에는 수만, 심지어 수십만 달러가 들어갈 수 있다. 보안 업체인 블루코트는 저렴한 티어 2 스토리지를 물색하다 값비싼 NAS 구성 대신 범용화된 서버 하드웨어 시장에서 구입할 수 있는 직접 연결식 스토리지를 이용하는 창의력을 발휘해 보기로 했다.

블루코트는 파라스케일 클라우드 스토리지(ParaScale Storage Software)에 시만텍의 베리타스 넷백업(Veritas NetBackup)을 합침으로써 전용 클라우드를 구축했으며 많은 비용을 절감할 수 있었다. 블루코트는 자사의 4TB를 지원할 수 있는 NAS 시스템을 2만~2만5000달러로 책정했는데, 유사한 스토리지 능력이 있는 범용적인 서버가 단 4500달러, 여기에 파라스케일의 소프트웨어 라이선스 비용이 테라바이트당 약 1000달러가 추가돼 총 자본 지출은 약 1만4500달러에 불과했다. 스토리지가 성장할수록 이런 절감율은 배가될 것이다. 라이선싱 비용은 한 번만 지불하면 되며 연간 지원 비용 또한 EMC의 유지보수 비용에 비하면 비싼 것이 아니다.

>>기회 2: 비핵심 데이터 아카이빙. 여러 가지 통계와 우리의 경험에 따르면 생산 파일 시스템에 저장된 데이터의 약 80%는 두 번 다시 찾지 않는 것들이다. 하지만 e-디스커버리(e-discovery)에 대한 요구와 규정준수(compliance)에 대한 필요성이 늘어나면서 특히 규제가 엄격한 분야에서는 파일에 신속하게 접근할 수 있는 능력이 중요하게 됐다. 대부분의 조직에서는 단순히 IT에서 오래됐거나 중요하지 않다고 생각하는 것들을 생산시스템에서 테이프로 옮기고 있지만 테이프로부터 복원하라는 요청이 몇 건만 들어와도 일이 그리 간단하게 느껴지지는 않을 것이다.

그렇다면 해결책은? 클라우드를 마지막 휴식 공간으로 삼고 여기로 데이터를 옮기면서 신속한 온라인 복원이 가능하게 하는 것이다. 드라이브를 사서 관리하는 것보다 공중 클라우드 스토리지를 임대하는 것이 훨씬 저렴하며, 값비싼 테이프를 구입할 필요가 없고 순환 시스템을 관리하거나 오프 사이트로 미디어를 보내야 하는 문제도 피할 수 있다.

D2D2T와 달리 서비스 사업자에 의해 공급되는 공중 스토리지 클라우드는 기업에 잘 맞을 수 있다. 예를 들어 너바닉스(Nirvanix)의 가상 CIFS나 NFS 공유가 있으면 IT는 로컬 파일 서버에서 스토리지처럼 보이지만 사이버 공간에서 가상 볼륨의 역할을 하는 것을 사용자에게 매핑할 수 있다. 이로 인해 공중 스토리지 클라우드를 선택할 때의 큰 감점 요소인 대역폭 문제가 대두된다. 직원들은 내부의 이더넷 네트워크 속도에 익숙해져 있기 때문에 이 부하를 처리할 수 있는 파이프를 구입할 수 없다면 불만을 들을 각오를 해야 할 것이다. 그리고 아카이브 작업은 반드시 근무 시간외에 하도록 해야 한다.

>>기회 3: 클라우드 기반 NAS. 일상적인 비즈니스 니즈를 위한 생산 파일 시스템용으로는 너바닉스가 아카이빙용으로 제공하는 기술과 같은 가상 스토리지 기술이 좋을 것이다. 보다 규모가 작은 조직이나 원격 사용자 수가 많은 조직에서는 클라우드 기반 NAS에 가입하는 것이 많은 비용을 절감할 수 있을 뿐 아니라 분산된 인력간에 데이터를 공유할 수 있어 관리면에서도 최상의 솔루션이다.

괜찮은 업로드와 다운로드 속도가 나올 만한 대역폭이 있는 중소기업에서는 클라우드 NAS가 기업 등급 시스템과 필적할 만한 폴트 톨로런스(faul tolerance)와 장애복구 및 관리를 제공할 수 있다. 너바닉스는 하드웨어, 진행 중 유지보수 및 관리, 운영비 등 NAS 스토리지 시스템을 관리하는 데 드는 모든 비용을 감안할 때 고객은 스토리지 서비스 비용을 75~90%나 절감할 수 있다고 자랑하고 있다. 물론 90%는 지나치게 낙관적인 수치일지도 모른다. 너바닉스 서비스의 소매가는 테라바이트당 256달러로 공중 클라우드 스토리지가 10TB면 월 2560달러를 내게 될 것이다.

유명한 NAS 하드웨어는 이보다 10배가 더 비싸며 이것을 관리할 스토리지 엔지니어도 필요하다. 여기에 유틸리티와 이 하드웨어에 대한 20%의 연간 유지보수 비용을 더하면 75% 절감은 문제도 아니다. 하지만 대신 랜 속도는 희생해야 할 것이다. IT와 비즈니스 매니저들은 데이터 액세스 빈도를 기반으로 해서 이러한 트레이드 오프가 과연 가치가 있는지 여부를 판단해야 한다.

>> 기회 4: 오래된 기록 일괄 디지털화. 규정준수에 대한 필요로 인해 모든 형태의 조직들이 오랫동안 먼지만 쌓여 온 기록을 디지털화하고 있다. 이런 방대한 양의 데이터를 저장해야 하는 부담은 의료 업계에서 특히 심한데 이 분야의 정밀한 화상 기록은 심지어 페타바이트급의 스토리지를 필요로 하기도 한다. 페타바이트 용량을 지원하는 선도 스토리지 업체의 어레이를 구입하는 비용은 아무리 형편이 좋은 IT 조직이라 하더라도 크게 부담이 된다.

여러 개의 범용 서버로 구성된 전용 스토리지 클라우드는 확장성과 저렴한 비용이 초고속 스핀들 속도보다 중요한 경우 이에 대한 좋은 대안이 된다. 당연한 말처럼 들릴지 모르지만 유명 업체들이 속도가 떨어지는 SATA만 있으면 충분한데도 벌크 스토리지용으로 티어 1 제품을 판매하려고 얼마나 애쓰는지를 알면 깜짝 놀랄 것이다.

>> 기회 5: 자신의 클라우드에 클라이언트 백업. 회사 CEO가 어느날 아침 자신의 랩톱 하드 드라이브에서 불길한 소리를 듣고 잠이 깼다면 아메리볼트(AmeriVault)같이 소비자와 SMB에 초점을 맞춘 써드파티 클라우드 기반의 클라이언트 백업 서비스가 생명을 구원해 줄 수 있다. 하지만 대기업에서는 250MB의 클라이언트 데이터를 저장하는 비용에 1000명의 직원 수를 곱하면 데이터 중복제거(deduplication) 및 지능형 비트 레벨 차별 기술을 감안한다 하더라도 꽤 많은 비용이 들어간다. 여기에 성능 감소까지 대비해야 한다면 누가 각각의 PC에서 완전히 다른 클라이언트를 관리하고 싶어 하겠는가.

IT는 전용 스토리지 클라우드를 사용함으로써 오버헤드 없이 같은 작업이 써드파티 백업 클라이언트에서 수행되도록 스크립트를 만들 수 있다. 예를 들어 너바닉스는 1TB의 가상 CIFS/NFS 공유를 제공하는데, 이것은 월 200달러의 지원 비용에 월 256달러 가격으로 클라이언트 백업 리포지토리의 역할을 해준다.

클라우드 스토리지, “태풍 상황” 대비책

인터넷 상의 클라우드 서비스에 회사 데이터를 보관하는 서비스에 대해 가장 기초적인 질문들이 제기되고 있다. “정말로 믿고 맡겨도 되는가?”하는 것이다. 하지만 수많은 제약에도 불구하고, 이 서비스는 현장의 스토리지 플랫폼보다 더 위험하지는 않을 것이다.

클라우드 컴퓨팅뿐 아니라 클라우드 스토리지의 기반이 되는 기술은 자원의 위치에 상관 없이 기업이 IT 자원을 활용할 수 있도록 해준다. 그래서 클라우드 컴퓨팅이란 보통 주요 자료나 백업 데이터를 가까운 데이터 센터나 지정된 원격지보다는 기업 외부의 정해지지 않은 저장소로 이관하는 것을 의미한다.

클라우드 스토리지 서비스를 사용함으로써 조직은 자본경비 및 복잡한 설정과 행정업무를 줄일 수 있다는 것이 찬성하는 쪽의 입장이다. 또한 데이터를 클라우드에 둔다는 것은 더 많은 위치에서 데이터에 접근할 수 있다는 의미도 된다.

작업과 경비의 감소는 클라우드 서비스가 향후 몇 년 안에 큰 성장을 이룰 것이라고 예상하는 핵심적인 이유다. IDC는 2008년 전 세계 IT 경비의 4%가 클라우드 서비스에 소요됐고, 2012년까지 이 수치는 9%가 될 것이라고 밝혔다. 이 서비스의 비용과 공간 요건 때문에 데이터 스토리지는 클라우드 솔루션의 가장 중요한 후보로 꼽힌다. IDC는 스토리지가 같은 기간에 클라우드 경비의 8%에서 13%로 증가할 것으로 전망하고 있다.

서비스 업체와 기업 고객 움직임 본격화
이런 기업들의 수요에 맞춰 업체들도 속도를 내고 있다. 아마존닷컴은 클라우드 컴퓨팅 시장에서 발 빠르게 신호탄을 쏘아 올렸고, 현재 자사의 S3란 스토리지 서비스를 전면에 내세우고 있다. 너바닉스는 2007년부터 클라우드 아카이빙과 백업 서비스를 제공하기 시작했고, EMC의 Mozy 사업부와 시게이트를 포함한 스토리지 분야의 일부 거물들 또한 본 게임에 속속 입장했다.

451 그룹의 분석가 헨리 발타자르는 클라우드 스토리지 제공업체는 어떻게 해야 하는 지를 두고 고민하는 사람이라면 이미 게임을 끌고 가는 입장이라고 설명했다. 발타자르는 “사람들은 자신이 클라우드 스토리지를 원하는지 여부를 아직도 가늠하는 중이기 때문에 당장 이 문제를 고려하지 않고 있다. 아직도 이 분야는 전혀 새로운 시장이다”라고 말했다.

기업들의 움직임도 본격화되고 있다. 미국 캘리포니아 주 로즈빌의 어드밴티스트 헬스의 데이터 관리 계획에는 클라우드 스토리지가 포함될 가능성이 높다. 이것은 원목이 유투브에 동영상을 호스트하는 것만큼이나 쉬운 것일 수 있다고 어드밴티스트의 CTO 그렉 맥거번은 클라우드 스토리지를 이용하는 것에 대해 유튜브에 병원 동영상을 호스팅하는 것만큼이나 간단한 것이라며, “현재 시장에 나와 있는 가장 인기 있는 것을 활용할 수 있는데도, 건강을 다루는 회사가 자체적으로 비디오 플레이어와 호스팅 플랫폼을 개발한다는 것은 말도 안된다”고 덧붙였다.

토론토의 온라인 인보이싱 회사인 프레쉬북스는 랙스페이스의 클라우드 파일 스토리지 서비스를 베타 테스트하고 있는데, 조만간 대량 문서파일의 복사본을 저장하기 위해 이 서비스를 정식 사용할 것으로 예상하고 있다. 프레쉬북스의 CEO 마이크 맥더먼트는 이 덕분에 전문 분야가 아닌 파일 및 인프라 관리 필요성을 줄일 수 있을 것으로 보고 있다. 맥더먼트는 “이렇게 아웃소싱할 수 있는 것이 큰 장점”이라며, “어떤 기업주든 스스로 어디에 몸 담고 있는지를 파악해야 할 필요가 있다”고 강조했다.

그러나 모든 IT 기능에서 손을 뗀다는 것은 관리 권한의 상실이 수반되고, 스토리지는 특히 정보에 대한 액세스라는 문제와 연결되어 있다. 많은 기업의 경우 정보는 핵심 자산이며, 직원과 고객이 정보에 접근할 수 없다면 기업의 경영 활동은 적지 않은 타격을 받게 될 것이다.

클라우드 스토리지 서비스를 베타 시험 중인 랙스페이스의 CTO 존 잉게이트는 ”완벽한 것은 없다. 세상에서 가장 좋은 클라우드에도 다운타임이 있다”고 인정했다.

“중구난방” 클라우드, 표준없어 이전 어렵다
그러니, 만약 내 데이터를 담당하고 있는 이 서비스 업체 때문에 일이 잘못되면 어떻게 될까? 정보를 복구하거나 이를 다른 제공업체로 옮기는 일은 얼마나 쉬운가? 물론 기업은 이런 상황에 대비해야 하지만, 업계 전문가들은 클라우드 스토리지가 생각처럼 위험하지 않으며, 자체 스토리지 시스템보다 문제가 더 적을 수 있다고 평가한다.

IDC 분석가 벤자민 우는 서비스 공급업체를 바꾸는 시점에 이르면, 여러 가지 작업을 수행해야 한다며, “이 공급업체가 맘에 안 든다, 다른 데로 갈 것이다, 이렇게 그냥 말하는 것 이상으로 관련된 것들이 훨씬 많다”고 지적했다.

새로운 클라우드 공급자의 시스템이 현재 사용하는 백업 소프트웨어를 지원하지 않으면, 이를 바꿔야 할지 모른다. 내부 정책과 절차 또한 변경해야 할 수 있다.

전문가들은 클라우드에 저장된 데이터의 복구 또는 이를 다른 공급자에게로 옮기는 과정에 있어 업계 전반에 걸친 공통 기준은 없다고 전했다.

데이터 이전 소프트웨어 및 서비스를 제공하는 프로세도의 설립자이자 CEO인 조 크비드라에 따르면, 클라우드 스토리지에는 SMTP 같이 공통된 전송 메커니즘이 없다. 클라우드 업계가 아직 걸음마 단계이기 때문에, 업체들은 자사 고유의 압축, 암호화 그리고 자사를 차별화할 수 있는 전송 메커니즘을 사용하고 있기 때문이다.

그러나 일부 업체가 가입자에게 더 많은 권한을 주고 이전을 더욱 쉽게 만들기 위한 조치를 취하고 있다. 프레쉬북스의 맥터먼트는 보관된 파일을 다른 클라우드에 옮기는 것이 쉬워질 것이라고 믿는다. 랙스페이스는 새로운 스크립트를 작성하는데 사용하는 클라우드 파일 API를 제공하며, 이 API 때문에 프레쉬북스가 코드를 바꾸는 것만으로 문서를 조작하고 정렬할 수 있다는 것.

너바닉스 또한 API 세트를 제공하며, 아템포 같은 백업 및 아카이빙 소프트웨어 업체와 통합 계약을 이끌어냈기 때문에 사용자는 친숙한 유틸리티를 계속 사용할 수 있다. 게다가 너바닉스는 너바닉스의 클라우드를 NAS 드라이브처럼 사용할 수 있는 브리징 소프트웨어인 CloudNAS를 제공한다.

그럼에도 한 서비스 공급업체에서 다른 업체로, 또는 클라우드에서 사내 스토리지로의 대량의 데이터를 이전하는 것은 보통 일이 아니다. 너바닉스의 기본 서비스는 파일의 이동을 위해 공중 인터넷을 사용하지만, 개별 고객이 너바닉스 클라우드로의 일회성 대규모 전환을 처리하기 위해 고대역폭 회선을 임대할 수 있게 지원해 왔다. 또한 고객이 자신의 시설에 있는 서버에서 데이터를 로드한 후 오프로딩을 위해 너바닉스로 이 서버를 물리적으로 운송하는 일까지 지원한다. 너바닉스는 현재 이전 서비스 제공을 두고 스토리지 컨설팅 회사와 논의를 거치는 중이다.

프로세도의 크비드라는 테라바이트 당 5,000~4만 달러가 들 수 있는 이전 서비스 수요가 급격히 증가하고 있다고 전했다.

안전성은 내부 스토리지와 차이 없어
가용성 및 현재 플랫폼을 떠날 수 있는가에 대한 우려는 실제로 데이터 스토리지의 역사만큼이나 오래 된 것이다.

어드벤티스트 헬스 CTO 맥거번은 크리티컬 데이터가 테이프로 백업되었던 20년 전에 메인프레임 환경에서 일하던 기억을 떠올린다. 어떤 테이프는 나중에 보면 읽을 수 없었기 때문에 2개의 복사본에 모든 것이 담겨 있어야 했고, 심야 백업 프로세스로 인해 메인프레임을 무려 7시간 동안 사용할 수 없었다.

맥거번은 “인터넷 스토리지 모델은 과거의 그 어떤 것보다도 신뢰성, 비용 효과성 그리고 보장성이 훨씬 뛰어나다”고 말했다.

맥거번은 또 사내 자원을 데이터 관리에 사용하면 안전하고 빨리 사용할 수 있다는 느낌은 들지만, 이것이 착각일 수 있다고 덧붙였다. 비밀 유지가 어려운 회사의 창고에 보관된 테이프는 클라우드 스토리지에 보관된 데이터보다 복구성이 떨어질 수 있다. 어떤 식으로든 IT 부서는 정기적 훈련을 통해 보관된 데이터의 가용성을 반드시 보장해야 한다는 것이다.

가장 독점적인 IT 영역 가운데 하나인 내부 스토리지에는 아직도 나름의 비용과 함정이 존재한다. 뉴클리어스 리서치의 분석가 레베카 웨테만은 “모든 데이터가 자체 아키텍처를 사용하는 사설 스토리지에 있다면, 그걸 다른 업체로 옮기는 것이 더 쉽겠는가? 아마도 아닐 것이다”라며, 회사는 하드웨어와 소프트웨어뿐 아니라 전문적 교육에도 대대적인 투자를 했을 것이기 때문에 오히려 더 비싸게 든다고 설명했다.

또한 웨테만은 한 번 판매하고 종료되는 스토리지 장비 거래보다는 다음 달 서비스 이용료를 받아야만 하는 클라우드 스토리지 서비스가 훨씬 더 고객 만족에 대한 동기가 높다고 덧붙였다.

정말 일이 심각해지면, 클라우드 스토리지 제공업체가 고객의 데이터를 볼모로 잡을 수도 있다. 랙스페이스에서 그런 지경까지는 가지 않았다고 잉케이트는 전했다. 너바닉스의 CEO 짐 지에릭은 경우에 따라 고객의 데이터 접근을 차단할 수 있는 문구를 계약에 포함시키지만, 그런 지경까지 가기 전에 분쟁을 해결하기 위해 할 수 있는 모든 대책을 강구할 것이라고 말했다.

IDC의 우는 서비스가 아주 단순하기 때문에 클라우드 스토리지 공급자와 고객 간의 심각한 충돌은 일어나지 않을 것이라며, “백업 시나리오에 있어야 할 가장 적합한 관계는 바로 아무도 존재하지 않는 것이다”라고 말했다.

안전한 클라우드 스토리지를 위한 팁
전문가들은 클라우드 스토리지가 자체 스토리지보다 절대 불안하지 않다고 한다. 하지만 이런 클라우드 스토리지를 더욱 안전하게 이용하기 위해서는 전문가들이 제시하는 다음 사항을 유의하는 것이 좋다.

뉴클리어스 리서치 분석가 레베카 웨테만
- 계약서에 서명하기 전에 데이터를 다시 빼내는 것이 얼마나 복잡한지 철저하게 평가하라.
- 데이터 이전에 필요한 전용 툴이 있는지 확인하라
- 데이터 이전과 관련된 비용을 확인하라
- 계약서에서 데이터 이전과 관련된 조항이 있는지 확인하라

451 그룹 분석가 헨리 발타자르
- 계약이 종료되면 데이터를 휴대형 하드디스크에 담아 돌려줄 것을 요구하라

IDC 분석가 벤 우
- 주 스토리지는 아웃소싱하지 말라. 보조 스토리지를 아웃소싱하는 하이브리드 전략이 효율적이다.
- 백업 루틴이나 발전기 등 자체 데이터센터에 필요한 사항과 똑 같은 항목을 서비스 업체의 데이터센터가 갖추고 있는지 확인하라.

어드벤티스트 헬스 CTP 그렉 맥거번
- 자사의 데이터 관리 전략과 서비스가 부합하는지 확인하라
- 가능한 공개 파일 포맷을 사용하라
- 데이터를 복원할 수 있도록 정기적으로 연습을 하라
- SLA와 데이터의 활용도가 부합하는지 확인하라
- 서비스 업체가 제대로 관리할 수 있다는 확신이 들 때까지는 아웃소싱을 하지 말라.

Leverage Grid Computing for Optimized, Scalable IT

Can you explain the concept behind application grid?


Application grid is an approach to deploying enterprise application infrastructure based on resource pooling and automated dynamic adjustment. One way to easily understand the importance of grid is to use a simple analogy - an electrical power grid. Just as energy utilities use a grid to pool power generating resources to meet different customer energy demands cost-effectively and reliably, an application grid for IT infrastructure pools, shares and dynamically adjusts computing resources. In terms of scalability, application grids automatically adapt and move resources from areas of least need to areas of most need.

Because of the grid technology, applications no longer run on dedicated hardware and software infrastructure stack at low utilization rates as they run on shared infrastructure instead. This is architecturally engineered near the bottom middleware stack, so it is important to use products that can take full advantage of an application grid deployment. This makes the middleware foundation critical to an organizations ability to deploy an application grid, and use the resulting IT innovation as an important competitive advantage.

Oracle endeavors to provide the most complete, open and integrated application grid offerings. These offerings provide our customers with superior benefits in terms of helping to lower operational costs and build a middleware foundation that can scale up to meet future business demands.

In the current recessionary phase, how can expense attached to business-critical applications be reduced?
Traditional organizations have deployed various IT solutions from different vendors for their diverse needs. So IT architectures have evolved into islands of software on dedicated hardware.

Application grid enables the use of disparate computing resources to design platforms capable of running multiple applications, hence helping organizations to achieve greater efficiency, reliability and service quality in enterprise application and SOA (Service Oriented Architectures) deployments. An application grid approach to deploying middleware can drive cost savings, enable the successful deployment of SOA and make the best use of existing hardware resources by leveraging virtualization and clustering technologies.

As with Oracle s Real Clustering Architecture for database, application grid allows customers to use standard commodity hardware clusters to provide high level of performance and reliability for enterprise application thus dramatically reduce hardware and ongoing maintenance and administration costs.

What is the competitive advantage in leveraging Oracle s Application Grid technology?
Oracle provides customers with the greatest benefits in terms of lowering operational costs, outperforming their competitors, and building a foundation for the future through Oracle Application Grid. Application grid enables customers to use multiple computing resources to create an application platform to run multiple applications, achieving greater efficiency, reliability and service quality. Oracle Application grid forms the high value foundation for enterprise software infrastructure. These products, including application server and transaction processing technologies such as WebLogic, Tuxedo, JRockit, and Coherence, enable enterprises to outperform their competitors with lowest operational costs and provide the best foundation for their entire Oracle as well as non-Oracle infrastructure.

What are its adoption trends in various industry verticals in India?
Application grids are appropriate for any industry with heavy IT requirements. Telecom companies and e-commerce players will appreciate application grid s enablement of fast provisioning and subsequent capacity expansion. Organizations with high seasonal variation, such as state and federal tax departments that offer online tax filing for example, will benefit from application grid s ability to shift resources between applications that experience peak loads at different times.

How does this technology contribute to the environment and facilitate green IT?
Grid computing decouples demands from resources and pools the resources in a way that allows their allocation across demands to be dynamically adjusted. This in turn helps in better use of servers, as more servers are not pressed into service as and when load increases. It helps in utilization of less space and at the same time there is less consumption of electricity.

What are the key technologies that Oracle brings together for Application Grid solution?
The key technologies that comprise Application Grid include WebLogic, Tuxedo, JRockit and Oracle Coherence.

a) Oracle Weblogic: The Oracle WebLogic application server product line is a Java platform for developing, deploying, and integrating enterprise applications.

b) Oracle Tuxedo: Oracle Tuxedo is industry s premier platform for distributed transaction processing. It provides mainframe-class scale and performance on open, distributed systems for software written in C, C++, and COBOL, and is the premier platform for "rehosting" mainframe applications on mainstream hardware.

c) Oracle JRockit: The Oracle JRockit family of products is a comprehensive portfolio of Java runtime solutions that includes the industry's fastest solution for standard Java. The base JRockit JVM is the world's fastest JVM as shown by numerous industry benchmarks. The JRockit solution for latency sensitive applications, JRockit Real Time, provides JVM response times in milli- or micro-seconds, suitable for the needs of the financial front office, military command and control, and telecom networks.

d) Oracle Coherence: Oracle Coherence is a component of Oracle Fusion Middleware that enables organizations to predictably scale mission-critical applications by providing fast and reliable access to frequently used data. By automatically and dynamically partitioning data in memory across multiple servers, Oracle Coherence enables continuous data availability and transactional integrity, even in the event of a server failure. As a shared infrastructure, Oracle Coherence combines data locality with local processing power to perform real-time data analysis, in-memory grid computations, and parallel transaction and event processing.

What is your vision for the application grid for next-generation foundation middleware?
Application grid technologies are set to revolutionize the way IT functions do business in three fundamental ways:

Meeting SLAs with Increased Confidence: By decoupling applications, hardware, and infrastructure software, an application grid can instantly shift computing power between multiple applications to optimize for most, if not all, applications on the grid and even accommodate sudden or unexpected demand. This gives IT teams increased confidence that they can meet rigorous SLAs.

Besides freeing up computing resources, the application grid actually automates enforcement of SLAs with continuous monitoring and dynamic provisioning.

Facilitating Greener IT: The beauty of an application grid approach is that, besides improving overall IT performance, it actually requires a smaller set of underlying physical resources. A reduction in physical resources like servers also means a reduction in the consumption of energy required to service them. Fewer machines, together with automated monitoring, provisioning and deployment also enables a reduction in human resources to keep systems running optimally.

Scalability: Business demands often outpace IT, leaving IT struggling to keep up. The increasingly volatile nature of business demands and SLAs has made agile IT operations a necessity. As overall demand increases over time, the application grid can scale with unparalleled speed, simply by adding to the pool of resources. Conversely, if a part of the business needs to scale down, the architecture allows for this be done in a relatively painless manner.