Sunday, December 21, 2014

MENGEVALUASI ARSITEKTUR DATA CENTER TERDISTRIBUSI

EVALUATING THE DISTRIBUTED DATA CENTER ARCHITECTURE

Published on 19th December 2014 by Vinay Rathore
I was recently visiting Hong Kong, and as I was going through an industrial district in Kowloon I noticed the construction of a few enormous non-descript buildings, with very few windows. It got me wondering was this some sort of penitentiary or secretive government building? Then I noticed that there was not enough barbed wire to be a jail nor any visual indication to be a secretive government facility. Fortunately, a quick search on cell phone GPS maps advised that it was just another large data center.
While there has been a strong trend toward creating bigger and more powerful centralized data centers to meet end user needs, there has been another, less notable, trend toward pushing the data center closer to end users for the same reason. Large data centers create efficiency through a centralization of resources (e.g., uninterruptable power supplies, generators, HVAC, other networks, etc.). The goal is to minimize cost while maintaining maximum functionality and reliability of the data center itself. However, many end users find that they prefer certain mission critical elements of their IT infrastructure to be physically closer to their offices, rather than in a central data center that could be far away. This has given rise to the need for a data center solution physically closer to the customer (aka virtualized data center), which essentially comprises a network extension of the centralized data center into space that is physically closer to the end user, while still offering many of the traditional data center services. For some locations, such as a remote business park, building a full service, but smaller scale data center may be justified; for others a virtual data center is the next best option.
 
http://pro.clubic.com/entreprises/google/actualite-517039-google-data-center.html

Why large centralized data centers are not for everyone
Today, enterprises are more dependent upon their IT infrastructure than ever before. Further, they no longer want the burden of managing IT complexity, a function typically far from their core competency. Instead, they simply prefer to move IT resources into a location where space, power and network access is abundant and can be managed remotely. For some enterprises, this model creates a dilemma. The question that arises is, “How should I treat my mission critical applications in a data center that is 80 kilometers away, is shared with others, and in some cases is not easily accessible (physically, that is)?” Some business applications don’t care about such parameters, like certain Human Resource functions, or Customer/Marketing applications, but other applications, such as proprietary algorithmic trading, 3D modelling applications, or high volume transaction-oriented processes, may suffer due to latency and need for greater control. The alternative is to keep an IT facility onsite, but ideally there is a preference for someone else to manage it.
Why most large enterprise will need virtualized data centers?
As more enterprise users move toward cloud-based applications, performance and speed of innovation (aka speed of change) become important. This has driven the desire to have some portion of infrastructure be located in a high performance, controlled IT facility, while other portions can be operated over a public infrastructure, creating a hybrid cloud network. This desire has created a new Cloud concept known as the hybrid cloud. Hybrid cloud is defined as having some portion of cloud infrastructure operating in a public cloud facility, and another portion operating in a private facility, usually to meet specific end user demands, such as security, location, accessibility and reliability.

Many large enterprises, including financial and retail enterprises, can build their own private cloud with private infrastructure they build themselves, or outsource it to a data center operator/integrator, who could own and maintain the space and connect it back to the main data center, where a rich set of other cloud services may be available. They could also supplement any public cloud offering with such a private cloud offer, thus offering a full hybrid cloud solution.
 

What is a Virtual Data Center?
The concept of the virtual data center is about both revenue and opportunity. A virtual data center is simply an extension of a larger centralized data center that offers similar services, with the added benefit of catering to more specific enterprise needs. By addressing large enterprises, perhaps through a customized virtual data center solution, data center operators can attract larger, more profitable end users while establishing a footprint in a new market segment. In fact, many Fortune 500 companies have already engaged in such strategies by building their own private networks using leased space and contracting companies to manage the network. This concept of the virtual data center has been shown to be popular in large metropolitan locations, where customers are spread out across larger distances.



Overcoming the network challenge
The key challenge is how to extend the network from the central data center to a virtual location efficiently. In fact, there are several ways to overcome this network challenge, including technology, operational simplicity and ultra-high performance. All of the key operational challenges concern space utilization, power consumption and the need for a high performance network. In this case, two key technological innovations enable such solutions to become reality: photonic integration and optical super-channels.

Photonic Integration
The value of photonic integration lies in replacing multiple discrete components with a single highly integrated optical integrated circuit, also known as the photonic integrated circuit (PIC). A key value of the PIC is that it reduces space and power while ultimately providing higher performance network capacity. It follows the same philosophy of integrated circuits in our laptops replacing discrete transistors that were much larger and consumed much more power. Ultimately the real value of photonic integration is that it takes the highest power consuming components (e.g., network side lasers) and integrates them into a small compact device that consumes significantly less power and space.
Optical super-channels
Optical super-channels are defined as a group of smaller, more granular optical channels that are bundled into a single, larger optical group that provides equivalent high performance, but also adds the simplicity of managing fewer circuits. For example, would you rather manage 50 x 10G fiber circuits or manage 5 x 100G fiber circuits?
If we agree that PIC based optical super-channels are the simplest and most cost effective way of deploying network capacity, the next question is one of reliability. Fortunately, PIC technology is so reliable that it features an expected Failure in Time (FIT) of more than 1 billion hours (Source: Infinera).This solution results in increased reliability with photonic integration and simplification with super-channels that deliver performance.
Networks that maximize the Return on Investment (ROI)
Leveraging both Photonic Integration and Optical super-channels will not only help drive greater network efficiency and operational efficiency, but also provide opportunities to increase ROI. However, 500Gb/s is a lot of capacity, but a particular customer’s forecasted need may be only about 100-200Gb/s. To solve this dilemma, the superchannel can be sliced whenever needed through software activation. Namely, since optical super-channels and photonic integration are tightly coupled, customers can simply activate the bandwidth they need, in 100Gb/s bandwidth increments, using a few simple keystrokes, similar to activating software on your computer.
 
Conclusion
As the data center market continues to evolve, large centralized data centers and smaller virtual data centers that are closer to the end users will co-exist. The concept of the hybrid cloud plays a role in that it addresses the need for large enterprises to keep certain mission critical resources close to them while locating other assets in large, more economical and centralized facilities. This solution also creates opportunity for data center operators to offer value-added services, from the basic virtual storage and computing services to the fully outsourced IT solutions that make the operators more indispensable to the enterprise. The critical element in this solution remains the network, which must be simple and efficient. From the technology angle, technologies such as photonic integration and optical super-channels may be critical to ensuring the deployment of simple, efficient and high performance virtual data center solutions.

Sunday, November 23, 2014

Green Data Center dan UPS

Bagi sebagian orang mungkin masih terlalu asing atau tidak familiar dengan yang namanya UPS.Perangkat ini memungkinkan mencegah kerusakan fatal ataupun akibat yang fatal apabila dipasang diwilayah yang sebab itu kualitas listriknya rendah seperti di Indonesia.Pada kenyataannya stavolt atau stabilizer sudah tergantikan dengan keberadaan perangkat UPS ini.Hal ini disebabkan oleh kemampuan stavolt atau stabilizer kurang memadai.Oleh sebab itu perlu mempelajari dan memahami pengertian dan fungsi UPS lantaranbanyak sekali brand atau merk yang memproduksi perangkat UPS namun kualitasnya minim belum dapat memback-up pada alat yang penting.


Pengertian UPS
UPS (Uninteruptible Power Supply) mempunyai pengertian bahwa UPS ini merupakan perangkat output untuk catu daya listrikyang tidak dapat diinterupsi.Maksud dari kata interupsiitu sendiri adalah kelebihan, kekurangan, danmatinya arus listrik yang digunakan untuk mengoperasikan perangkat UPS. Dengankata lain UPS dapat bekerja sedemikian rupa tanpa terpengaruh oleh adanya interups tadi.


Fungsi UPS 
Pada dasarnya fungsi UPS adalah sebagai penstabil listrik dan untuk memback up kebutuhan listrik memungkinkan komputer yang kita gunakanakan terlindungi oleh perangkat UPS' Artinya semua data
semua data yang ada di komputer telah disimpan di dalam memori perangkat UPS. Ini dinamakandengan istilah Back Up,Bilamana komputer kita terkendala seperti kelebihan daya listrik, atau kekurangan daya listrik atau matinya daya listrik, maka secara otomatis UPS akan menyimpan semua data kita yaitu dengan cara memback up semua filedan dokumen penting untuk diamankan. Jadi komputer kita akan terselamatkan oleh kendala-kendala tadijika terdapat perangkat UPS.





Green Data Center
Green data center terdiri dari dua frase yakni green Dan data centerData cener sendiri merupakan sebuah fasilitas atau infrastruktur TI yang digunakan untuk menampung komponen-komponen sistem komputer. Sedangkan kata green sendiri yang menjadi ciri khas dari produk-produk ramah lingkungan menandakan bahwa suatu green data center merupakan data centeryang dirancang untuk ramah lingkungan.
Ramah lingkungan berarti menggunakan energi seefisien mungkin dengan dampak terhadap lingkungan hidup seminimal mungkin. Selain itu pada green data center penggunaan energi dapat memanfaatkan keadaan sumberdaya dari lingkungan sekitar.
Pembangunan Dan operasional dari sebuah green data center melibatkan teknologi Dan strategi yang maju seperti berikut:
  • Meminimalisir dampak atau polusi dari gedung.
  • Menggunakan material bangunan, karpet Dan cat yang rendah emisi.
  • Mendaur ulang emisi atau sampah.
  • Pemasangan konventer katalis pada backup generator.
  • Menggunakan teknologi energi alternatif sebagai sumber listrik seperti evaporativecoolingheat pumpsphotovoltaic.
Membangun sebuah green data center memang membutuhkan biaya yang tidak sedikit di awal proyek, tapi untuk jangka panjang green data center dapat menghemat biaya operasional Dan pemeliharaan data center itu sendiri. Keuntungan yang lain dari green data center adalah membantu pekerja data center menjaga kesehatan mereka, memberikan lingkungan pekerjaan yang nyaman, Dan juga dapat meningkatkan sosialisasi dengan komunitas lokal.
Merupakan suatu tempat untuk penyimpanan, Management perangkat yang dapat melayani permintaan terkait layanan IT dari luar maupun intra organisasi dengan mengedepankan efisiensi energi semaksimal mungkin, dampak terhadap lingkungan seminimal mungkin serta mampu memanfaatkan clean & renewable Energy

Kenapa Green Data Center?

Saat ini Kita mulai memasuki era digital dimana sudah tidak asing lagi bagi Kita menggunakan teknologi dalam kegiatan sehari-Hari. Data dalam bentuk digital juga sudah sangat banyak Dan mudah ditemukan, bahkan data digital ini merupakan salah satu aset yang paling penting. Sudah menjadi hal yang biasa pula Kita membuat, mengakses, mengubah, menghapus, Dan berbagi data digital. Faktanya adalah dalam 1 menit, lebih dari 200 juta email terkirim, 20 juta foto dilihat (view), Dan 60 ribu jam musik dimainkan. Fakta tersebut tentunya akan berubah mengingat jumlah data yang akan terus bertambah.
052313_1248_3.jpgSemakin banyaknya data yang di-share maka peran data centermenjadi semakin penting. Untuk menjalankan datacenter, dibutuhkan banyak energi. Semakin banyak data, maka semakin banyak pula energi yang dibutuhkan data centerData centerpada umumnya dapat kehilangan 22-25% energi dalam konversinya. Salah satu alasan mengapa greendata center diimplementasikan adalah agar penggunaan energi bisa lebih efisien sehingga perusahaan yang memiliki data center tersebut dapat menghemat biaya pengeluaran.
Industri data center pada tahun 2012 diketahui menghasilkan lebih banyak emisi karbon dibandingkan dengan industri penerbangan (airline industry). Hal tersebut tentunya akan terus meningkat seiring dengan bertambahnya kebutuhan data storage. Selain membantu masalah efisiensi penggunaan energi untuk data centergreen data center juga dapat mengurangi banyaknya emisi karbon yang dihasilkan data center. Dengan mengganti server lama dengan desain yang menggunakan teknologi terbaru serta setidaknya sebanyak 30% penggunaan energi berkurang, maka sama halnya dengan mengurangi emisi karbon sebanyak 1 ton atau mengurangi emisi dari bahan bakar lebih dari 100 galon.
Industri data center pada tahun 2012 diketahui menghasilkan lebih banyak emisi karbon dibandingkan dengan industri penerbangan (airline industry).
Perusahaan yang mengimplementasi green data center juga dapat mempengaruhi sisi bisnis perusahaan tersebut. Masyarakat tentunya dapat melihat bahwa perusahaan yang melakukan pendekatan ini telah menunjukkan Dan membuktikan kepeduliannya terhadap lingkungan. “Image” atau citra yang positif ini tentunya bisa menjadi kelebihan perusahaan dibanding dengan kompetitor lain Dan menjadi pembeda bagi klien, mitra, Dan pemasok.
Gambar berikut merupakan ilustrasi dari Intel corp. Mengenai mengapa, betapa Dan apa saja manfaat dari green data center.
052313_1248_4.jpg

Sejarah

052313_1248_9.png
Eniac data center
Data center pertama kali dikembangkan oleh ENIAC pada tahun 1946. Data center ini dibangun oleh U.S. Army Ballistic Research Laboratory Dan digunakan untuk menyimpan kode arliteri. Sama seperti perkembangan Internet pada awalnya data center ini digunakan untuk keperluan militer atau perang. ENIAC terakhir digunakan tahun 1955.
Setelah itu, transistorized computer (TRADIC) ditemukan oleh IBM pada tahun 1954 Dan dikembangkan untuk menggantikan vacuum-tubebased systems yang pada saat tersebut populer digunakan. Pada tahun 1960-an, IBM melakukan komersialisasi dari teknologi tersebut. Pada tahun 1972 IBM pertama kali berhasil mengkomersialisasi dari teknologi tersebut. Pada saat itu, TRADIC digunakan untuk mensupport pemerintahan.
052313_1248_19.png
CDC
Pada tahun 1964, CDC6000 dibuat oleh Control Data Corporation Dan dikenal sebagai super komputer pertama di dunia. CDC6000 didesain dengan menggunakan processordengan kecepatan 40 MHz dengan 10 mesin tambahan yang kemudian dikenal sebagaiReduced Instruction Set (RISC). CDC6000 dapat mempertahankan kecepatan 1 MFlops (maksimal 3 MFlops). Pada saat itu, CDC6000 dikenal sebagai komputer tercepat Dan digunakan hingga tahun 1977. Harga CDC6000 pada masanya dijual dengan harga 8 Juta USD, atau setara dengan 60 Juta USD saat ini.
Terakhir pada tahun 2013, tiga peneliti dari data center transformation yaitu Jakob Carnemark, Earl Keisling, Gerald McDonnell berhasil menghasilkan TELUS, yaitu Smart, Ultra-Green modular data center pabrikan Skanska. Jakob Canemark pencetus dari desain dari data centertersebut, termasuk intelligent management software sangat yakin atas sistem pendingin darigreen data center yang dia rancang. Dia mengklaim bahwa sistem pendingin Inertech ini 80% lebih efisien dibandingkan pendingin air konvensional.

Dimana Saja Green Data Center

Google

Kebanyakan data center membutuhkan chiller atau air conditioner untuk mendinginkan alat-alat di ruang data center. Biasanya chiller sendiri membutuhkan 70% pasokan listrik dari semua kebutuhan listrik pada data center tersebut. Oleh karena itu, untuk membangun green data center Google membangun data center hemat listrik yaitu tanpa menggunakan chiller di St. Ghislain, Belgia dan Hamina, Finlandia.
hamina water cooling systemsCooling system pada data center Google di Hamina memanfaatkan air laut. Alasan Google memilih Hamina sebagai lokasi data center selain dekat dengan pesisir laut baltik, memiliki suhu udara yang relatif dingin, low electricity prices, dan dapat memanfaatkan kembali bangunan pabrik kertas yang sudah tidak terpakai. Google sendiri tercatat sebagai pemilik data center paling efisien di dunia denganPower Usage Effectiveness (PUE) 1.06 untuk pendinginan. Hal ini menunjukkan hanya dibutuhkan sekitar 6% energi listrik untuk pendinginan dibandingkan listrik yang digunakan untuk server.
Google tercatat sebagai pemilik data center paling efisien di dunia dengan Power Usage Effectiveness (PUE) 1.06 untuk pendinginan
052313_1248_24.jpgCooling system data center Google di St Ghislain menggunakan evaporative cooling system yang menggunakangrey water dari dekat industrial canal Nimy-Blaton untuk menekan biaya kebutuhan energi agar tetap rendah. Alasan Google memilih St.Ghislan sebagai lokasi data center adalah St. Ghislain memiliki kombinasi infrastruktur energi dan developable land yang tepat. Pemimpin lokal di St Ghislain juga memiliki visi yang kuat untuk membuat internet dapat mengembangkan economic benefits dan lapangan pekerjaan. Selain itu, di tempat tersebut Google dapat memanfaatkan bangunan bekas industri tambang.

Apple

Sekarang Apple telah memiliki 4 lokasi data center, yaitu North Carolina, Oregon, California and Nevada. Apple mengklaim dirinya telah 100% menggunakan energi yang dapat diperbaharui untuk pasokan listrik ke semua data centernya dan juga untuk keperluan perkantoran Apple di Austin, Elk Grove, Cork, and Munich.
052313_1248_25.jpgNamun, proyek data center Apple yang memang dari awal direncanakan sebagai green data center adalah data center yang berada di Maiden, North Carolina. Di sebelah data centerini, Apple memiliki photovoltaic solar farm yang mampu memproduksi listrik sebanyak 20 MegaWatt. Karena listrik yang dihasilkan darisolar farm tersebut belum memadai dalam memasok listrik tiap hari ke data center dan back up, maka Apple menambahkan pemasangan 10 Megawatt fuel cell yang mampu mengubah gas alam menjadi energi listrik.
Data center di Maiden ini juga memiliki fasilitas penyimpanan cold water tank dari pengolahan udara dingin dari luar yang dapat mengurangi tugas chiller dalam mendinginkan data center pada saat puncak kebutuhan energi. Hal ini dapat menghemat energi dan Apple dapat memilikihigher power charger.

Facebook

Facebook sedang dalam proses membangun green data center di Swedia bagian utara untuk mendukung pertumbuhan pengguna Facebook. Data center yang baru ini berlokasi di Lulea. Lokasi tersebut sangat menguntungkan Facebook karena Lulea memiliki iklim dingin dan merupakan kota tepi laut yang kira-kira memiliki latitude yang sama dengan Fairbanks. Udara luar yang dingin tersebut dapat dimanfaatkan facebook untuk mendinginkan rak-rak server di dalam data center.
052313_1248_27.jpgSelain iklim dingin dengan rata-rata temperatur harian 5oC – (-2.5oC), pertimbangan lain yang membuat facebook memilih Lulea sebagai tempat data center adalah konektivitas internet yang kuat dan pasokan yang murah untuk menerapkanrenewable energy. Berdasarkan survei International Telecommunication Union (ITU), Swedia menempati peringkat kedua untuk infrastruktur telekomunikasi. Lulea memiliki konektivitas dari 5 carrier, yaitu backbone provider TeliaSonera and Tele 2, TDC, Telenor and Banverket. Selain itu, di dekat sungai Lule sendiri dapat menghasilkan 13.6 juta MegaWatt hours dari tenaga hydroelectric.
052313_1248_29.jpgData center facebook yang terletak di Prineville, Oregon juga telah dibangun tanpa menggunakan chiller namun diganti dengan sistem evaporating cooling, yang kemudian udara panas dari server digunakan untuk menghangatkan area kantor. Facebook dengan desain server open computed memiliki PUE 1.07 yang berarti hanya membutuhkan sekitar 7% dari total listrik server untuk mendinginkan server tersebut.

Kapan Kesadaran Muncul?

Teknologi hijau (green technology) telah menjadi isu utama untuk pemerintah dan industri karena aspek dari politik, ekonomi dan lingkungan dari energi. Dari perspektif energi dan lingkungan, industri Teknologi Informasi dan Komunikasi (TIK) menyumbangkan sebesar 2% dari total emisi gas CO2 dan 3% dari pengeluaran energi global. Data center adalah pusat energi utama TIK.
Kesadaran akan penggunaan green data center pada saat ini dikarenakan telah banyaknya penggunaan video in demand, dan layanan cloud computing yang telah digunakan di seluruh dunia. Penggunaan keduanya tersebut membuat sebuah data center harus menyediakan ketersediaan tinggi dan fault tolerant.
Menurut laporan dari ENERGY STAR, data center di Amerika Serikat mengkonsumsi 100 milyar kWh atau 7, 4 milyar dollar per-tahun. Sumber utama dari komsumsi besar pada data centerterdapat pada pedinginan, sumber daya komputer yang ada, dan elemen-elemen jaringan. Energi yang di konsumsi untuk pedinginan menggunakan hampir 30% dari total konsumsi energi dari pusat data. selain itu, hampir dari 30% lainnya digunakan oleh communication link,switching, dan elemen agregasi. Study empiris mengatakan bahwa konsumsi daya untuk linktidak berbanding lurus dengan pemanfaatannya. konsumsi energi link tergantung pada kapasitasnya daripada pemanfaatannya. komsumsi energi pada bervariasi untuk vendor yang berbeda, namun sebagian besar berkorelasi dengan jumlah port dan jumlah line cards. untuk itu, orang-orang dapat sadar akan pentingnya penggunaan green data center untuk memperhitungkan konsumsi daya pada link dan switch.052313_1248_31.jpg
Karena penggunaan energi yang besar itu, maka solusi terbaik untuk mengurangi penggunaan energi yang berlebih yaitu dengan menempatkan komputasi dan penyimpanan padacloud, dan dengan demikian sebagian besar lalu lintas internet terkonsentrasi pada data centerHardware dansoftware spesialis harus mempertimbangkan konsumsi energi dari data center pada saat melakukan perancangan data center baru. Kedua sumber daya komputasi dan elemen-elemen jaringan harus dirancang dengan prinsip proporsionalitas penggunaan energi tersebut. Proporsionalitas yang dimaksudkan disini adalah konsumsi energi sebanding dengan tingkat aktifitas, maka tidak akan mengkonsumsi pada saat idle. namun, pada prakteknya sulit sekali menemukan proporsionalitas energi yang ideal dalam sebuah desain data center.
konsolidasi dari beban kerja dan virtualisasi adalah poin penting lainnya untuk green data center. ini memungkinkan untuk virtualisasi dinamis dari VMs untuk minimum node fisik yang terdapat sesuai dengan kebutuhan sumber daya saat ini. Akibatnya, idle nodes dapat dimatikan untuk dimasukkan kedalam modus tidur untuk mengurangi konsumsi energi total oleh data center. Oleh karena itu, terlihat kesadaran dari penggunaan green data center itu dimulai dari kesadaran akan penghematan energi yang biasanya banyak membuang-buang energi ketika tidak digunakan.
Pada awal tahun 2007, perusahaan-perusahaan besar seperti AMD, Intel, IBM, Sun, dan Microsoft bergabung dan bekerjasama dalam membentuk sebuah non-profit consortium, The Green Grid, dengan tujuan untuk mengurangi kebutuhan energi listrik (power consumption) pada data center di seluruh dunia. Perwakilan (representative) yang lain mengadakan konferensi pertamanya di Denver, Colo untuk mendiskusikan mengenai standarisasi teknis mengenai green data center.
Pemrakarsa lain data center ramah lingkungan (eco-friendly data center) adalah U.S Green Building Council (USGBC), yang akan memberikan certification pada data center yang telah memenuhi green standard yang diajukan.

Bagaimana Mencapai Green?

Membuat datacenter yang ramah lingkungan dapat membawa beragam keuntungan untuk perusahaan serta dapat menjadikan perusahaan tersebut unggul dari segi trend an image ramah lingkungan. jika biaya untuk mengimplementasikan green data center terasa cukup mengganggu hal yang dapat dipertimbangkan adalah mungkin pada awalnya investasi cukup tinggi namun pada pengoprasionalisasianya konsumsi energi yang efisien dan ramah lingkungan dapat mengurangi biaya penggunaan energi dan pemeliharaan lingkungan dikarenakan operasional data center.
Berdasarkan Penelitian yang dilakukan di Lawrence Berkeley National Laboratory, pada tahun 2000 data center menggunakan 12 milyar killowatt  hours dan terus berkembang menjadi 23 milyar pada 2005. Sementara itu Andrew Fanara pimpinan dari EPA Energy Star product development team menyatakan bahwa pasar server di Amerika Serikat  tumbuh dari 2.8 juta unit pada tahun 2005 menjadi 4.9 juta unit pada 2009. dengan peningkatan jumlah server ini tentu saja diiringi dengan jumlah konsumsi energi yang sebanding. maka dari itu diperlukan efisiensi atau alternatif sumber energi yang terbarukan atau ramah lingkungan untuk memenuhi kebutuhan energi yang terus meningkat.
Berikut ini adalah beberapa cara untuk mengimplementasikan green data center:
  1. Mengevaluasi Efisiensi Energimenelusuri penggunaan energi di data center, pelajari darimana sumber energi serta pendistribusiannya di  perusahaan. buat perencanaan untuk memonitor dan mengurangi penggunaan penggunaan energi. Evaluasi awal dapat dijadikan acuan untuk menghitung return on investment setelah mengimplementasikan perubahan.
  2. Mendesain Ulang Sistem PendinginanDesain sistem pendinginan dengan memisahkan aliran panas dengan aliran dingin. konsentrasikan aliran dingin langsung ke rack server dan udara panas kembalikan ke AC. pastikan untuk mengurangi kehilangan aliran dan tekanan udara dengan menutup lubang-lubang udara yang tidak perlu pada tembok, raised floor dan langit-langit.
    052313_1248_32.jpg
  3. Mempertimbangkan RedundansiBanyak perusahaan yang menggunakan sistem pendinginan yang redundan pada waktu yang bersamaan. Hal tersebut membuat sistem lebih fleksibel dan siap dalam menghadapi ekspansi dan puncak penggunaan. Namun energi yang digunakan hanya sebagian dari energi yang dikonversi menjadi dingin. Hal ini mengakibatkan penggunaan energi yang dua kali lipat lebih banyak dibandingkan yang dibutuhkan. kurangi redundansi sebisa mungkin, gunakan skema backup atau penggiliran sistem pendingin di data center.
  4. Menggunakan Peralatan Yang Dapat DisesuaikanEkspansi dan penggunaan energi pada beban puncak dapat direncanakan dengan membuat sistem yang modular. Penggunaan blade server yang dapat mengonsentrasikan komputasi pada ruang yang lebih sedikit sehingga dapat mengurangi kebutuhan akan pendinginan. Sistem yang scalable juga memungkinkan untuk pengoperasian pada kebutuhan energi yang minimal dan memberikan kapabilitas untuk ekspansi ketika dibutuhkan.
  5.  Virtualisasi Perangkat052313_1248_33.gifKebanyakan server tidak bekerja secara optimal karena dipenuhi oleh informasi-informasi kuno atau software yang hanya digunakan pada waktu tertentu. Server-server yang sudah berumur pun cenderung boros energi dibandingkan dengan performa yang diberikan. untuk melakukan penghematan, server-server lama tersebut divirtualisasikan kedalam server baru sehingga terjadi penghematan energi. dengan melakukan virtualisasi pada server aplikasi dapat dibuat lebih fleksibel serta server virtual yang sedang tidak diperlukan dapat dimatikan. virtualisasi perangkat dapat menjaga jumlah dan tempat server serta memindahkan aplikasi ke lokasi fisikal yang berbeda sebagaimana dibutuhkan untuk mencapai efisiensi yang optimal.
  6.  Menggunakan Peralatan Yang Telah TersertifikasiPemilihan alat-alat yang sudah tersertifikasi ramah lingkungan oleh lembaga independen dapat menjamin perangkat yang digunakan sudah memenuhi standar ramah lingkungan. dengan adanya sertifikasi tersebut maka tidak diperlukan benchmarking terhadap peralata-peralatan mana yang termasuk kategori ramah lingkungan. hal ini sudah dilakukan oleh lembaga tersebut sehingga memiliki standar yang sama satu sama lain apabila menggunakan lembaga sertifikasi yang sama.
  7. Menyumbangkan Atau Melakukan Daur Ulang Pada Server Yang Sudah UsangSistem lama atau sistem kuno biasanya kurang efisien dibandingkan sistem yang baru. Oleh karena itu, untuk menghemat uang dapat dilakukan pembelian sistem yang baru dan menon-aktifkan sistem yang lama. Namun, karena server mengandung limbah beracun (toxic) dalam jumlah besar, server lama tersebut dapat dijual kembali untuk digunakan oleh organisasi non-profit atau organisasi pendidikan. Server lama juga dapat di jual ke vendor yang melakukan recycling atau daur ulang dengan memisahkan bagian yang masih berguna dan membuang sisa toxic dengan benar.
  8. Perhatikan Lingkungan Sekitar Data CenterGreen data center tidak hanya berfokus pada perangkat didalam ruang server. Pemilihan dan penggunaan material ramah lingkungan untuk gedung data center juga merupakan salah satu pendekatan dalam membangun green data center. mengatur tata letak desain interior dan eksterior juga dapat membantu mengurangi energi yang diperlukan untuk pendinginan dan pencahayaan.
  9. Riset mengenai Sumber Energi AlternatifCara terbaik untuk tetap ramah lingkungan adalah dengan mendapatkan energi alternatif yang sesuai dengan keadaan sekitar data center. Salah satu energi alternatif yang sering digunakan adalah Photovoltaic, yaitu dengan cara mengganti atap dengan solar panel. Hal tersebut dapat mengurangi ketergantungan terhadap power grid. Cara lain adalah dengan memanfaatkan energi angin, menggunakan heat pumps, dan menerapkan evaporating cooling. Cara-cara tersebut akan sangat bermanfaat karena dapat mengurangi biaya pengeluaran akan konsumsi energi.
  10. Melibatkan Pihak ManajemenSebagai pengambil keputusan serta pihak yang lebih mengerti mengenai bisnis serta keadaan perusahaan pihak manajemen harus turut disertakan dalam perencanaan pembangunan green data center. hal tersebut dilakukan agar proses pengambilan keputusan serta perancangan strategi pembangunan data center dapat berjalan secara lebih profesional serta ditaati oleh pihak operasional karena merupakan keputusan bersama yang harus dihormati.

Thursday, November 13, 2014

Pertimbangkan ekspansi data center Anda.

Pertimbangkan ekspansi data center Anda.


Capacity planning needs to provide answers to two questions: What are you going to need to buy in the coming year? And when are you going to need to buy it?
To answer those questions, you need to know the following information:
  • Current usage: Which components can influence service capacity? How much of each do you use at the moment
  • Normal growth: What is the expected growth rate of the service, without the influence of any specific business or marketing events? Sometimes this is called organic growth.
  • Planned growth: Which business or marketing events are planned, when will they occur, and what is the anticipated growth due to each of these events?
  • Headroom: Which kind of short-term usage spikes does your service encounter? Are there any particular events in the coming year, such as the Olympics or an election, that are expected to cause a usage spike? How much spare capacity do you need to handle these spikes gracefully? Headroom is usually specified as a percentage of current capacity.
  • Timetable: For each component, what is the lead time from ordering to delivery, and from delivery until it is in service? Are there specific constraints for bringing new capacity into service, such as change windows?
From that information, you can calculate the amount of capacity you expect to need for each resource by the end of the following year with a simple formula:
Future Resources = Current Usage x (1 + Normal Growth + Planned Growth) + Headroom
You can then calculate for each resource the additional capacity that you need to purchase:
Additional Resources = Future Resources ñ Current Resources
Perform this calculation for each resource, whether or not you think you will need more capacity. It is okay to reach the conclusion that you don't need any more network bandwidth in the coming year. It is not okay to be taken by surprise and run out of network bandwidth because you didn't consider it in your capacity planning. For shared resources, the data from many teams will need to be combined to determine whether more capacity is needed.

Current usage

Before you can consider buying additional equipment, you need to understand what you currently have available and how much of it you are using. Before you can assess what you have, you need a complete list of all the things that are required to provide the service. If you forget something, it won't be included in your capacity planning, and you may run out of that one thing later, and as a result be unable to grow the service as quickly as you need.

What to track

If you are providing Internet based services, the two most obvious things needed are some machines to provide the service and a connection to the Internet. Some machines may be generic machines that are later customized to perform given tasks, whereas others may be specialized appliances.
Going deeper into these items, machines have CPUs, caches, RAM, storage and network. Connecting to the Internet requires a local network, routers, switches and a connection to at least one ISP. Going deeper still, network cards, routers, switches, cables and storage devices all have bandwidth limitations. Some appliances may have higher-end network cards that need special cabling and interfaces on the network gear. All networked devices need IP addresses. These are all resources that need to be tracked.
Taking one step back, all devices run some sort of operating system, and some run additional software. The operating systems and software may require licenses and maintenance contracts. Data and configuration information on the devices may need backing up to yet more systems. Stepping even farther back, machines need to be installed in a data center that meets their power and environment needs. The number and type of racks in the datacenter, the power and cooling capacity and the available floor space all need to be tracked. Data centers may provide additional per-machine services, such as console service. For companies that have multiple datacenters and points of presence, there may be links between those sites that also have capacity limits. These are all additional resources to track.
Outside vendors may provide some services. The contracts covering those services specify cost or capacity limits. To make sure that you have covered every possible aspect, talk to people in every department, and find out what they do and how it relates to the service. For everything that relates to the services, you need to understand what the limits are, how you can track them and how you can measure how much of the available capacity is used.

How much do you have

There is no substitute for a good up-to-date inventory database for keeping track of your assets. The inventory database should be kept up to date by making it a core component in the ordering, provisioning and decommissioning processes. An up-to-date inventory system gives you the data you need to find out how much of each resource you have. It should also be used to track the software license and maintenance contract inventory, and the contracted amount of resources that are available from third parties.
Using a limited number of standard machine configurations and having a set of standard appliances, storage systems, routers and switches makes it easier to map the number of devices to the lower-level resources, such as CPU and RAM, that they provide. Next: How much are you using now?

How much are you using now

Identify the limiting resources for each service. Your monitoring system is likely already collecting resource use data for CPU, RAM, storage and bandwidth. Typically it collects this data at a higher frequency than required for capacity planning. A summarization or statistical sample may be sufficient for planning purposes and will generally simplify calculations. Combining this data with the data from the inventory system will show how much spare capacity you currently have.
Tracking everything in the inventory database and using a limited set of standard hardware configurations also makes it easy to specify how much space, power, cooling and other data center resources are used per device. With all of that data entered into the inventory system, you can automatically generate the data-center utilization rate.

Normal growth

The monitoring system directly provides data on current usage and current capacity. It can also supply the normal growth rate for the preceding years. Look for any noticeable step changes in usage, and see if these correspond to a particular event, such as the roll-out of a new product or a special marketing drive. If the offset due to that event persists for the rest of the year, calculate the change and subtract it from subsequent data to avoid including this event-driven change in the normal growth calculation. Plot the data from as many years as possible on a graph, to determine if the normal growth rate is linear or follows some other trend.

Planned growth

The second step is estimating additional growth due to marketing and business events, such as new product launches or new features. For example, the marketing department may be planning a major campaign in May that it predicts will increase the customer base by 20 to 25 percent. Or perhaps a new product is scheduled to launch in August that relies on three existing services and is expected to increase the load on each of those by 10 percent at launch, increasing to 30 percent by the end of the year. Use the data from any changes detected in the first step to validate the assumptions about expected growth.

Headroom

Headroom is the amount of excess capacity that is considered routine. Any service will have usage spikes or edge conditions that require extended resource usage occasionally. To prevent these edge conditions from triggering outages, spare resources must be routinely available. How much headroom is needed for any given service is a business decision. Since excess capacity is largely unused capacity, by its very nature it represents potentially wasted investment. Thus a financially responsible company wants to balance the potential for service interruption with the desire to conserve financial resources.
Your monitoring data should be picking up these resource spikes and providing hard statistical data on when, where and how often they occur. Data on outages and postmortem reports are also key in determining reasonable headroom.
Another component in determining how much headroom is needed is the amount of time it takes to have additional resources deployed into production from the moment that someone realizes that additional resources are required. If it takes three months to make new resources available, then you need to have more headroom available than if it takes two weeks or one month. At a minimum, you need sufficient headroom to allow for the expected growth during that time period.

Resiliency

Reliable services also need additional capacity to meet their SLAs. The additional capacity allows for some components to fail, without the end users experiencing an outage or service degradation. The additional capacity needs to be in a different failure domain; otherwise, a single outage could take down both the primary machines and the spare capacity that should be available to take over the load.
Failure domains also should be considered at a large scale, typically at the data-center level. For example, facility-wide maintenance work on the power systems requires the entire building to be shut down. If an entire datacenter is offine, the service must be able to smoothly run from the other data centers with no capacity problems. Spreading the service capacity across many failure domains reduces the additional capacity required for handling the resiliency requirements, which is the most cost-effective way to provide this extra capacity. For example, if a service runs in one data center, a second data center is required to provide the additional capacity, about 50 percent. If a service runs in nine data centers, a tenth is required to provide the additional capacity; this configuration requires only 10 percent additional capacity.
The gold standard is to provide enough capacity for two data centers to be down at the same time. This permits one to be down for planned maintenance while the organization remains prepared for another data center going down unexpectedly.

Timetable

Most companies plan their budgets annually, with expenditures split into quarters. Based on your expected normal growth and planned growth bursts, you can map out when you need the resources to be available. Working backward from that date, you need to figure out how long it takes from "go" until the resources are available.
How long does it take for purchase orders to be approved and sent to the vendor? How long does it take from receipt of a purchase order until the vendor has delivered the goods? How long does it take from delivery until the resources are available? Are there specific tests that need to be performed before the equipment can be installed? Are there specific change windows that you need to aim for to turn on the extra capacity? Once the additional capacity is turned on, how long does it take to reconfigure the services to make use of it? Using this information, you can provide an expenditures timetable.
Physical services generally have a longer lead time than virtual services. Part of the popularity of IaaS and PaaS offerings such as Amazonís EC2 and Elastic Storage are that newly requested resources have virtually instant delivery time.
It is always cost-effective to reduce resource delivery time because it means we are paying for less excess capacity to cover resource delivery time. This is a place where automation that prepares newly acquired resources for use has immediate value.

Advanced capacity planning

Large, high-growth environments such as popular Internet services require a different approach to capacity planning. Standard enterprise-style capacity planning techniques are often insufficient. The customer base may change rapidly in ways that are hard to predict, requiring deeper and more frequent statistical analysis of the service monitoring data to detect significant changes in usage trends more quickly. This kind of capacity planning requires deeper technical knowledge. Capacity planners will need to be familiar with concepts such as QPS, active users, engagement, primary resources, capacity limit and core drivers.
This excerpt is from the book The Practice of Cloud System Administration: Designing and Operating Large Distributed Systems Vol 2 by Thomas A. Limoncelli, Strata R. Chalup and Christina J. Hogan, published by Pearson/Addison-Wesley Professional. Reprinted with permission of the authors and publisher.