Selasa, 24 November 2009

KLUSTER KOMPUTER ?

Kluster, dalam ilmu komputer dan jaringan komputer adalah sekumpulan komputer (umumnya server jaringan)independen yang beroperasi dan terlihat oleh klien jaringan seolah-olah komputer-komputer tersebut adalah satu buah unit komputer. Proses menghubungkan beberapa komputer agar dapat bekerja seperti itu dinamakan dengan Clustering. Cluster didesain agar meningkatkan kemampuan sebuah server, yakni dengan meningkatkan hal-hal berikut:



1. Toleransi kesalahan (fault tolerance), yang dapat menyebabkan server lainnya akan mengambil alih kerja serverutama ketika server utama mengalami kegagalan. Client tidak akan melihat pergantian peran ini. Dengan begitu, downtime pun dapat dikurangi secara drastis.
2. Penyerataan beban (load-balancing), yang dapat mendistribusikan beban server ke semua server anggota cluster. Dengan begitu, kinerja dan skalabilitas server pun menjadi relatif lebih baik.
Beberapa sistem yang mendukung cluster antara lain:
1. Windows NT Server, Enterprise Edition, dengan sebuah layanan yang disebut Microsoft Cluster Service (MSCS)
2. Windows 2000 Advanced Server, dengan sebuah layanan yang disebut dengan Microsoft Clustering Service
3. Windows 2000 Datacenter Server
4. Windows Server 2003 Enterprise Edition (x86/IA-64/x64), dengan sebuah layanan yang disebut sebagai Microsoft Clustering Service
5. Windows Server 2003 Datacenter Edition (x86/IA-64/x64)
6. Solaris UNIX
7. GNU/Linux
Karena menggunakan lebih dari satu buah server, maka manajemen dan perawatan sebuah cluster jauh lebih rumit dibandingkan dengan manajemen server tunggal yang memiliki skalabilitas tinggi (semacam IBM AS/400), meski lebih murah.

KOMPUTASI GRID BERADA DALAM KOMPUTASI KLUSTER
CLUSTERING COMPUTER
Seringnya, penggunaan utama kluster komputer adalah untuk tujuan komputasi, ketimbang penanganan operasi yang berorientasi I/O seperti layanan Web atau basis data. Sebagai contoh, sebuah kluster mungkin mendukung simulasi komputasional untuk perubahan cuaca atau tabrakan kendaraan. Perbedaan utama untuk kategori ini dengan kategori lainnya adalah seberapa eratkah penggabungan antar node-nya. Sebagai contoh, sebuah tugas komputasi mungkin membutuhkan komunikasi yang sering antar node--ini berarti bahwa kluster tersebut menggunakan sebuah jaringan terdedikasi yang sama, yang terletak di lokasi yang sangat berdekatan, dan mungkin juga merupakan node-node yang
bersifat homogen. Desain kluster seperti ini, umumnya disebut juga sebagai Beowulf Cluster. Ada juga desain yang lain, yakni saat sebuah tugas komputasi hanya menggunakan satu atau beberapa node saja, dan membutuhkan komunikasi antar-node yang sangat sedikit atau tidak ada sama sekali. Desain kluster ini, sering disebut sebagai "Grid".
Beberapa compute cluster yang dihubungkan secara erat yang didesain sedemikian rupa, umumnya disebut dengan "Supercomputing". Beberapa perangkat lunak Middleware seperti MPI atau Parallel Virtual Machine (PVM) mengizinkan program compute clustering agar dapat dijalankan di dalam kluster-kluster tersebut.

GRID COMPUTING
Grid pada umumnya adalah compute cluster, tapi difokuskan pada throughput seperti utilitas perhitungan ketimbang menjalankan pekerjaan-pekerjaan yang sangat erat yang biasanya dilakukan oleh supercomputer. Seringnya, grid memasukkan sekumpulan komputer, yang bisa saja didistribusikan secara geografis, dan kadang diurus oleh organisasi yang tidak saling berkaitan.
Grid computing dioptimalkan untuk beban pekerjaan yang mencakup banyak pekerjaan independen atau paket-paket pekerjaan, yang tidak harus berbagi data yang sama antar pekerjaan selama proses komputasi dilakukan. Grid bertindak untuk mengatur alokasi pekerjaan kepada komputer-komputer yang akan melakukan tugas tersebut secara independen. Sumber daya, seperti halnya media penyimpanan, mungkin bisa saja digunakan bersama-sama dengan komputer lainnya, tapi hasil sementara dari sebuah tugas tertentu tidak akan mempengaruhi pekerjaan lainnya yang
sedang berlangsung dalam komputer lainnya.
Sebagai contoh grid yang sangat luas digunakan adalah proyek Folding@home, yang berfungsi menganalisis data yang akan digunakan oleh para peneliti untuk menemukan obat untuk beberapa penyakit seperti Alzheimer dan juga kanker. Proyek lainnya, adalah SETI@home, yang merupakan proyek grid terdistribusi yang paling besar hingga saat ini.
Proyek SETI@home ini menggunakan paling tidak 3 juta komputer rumahan yang berada di dalam computer rumahan untuk menganalisis data dari teleskop radio observatorium Arecibo (Arecibo Observatory radiotelescope), mencari bukti-bukti keberadaan makhluk luar angkasa. Dalam dua kasus tersebut, tidak ada komunikasi antar node atau media penyimpanan yang digunakan bersama-sama.

SPESIFIKASI
Pertama, computer yang kita pakai harus memiliki koneksi permanen ke internet berpita lebar. Kedua kita harus memiliki komputer paralel yang siap menyala selama 24 jam dengan stabil dan tanpa gangguan. Terlebih untuk proyek semacam Grid yang mencakup pertukaran data lintas benua dalam jumlah yang sangat besar, koneksi yang stabil dan pita lebar (untuk Grid lebih kurang 10 Gbps) sangat mutlak.

IMPLEMENTASI
Sebagai contoh, seperti di Public Cluster LIPI (http://www.cluster.lipi.go.id), dari komputer paralel dengan 5 node masing-masing berbasis Pentium IV 2,4 GHz dan memori 1 Gb bisa diperoleh kemampuan sebesar 5 GFlops membentuk sebuah kluster.(di Indonesia)
Contoh paling terkenal adalah mesin pencari Google yang memanfaatkan lebih kurang 10.000 PC yang terangkai menjadi satu sistem dengan kemampuan komputasi yang canggih.
Komunitas di SETI@home (http://setiathome.ssl.berkeley.edu) pencari data untuk teleskop radio untuk melihat sinyal intelektual terestrial (sinyal dari mahkluk angkasa bila ada). Proyek yang dimulai tahun 1999 ini telah menghubungkan satu juta-an PC pribadi di seluruh dunia dan memiliki komunitas yang luar biasa di banyak negara. Satu juta PC yang terkoneksi di SETI@home ini memiliki kemampuan setara 60 TFlops ! Untuk komunitas fisika energi tinggi, khususnya eksperimen, bahkan telah mengembangkan gabungan kedua sistem. Yaitu menghubungkan komputer paralel di pusat-pusat penelitian dengan koneksi internet berpita lebar. Proyek ini dikenal sebagai Grid (http://www.grid.org). Ini bahkan telah menjadi proyek utama yang tidak terelakkan dalam melakukan analisa data eksperimen di akselerator-akselerator utama dunia. Dalam proyek ini tidak hanya kemampuan komputasi saja, melainkan juga potensi media penyimpanan yang besar menjadi tujuan utamanya. Dengan sistem ini dimungkinkan analisa data eksperimen secara real-time, sehingga bisa dilakukan penghematan kapasitas penyimpanan karena hanya data yang relevan saja yang disimpan secara permanen. Berbeda dengan sebelumnya dimana data eksperimen dianalisa secara off-line, sehingga diperlukan kapasitas penyimpanan yang sangat besar. Sistem ini akan dipakai pertama-kalinya untuk eksperimen di LHC (Large Hadron Collider) di CERN yang akan mulai berjalan pada tahun 2007.

Oleh : Ahmad Baharuddin
: Alumni tahun 2009
: Sekarang di PENS-ITS, Jurusan Informatika Prodi Teknik Komputer

Tidak ada komentar:

Posting Komentar