Cluster, dalam ilmu komputer dan jaringan komputer adalah sekumpulan komputer (umumnya server jaringan) independen yang beroperasi serta bekerja secara erat dan terlihat oleh klien jaringan seolah-olah komputer-komputer tersebut adalah satu buah unit komputer. Proses menghubungkan beberapa komputer agar dapat bekerja seperti itu dinamakan denganClustering. Komponen cluster biasanya saling terhubung dengan cepat melalui sebuah interkoneksi yang sangat cepat, atau bisa juga melalui jaringan lokal (LAN).
Karena menggunakan lebih dari satu buah server, maka manajemen dan perawatan sebuah cluster jauh lebih rumit dibandingkan dengan manajemen server mainframe tunggal yang memiliki skalabilitas tinggi (semacam IBM AS/400), meski lebih murah.
KATEGORI KLUSTER KOMPUTER
Kluster komputer terbagi ke dalam beberapa kategori, sebagai berikut:
- Kluster untuk ketersediaan yang tinggi (High-availability clusters)
- Kluster untuk pemerataan beban komputasi (Load-balancing clusters)
- Kluster hanya untuk komputasi (Compute clusters)
- Grid computing
High-availability cluster
High-availability cluster, yang juga sering disebut sebagai Failover Cluster pada umumnya diimplementasikan untuk tujuan meningkatkan ketersediaan layanan yang disediakan oleh kluster tersebut. Elemen kluster akan bekerja dengan memiliki node-node redundan, yang kemudian digunakan untuk menyediakan layanan saat salah satu elemen kluster mengalami kegagalan. Ukuran yang paling umum dari kategori ini adalah dua node, yang merupakan syarat minimum untuk melakukan redundansi. Implementasi kluster jenis ini akan mencoba untuk menggunakan redundansi komponen kluster untuk menghilangkan kegagalan di satu titik (Single Point of Failure).
Ada beberapa implementasi komersial dari sistem kluster kategori ini, dalam beberapa sistem operasi. Meski demikian, proyek Linux-HA adalah salah satu paket yang paling umum digunakan untuk sistem operasi GNU/Linux.
Dalam keluarga sistem operasi Microsoft Windows NT, sebuah layanan yang disebut dengan Microsoft Cluster Service (MSCS) dapat digunakan untuk menyediakan kluster kategori ini. MSCS ini diperbarui lagi dan telah diintegrasikan dalam Windows 2000 Advanced Server dan Windows 2000 Datacenter Server, dengan nama Microsoft Clustering Service. Dalam Windows Server 2003, Microsoft Clustering Service ini ditingkatkan lagi kinerjanya
Load balancing cluster
Kluster kategori ini beroperasi dengan mendistribusikan beban pekerjaan secara merata melalui beberapa node yang bekerja di belakang (back-end node). Umumnya kluster ini akan dikonfigurasikan sedmikian rupa dengan beberapa front-end load-balancing redundan. Karena setiap elemen dalam sebuah kluster load-balancing menawarkan layanan penuh, maka dapat dikatakan bahwa komponen kluster tersebut merupakan sebuah kluster aktif/kluster HA aktif, yang bisa menerima semua permintaan yang diajukan oleh klien.
Compute Cluster
Seringnya, penggunaan utama kluster komputer adalah untuk tujuan komputasi, ketimbang penanganan operasi yang berorientasi I/O seperti layanan Web atau basis data. Sebagai contoh, sebuah kluster mungkin mendukung simulasi komputasional untuk perubahan cuaca atau tabrakan kendaraan. Perbedaan utama untuk kategori ini dengan kategori lainnya adalah seberapa eratkah penggabungan antar node-nya. Sebagai contoh, sebuah tugas komputasi mungkin membutuhkan komunikasi yang sering antar node--ini berarti bahwa kluster tersebut menggunakan sebuah jaringan terdedikasi yang sama, yang terletak di lokasi yang sangat berdekatan, dan mungkin juga merupakan node-node yang bersifat homogen. Desain kluster seperti ini, umumnya disebut juga sebagai Beowulf Cluster. Ada juga desain yang lain, yakni saat sebuah tugas komputasi hanya menggunakan satu atau beberapa node saja, dan membutuhkan komunikasi antar-node yang sangat sedikit atau tidak ada sama sekali. Desain kluster ini, sering disebut sebagai "Grid". Beberapa compute cluster yang dihubungkan secara erat yang didesain sedemikian rupa, umumnya disebut dengan "Supercomputing". Beberapa perangkat lunak Middleware seperti MPI atau Parallel Virtual Machine (PVM) mengizinkan program compute clustering agar dapat dijalankan di dalam kluster-kluster tersebut.
Grid computing
Grid pada umumnya adalah compute cluster, tapi difokuskan pada throughput seperti utilitas perhitungan ketimbang menjalankan pekerjaan-pekerjaan yang sangat erat yang biasanya dilakukan oleh Supercomputer. Seringnya, grid memasukkan sekumpulan komputer, yang bisa saja didistribusikan secara geografis, dan kadang diurus oleh organisasi yang tidak saling berkaitan.
Grid computing dioptimalkan untuk beban pekerjaan yang mencakup banyak pekerjaan independen atau paket-paket pekerjaan, yang tidak harus berbagi data yang sama antar pekerjaan selama proses komputasi dilakukan. Grid bertindak untuk mengatur alokasi pekerjaan kepada komputer-komputer yang akan melakukan tugas tersebut secara independen. Sumber daya, seperti halnya media penyimpanan, mungkin bisa saja digunakan bersama-sama dengan komputer lainnya, tapi hasil sementara dari sebuah tugas tertentu tidak akan memengaruhi pekerjaan lainnya yang sedang berlangsung dalam komputer lainnya.
Sebagai contoh grid yang sangat luas digunakan adalah proyek Folding@home, yang menganalisis data yang akan digunakan oleh para peneliti untuk menemukan obat untuk beberapa penyakit seperti Alzheimer dan juga kanker. Proyek lainnya, adalah SETI@home, yang merupakan proyek grid terdistribusi yang paling besar hingga saat ini. Proyek SETI@home ini menggunakan paling tidak 3 juta komputer rumahan yang berada di dalam komputer rumahan untuk menganalisis data dari teleskop radio observatorium Arecibo (Arecibo Observatory radiotelescope), mencari bukti-bukti keberadaan makhluk luar angkasa. Dalam dua kasus tersebut, tidak ada komunikasi antar node atau media penyimpanan yang digunakan bersama-sama.
Implementasi
Daftar semi-tahunan organisasi TOP500, yang mencantumkan 500 komputer tercepat di dunia umumnya mencakup banyak kluster. TOP500 adalah sebuah kolaborasi antara Universitas Mannheim, Universitas Tennessee, dan National Energy Research Scientific Computing Center di Lawrence Berkeley National Laboratory. Hingga 18 Juni 2008, superkomputer tercepat yang tercatat di dalam TOP500 adalah sistem Roadrunner yang dimiliki oleh Department of Energy Amerika Serikat, yang kinerjanya mencapai 1026 TeraFlops (Triliun Floating PointOperation per Second) dalam benchmark High-Performance LINPACK.
Clustering dapat memberikan manfaat kinerja yang signifikan dibandingkan harga. Para Sistem X superkomputer di Virginia Tech , superkomputer paling kuat di bumi sebagai 28 Juni 2006 [2] , adalah 12,25 TFLOPS komputer cluster 1100 Apple Xserve G5 2.3 GHz dual-prosesor mesin (4 GB RAM , 80 GB SATA HD ) menjalankan Mac OS X dan menggunakanInfiniBand interkoneksi. Cluster ini awalnya terdiri dari Tenaga G5s Mac , rack-mountable Xserves lebih padat dari desktop Mac, mengurangi ukuran agregat dari cluster. Total biaya sistem Power Mac sebelumnya adalah $ 5,2 juta, sepersepuluh dari biaya lambat mainframe komputer superkomputer. (The Power Mac G5s yang dijual.)
Konsep sentral dari Beowulf cluster adalah penggunaan off-rak-komersial komputer (Cots) untuk menghasilkan alternatif biaya-efektif untuk superkomputer tradisional. Salah satu proyek yang membawa ini ke ekstrem adalah Soupercomputer Batu .
Namun perlu dicatat bahwa Flops (operasi floating point per detik), tidak selalu yang terbaik metrik untuk kecepatan superkomputer. Cluster dapat memiliki sangat tinggi Flops, tetapi mereka tidak dapat mengakses semua data dalam cluster secara keseluruhan sekaligus. Oleh karena itu kelompok yang sangat baik untuk komputasi paralel, tetapi jauh lebih buruk dibandingkan superkomputer tradisional di non-paralel komputasi.
JavaSpaces adalah spesifikasi dari Sun Microsystems yang memungkinkan pengelompokan komputer melalui memori bersama didistribusikan .
konsol permainan Konsumen
Karena daya komputasi meningkat masing-masing generasi konsol game , penggunaan baru telah muncul di mana mereka repurposed ke tinggi kinerja komputasi cluster (HPC).Beberapa contoh cluster konsol permainan Sony PlayStation cluster dan Microsoft Xbox cluster . Telah disarankan pada situs berita bahwa negara-negara yang dibatasi dari membeli teknologi superkomputer mungkin mendapatkan sistem permainan untuk membangun cluster komputer untuk penggunaan militer. [3]
Sejarah
Sejarah komputasi cluster yang terbaik ditangkap oleh catatan kaki dalam Greg Pfister In Search of Cluster: "Hampir setiap rilis pers dari cluster Desember menyebutkan kata 'Desember, yang menemukan cluster ...'. IBM tidak menemukan mereka baik Pelanggan ditemukan cluster,. Begitu mereka tidak bisa cocok untuk semua pekerjaan mereka pada satu komputer, atau perlu cadangan. Tanggal pertama adalah tidak diketahui, tetapi akan mengherankan jika tidak pada 1960-an, atau bahkan tahun 1950-an ". [4]
Dasar teknik formal komputasi cluster sebagai sarana melakukan pekerjaan paralel apapun itu bisa dibilang diciptakan oleh Gene Amdahl dari IBM , yang diterbitkan pada tahun 1967 telah datang untuk apa yang dianggap sebagai kertas mani pada pemrosesan paralel: Hukum Amdahl . Hukum Amdahl menggambarkan matematis speedup seseorang dapat mengharapkan dari parallelizing setiap tugas lain yang diberikan serial dilakukan pada arsitektur paralel. Artikel ini didefinisikan dasar rekayasa untuk kedua komputasi dan komputasi cluster multiprosesor, dimana pembeda utama adalah apakah atau tidak komunikasi interprocessor didukung "dalam" komputer (pada misalnya bus internal yang disesuaikan komunikasi atau jaringan) atau "di luar" komputer pada jaringan komoditas.
Akibatnya sejarah cluster komputer awal lebih atau kurang langsung terkait ke dalam sejarah jaringan awal, sebagai salah satu motivasi utama untuk pengembangan jaringan adalah menghubungkan sumber daya komputasi, menciptakan sebuah cluster komputer secara de facto. Packet switching jaringan ada konsepnya ditemukan oleh RAND korporasi pada tahun 1962. Menggunakan konsep dari sebuah paket switched jaringan, ARPANET proyek berhasil menciptakan pada tahun 1969 apa yang bisa dibilang pertama di dunia komoditas-jaringan komputer cluster yang berbasis dengan menghubungkan empat pusat komputer yang berbeda (masing-masing adalah sesuatu dari sebuah "cluster" dalam dirinya sendiri , tapi mungkin tidak cluster komoditas). Proyek ARPANET tumbuh menjadi Internet -yang dapat dianggap sebagai "ibu dari semua cluster komputer" (sebagai kesatuan dari hampir semua sumber daya komputasi, termasuk cluster, yang terjadi dihubungkan). Hal ini juga didirikan paradigma dalam cluster digunakan oleh semua komputer di dunia saat ini-penggunaan paket-switched jaringan untuk melakukan komunikasi antara prosesor interprocessor (set) yang terletak dalam bingkai sebaliknya terputus.
Perkembangan pelanggan dibangun dan kelompok penelitian berjalan bergandengan tangan dengan yang kedua jaringan dan Unix sistem operasi dari awal 1970-an, baik sebagai TCP / IP dan Xerox PARC proyek yang dibuat dan diresmikan protokol untuk komunikasi berbasis jaringan. Para sistem operasi Hydra dibangun untuk sekelompok Desember PDP-11minicomputer disebut C.mmp di Carnegie Mellon University pada tahun 1971. Namun, tidak sampai sekitar tahun 1983 bahwa protokol dan alat untuk dengan mudah melakukan pembagian kerja jarak jauh dan berbagi file yang didefinisikan (sebagian besar dalam konteks BSD Unix, sebagai diimplementasikan oleh Sun Microsystems ) dan karenanya menjadi umumnya tersedia secara komersial, bersama dengan bersama filesystem.
Pengelompokan produk komersial pertama ARCnet , dikembangkan oleh Datapoint pada tahun 1977. ARCnet itu tidak sukses secara komersial dan clustering per se tidak benar-benar lepas landas sampai Digital Equipment Corporation merilis VAXcluster produk pada tahun 1984 untuk VAX / VMS sistem operasi. Produk ARCnet dan VAXcluster tidak hanya didukung komputasi paralel, tetapi juga berbagi file sistem dan perangkat perangkat. Idenya adalah untuk menyediakan keuntungan dari pemrosesan paralel, sambil mempertahankan keandalan data dan keunikan. VAXcluster, sekarang VMScluster, masih tersedia pada OpenVMS sistem dari HP yang berjalan pada sistem Alpha dan Itanium.
Dua lainnya yang patut dicatat cluster komersial awal adalah Himalaya Tandem (sebuah sekitar 1994 ketersediaan tinggi produk) dan IBM S/390 Paralel Sysplex (juga sekitar 1994, terutama untuk penggunaan bisnis).
Tidak ada riwayat dari cluster komputer komoditas akan lengkap tanpa mencatat peran penting yang dimainkan oleh perkembangan Paralel Virtual Machine perangkat lunak (PVM) pada tahun 1989. Ini perangkat lunak open source berbasis pada TCP / IP komunikasi memungkinkan penciptaan instan dari sebuah superkomputer-kinerja tinggi cluster komputasi virtual yang terbuat dari TCP / IP sistem terhubung. Bentuk bebas cluster heterogen dibangun di atas model ini cepat dicapai total throughput di FLOPS yang sangat melebihi yang tersedia bahkan dengan yang paling mahal " besi besar superkomputer ". PVM dan munculnya jaringan PC murah memimpin, pada tahun 1993, untuk NASA proyek untuk membangun superkomputer keluar dari cluster komoditas. Pada tahun 1995 Beowulf klaster -cluster yang dibangun di atas jaringan komoditas untuk tujuan tertentu "menjadi superkomputer" mampu melakukan erat paralel HPC perhitungan-diciptakan, [5] yang memacu pengembangan independen dari komputasi grid sebagai bernama entitas, meskipun Grid-gaya pengelompokan sudah sekitar setidaknya selama Unix sistem operasi dan Arpanet, apakah atau tidak, atau kelompok yang menggunakannya, diberi nama.
Teknologi
MPI adalah komunikasi yang tersedia secara luas perpustakaan yang memungkinkan program paralel yang akan ditulis dalam C , Fortran , Python , OCaml , dan banyak bahasa pemrograman lain.
Dunia GNU / Linux mendukung berbagai perangkat lunak cluster; untuk clustering aplikasi, ada Beowulf , distcc , dan MPICH . Linux Virtual Server , Linux-HA - sutradara berbasis cluster yang memungkinkan permintaan yang masuk atas jasa yang akan didistribusikan di beberapa node cluster. MOSIX , openMosix , Kerrighed , OpenSSI yang full-blown cluster terintegrasi ke dalam kernel yang menyediakan untuk migrasi proses otomatis antara node homogen. OpenSSI, openMosix dan Kerrighed yang tunggal sistem gambar implementasi.
Microsoft Windows Compute Cluster Server 2003 didasarkan pada Windows Server platform yang menyediakan potongan untuk High Performance Computing seperti Ayub Scheduler, MSMPI perpustakaan dan alat manajemen. NCSA 's Lincoln baru diinstal adalah sekelompok 450 server Dell PowerEdge 1855 pisau menjalankan Windows Cluster Server Hitung 2003.Cluster ini debut di # 130 pada TOP500 daftar pada Juni 2006.
gridMathematica menyediakan perhitungan didistribusikan melalui kelompok termasuk analisis data, aljabar komputer dan visualisasi 3D. Hal ini dapat menggunakan teknologi lain seperti Altair PBS Professional, Microsoft Windows Compute Cluster Server, Platform LSF dan Sun Grid Mesin . [6]
gLite adalah satu set teknologi middleware yang dibuat oleh Grids Mengaktifkan untuk E-ilmu pengetahuan (EGEE) proyek.
Contoh lain dari produk permainan konsumen yang ditambahkan ke komputasi kinerja tinggi adalah Nvidia Tesla Supercomputer Pribadi workstation, yang mendapatkan kekuatan pemrosesan dengan memanfaatkan kekuatan akselerator grafis chip prosesor ganda.
Kerangka algoritma adalah tingkat tinggi model pemrograman paralel untuk komputasi paralel dan terdistribusi yang mengambil keuntungan dari pola pemrograman umum untuk menyembunyikan kompleksitas aplikasi paralel dan terdistribusi. Mulai dari satu set dasar pola (kerangka), pola yang lebih kompleks dapat dibangun dengan menggabungkan yang dasar.
Global Storage Arsitektur (GSA)-awan yang sangat scalable berbasis NAS solusi-menggabungkan proprietary IBM HPC teknologi (penyimpanan dan server perangkat keras dan kinerja tinggi IBM shared-disk sistem file berkerumun, GPFS) dengan komponen open source seperti Linux, Samba dan CTDB untuk memberikan solusi penyimpanan didistribusikan. GSA ekspor sistem berkas berkerumun melalui protokol standar industri seperti CIFS, NFS, FTP dan HTTP. Semua node GSA dalam grid ekspor semua file dari semua sistem file secara bersamaan. [7]
Kluster dan Grid di Indonesia
Beberapa kluster yang ada di Indonesia adalah:
- LIPI Public Cluster (http://www.cluster.lipi.go.id/)
- NL Grid UGM (http://grid.te.ugm.ac.id/docs/)
- Grid UI (http://grid.ui.ac.id/)
HPC Cluster : Antara Kekuatan dan Kebebasan
Agustinus H (PT Fusion Dinamika Teknologi)
BERAPA cepat komputer Anda? Earth Simulator yang dipasang di Yokohama Institute for Earth Sciences sekarang ini merupakan komputer tercepat di dunia. Menggunakan prosesor sebanyak 5.120 vector process buatan NEC, komputer ini mampu melahap 40 triliun kalkulasi per detik pada kinerja puncaknya. Sebagai perbandingan, Pentium 4 berkecepatan 2 GHz membutuhkan waktu kurang lebih 50 tahun untuk dapat menyelesaikan kalkulasi per hari yang dilakukan Earth Simulator.
TERMINOLOGI superkomputer mengingatkan kita akan vendor raksasa seperti IBM, DEC, Cray, dan SGI pada era tahun 1980-an. Jika kita mengunjungi situs www.Top500.org, jajaran komputer tercepat di dunia saat ini tidak lagi menjadi dominasi vendor-vendor tersebut.
Pada rancangan superkomputer konvensional untuk mencapai kemampuan proses yang besar, komputer memiliki sejumlah prosesor yang bekerja secara pararel tetapi tetap mengakses satu sumber memori utama. Superkomputer jenis ini menggunakan perangkat keras dan lunak yang dirancang khusus sehingga memungkinkan pemrosesan dapat bekerja secara maksimal terdistribusi di antara prosesor secara efisien.
Segmen pasar yang sangat kecil dan kebutuhan yang jarang membuat komponen superkomputer tidak dapat diproduksi secara massal sehingga harganya menjadi sangat mahal. Pengguna superkomputer jenis ini biasanya sangat bergantung pada vendor.
Mahalnya kontrak pemeliharaan dan kerumitan penulisan perangkat lunak yang spesifik membuat harga sebuah superkomputer membubung ke atas langit. Kepemilikan superkomputer tersebut dapat memakan biaya dengan angka 8-10 digit dollar AS.
Fokus luas
Superkomputer HPC Cluster terbaru kebanyakan dibangun berbasis komponen standar komersial industri (commercial off-the-shelf/COTS). Di dalam industri komputasi kita mengenal dua jenis cluster. Pertama, cluster high availability (HA), di mana komputer yang terhubung berfungsi sebagai cadangan untuk komputer utama jika terjadi kegagalan sistem.
Satu lagi adalah sekumpulan komputer yang secara fisik saling berhubungan sebagai solusi komputasi yang lebih cepat dan efisien. Jenis cluster ini kita kenal sebagai high performance computing (HPC). Meskipun ada perbedaan konsep dan filosofi, beberapa vendor menyebutnya sebagai grid computing, network of workstation (NOW), dan cluster of workstation (COW).
Grid cenderung merupakan sebutan untuk supercluster dengan jumlah unit proses yang sangat banyak dengan memanfaatkan kapasitas prosesor yang tidak terpakai di dalam jaringan untuk menciptakan sebuah superkomputer semu (virtual).
Semua konsep yang ada itu memiliki satu tujuan yang sama, yaitu optimasi kinerja komputasi per dollar AS. Dibandingkan dengan superkomputer konvensional, HPC Cluster dapat menurunkan biaya kepemilikan sekitar sepersepuluh dengan kapasitas proses yang setara dengan superkomputer konvensional.
Kemampuan prosesor terbaru dan kebebasan standar industri yang bersifat terbuka serta kesempatan untuk membuat pencapaian dalam bidang sains dan teknologi telah membentuk fokus yang luas untuk perkembangan HPC Cluster saat ini.
Jaringan berkecepatan tinggi
Adanya antarmuka jaringan yang cepat, tantangan membangun superkomputer bukan pada berapa jumlah prosesor yang dapat dipasang ke dalam sebuah sistem, tetapi yang terpenting adalah kemampuan untuk membuat setiap unit proses yang ada mampu bekerja sama secara baik. Kecepatan antarmuka jaringan mengalami perkembangan pesat dan semakin cepat.
Saat ini peningkatan kecepatan jaringan berbasis Eternet memungkinkan komunikasi antartitik mencapai 1 GBps dan InfiniBand 32Gbps. Ini memungkinkan unit-unit proses komputasi tidak perlu lagi secara fisik berdekatan di dalam satu papan logik untuk dapat bekerja efisien secara pararel.
Unit proses dapat dihubungkan bersama melalui media komunikasi data berkecepatan tinggi sehingga menghasilkan kemampuan proses yang besar. Dengan demikian, mesin-mesin HPC Cluster dapat mencapai skalabilitas hingga ribuan prosesor.
Skalabilitas di sini berarti kemampuan untuk berkembang selaras dengan tuntutan kebutuhan. Jika pada superkomputer konvensional ada keterbatasan untuk menambah prosesor, pada sistem cluster kita bisa dengan mudah menambahkan unit prosesor sesuai dengan perkembangan kebutuhan. Selain itu, HPC Cluster memberikan keleluasaan dalam menentukan komponen, spesifikasi perangkat keras, serta sifatnya yang fleksibel untuk beradaptasi dengan topologi jaringan yang ada.
Karena hanya merupakan kumpulan unit prosesor, kerusakan komponen tidak akan mengakibatkan keseluruhan sistem operasional terganggu. Sistem cluster dapat diperbaiki tanpa perlu mematikan keseluruhan sistem, demikian juga saat memasang unit prosesor tambahan.
Minyak dan api
Jenis HPC yang paling populer mungkin adalah Beowulf Cluster. Jenis ini sering merupakan cluster yang berjalan di sistem operasi Linux meskipun ada juga yang menggunakan sistem operasi lainnya, seperti freeBSD yang merupakan salah satu varian Unix.
Dibandingkan dengan konsep cluster lainnya, Beowulf mengalokasikan sumber daya jaringan dan prosesor secara khusus serta menempatkan sebuah master node untuk mengontrol proses kalkulasi setiap unitnya. Munculnya sistem operasi Linux seperti menyiram minyak ke dalam api bagi tumbuhnya konsep ini.
Linux merupakan sistem operasi yang tepat untuk komputasi cluster mengingat sifatnya yang open source dan memiliki hampir semua fitur enterprise yang dimiliki Unix. Jika terdapat pembatasan ekspor teknologi superkomputer oleh Pemerintah AS, teknologi open source gratis ini dapat digunakan untuk membangun sistem komputasi masif yang canggih dengan komponen COTS bisa didapatkan di mana-mana. Selain itu, sifat Linux yang open source memungkinkan pihak pengguna memodifikasi dan mengoptimalkan sistem serta melakukan riset komputer canggih tanpa pusing terikat dengan vendor-vendor tertentu.
Akhir-akhir ini kebutuhan superkomputer telah merambat di luar pasar tradisional mereka. Di luar laboratorium riset, saat ini HPC telah memasuki dunia industri dan bisnis seperti bidang finansial, manufaktur, dan energi.
Kebutuhan akan HPC paling banyak didominasi oleh bidang-bidang riset, salah satunya adalah penelitian cuaca dan gempa. Aplikasi populer seperti MM5 untuk simulasi cuaca yang ditulis untuk berjalan di mesin Beowulf cluster bahkan bisa di- down load secara gratis di Internet beserta contoh datanya. MM5 merupakan salah satu aplikasi paling populer untuk simulasi cuaca hasil pengembangan kolektif beberapa institusi riset dan universitas di Amerika Serikat.
Di bidang energi, HPC berperan sangat penting untuk mencari sumber minyak baru dan menganalisis faktor-faktor geofisik guna mendapatkan solusi yang efisien dan aman dalam eksplorasi.
Kapasitas besar
Selain itu, perfilman yang mengandalkan spesial efek merupakan salah satu industri yang paling banyak mengandalkan HPC Cluster. Rangkaian film The Lord of the Ring yang akan diputar pada pertengahan Desember ini merupakan salah satu film yang paling banyak mengandalkan digital content creation (DCC) dan menuntut kapasitas pemrosesan yang besar untuk rendering gambar- gambar beresolusi tinggi dalam berbagai format.
WETA Digital, sebuah perusahaan animasi dan spesial efek yang bermarkas di Selandia Baru, membangun fasilitas render farm berbasis cluster hingga skalabilitas ribuan prosesor untuk mengerjakan film ini. Jika sekuel Lord of The Ring dikerjakan dengan personal computer (PC) yang tercepat saat ini, dibutuhkan waktu lebih dari 10 tahun untuk menyelesaikan proses rendering. Bagi para artis grafis 3D atau animator, hal yang paling menyita waktu adalah menunggu proses rendering.
Beberapa waktu lalu Pixar, sebuah studio 3D spesial efek membangun HPC Cluster baru berbasis 1.920 prosesor Intel Xeon untuk menggantikan mesin Sun Enterprise Render Server yang dipakai untuk produksi film Monster Inc.Oracle, vendor aplikasi database terkemuka telah mendukung teknologi cluster dengan meluncurkan Oracle 9i.
Berpikir sedikit optimistis, dengan dukungan ini setidaknya kita bisa mengevaluasi ulang kebutuhan kita membeli mainframe yang mahal untuk menjalankan aplikasi enterprise Anda dan menggantikan dengan mesin berbasis HPC Cluster. Dan mungkin, dengan sedikit percaya diri, mesin tersebut dapat merupakan produk rakitan sendiri.
Selain dapat menjadi indikasi kegiatan riset dan pencapaian teknologi kepemilikan superkomputer, hal itu juga merupakan masalah prestisius bangsa. Salah satu proyek yang cukup ambisius tahun ini adalah RedGrid, sebuah supercluster RRC yang dibangun oleh Cray dengan prosesor AMD Opteron dan diprediksikan menjadi superkomputer nomor dua tercepat di dunia. Di negara tetangga seperti Thailand, Malaysia, dan Singapura terdapat banyak sekali proyek HPC Cluster yang dibangun untuk kebutuhan riset dan industri.
Bagaimana dengan Indonesia? Mungkin sampai saat ini belum ada satu lembaga penelitian atau universitas pun yang memiliki HPC Cluster. Pertanyaan perlu atau tidak merupakan hal yang relatif dan mengingat bahwa di negara kita hampir tidak ada riset teknologi maju ataupun dasar. Kecenderungan kita adalah membeli sebuah solusi jadi dan bukan know-how, membuat bangsa ini sangatlah sukar untuk maju secara teknis dalam bidang teknologi.
Sumber : Kompas (23 Desember 2003)