Hitachi rilis Hyper Scale-Out Platform untuk memproses big data
Techno.id - Makin meningkatkan kebutuhan akan akses Internet of Things beberapa waktu belakangan, membuat Hitachi Data System baru-baru ini meluncurkan generasi penerus dari Hitachi Hyper Scale-Out Platform (HSP). HSP seri 400 ini dilaporkan menawarkan integrasi asli dengan Pentaho Platform Enterprise untuk memberikan platform hyper-converged yang canggih dan didefinisikan oleh software untuk memproses big data.
-
Seagate kembali gandeng IBM untuk perangkat terbaru Perangkat ini terintegrasi antara software IBM Spectrum Scale dengan ClusterStor High Performance Computing (HPC) storage.
-
Nvidia mengumumkan superkomputer berdasarkan platform Grace Hopper untuk AI Merupakan superkomputer tercepat untuk penelitian ilmiah berbasis AI di dunia
-
Virtus Showcase 2015 ungkap strategi bisnis di era big data Virtus Showcase 2015 didukung vendor-vendor TI terkemuka di dunia seperti VMware, Huawei, EMC, Pivotal, Google, Redhat, Ruckus, dan Tibco.
Dalam siaran pers yang diterima Techno.id (3/3/16), HSP menawarkan arsitektur yang didefinisikan oleh software untuk memusatkan penyimpanan dan pemrosesan rangkaian data jumlah besar dengan mudah tapi selalu tersedia setiap saat, lebih mudah dikelola, dan dilengkapi dengan model pay-as-you-grow. Dikarenakan telah hadir dalam bentuk perangkat yang sudah sepenuhnya terkonfigurasi, maka instalasi dan dukungan untuk produk beban kerja tidak hadir dalam format bulanan melainkan per jam.
HSP juga dilaporkan menyederhanakan penciptaan data lake elastis yang dapat membantu pelanggan mengintegrasikan rangkaian data terpisah dan menjalankan analitik yang berat sekali pun melalui proses yang mudah. Arsitektur scale-out HSP menyediakan infrastruktur yang siap digunakan, lebih sederhana, dan dapat diperluas untuk mengelola big data.
Arsitektur ini juga meliputi interface terpusat yang mudah digunakan untuk mengotomatisasi dan mengelola lingkungan yang tervirtualisasi bagi kerangka big data open source terkemuka seperti Apache Hadoop, Apache Spark, dan beberapa kerangka open source komersial lainnya.
"Banyak perusahaan tidak memiliki keahlian internal untuk melakukan analitik big data dengan sumber data kompleks di lingkungan produksi. Sebagian besar perusahaan ingin menghindari gagal eksperimen dari teknologi yang masih baru, mencari jalan terang untuk mendapatkan nilai dari data mereka tanpa memiliki risiko dan tanpa melalui kompleksitas. Pelanggan perusahaan tetap menerima manfaat dari sistem turnkey seperti Hitachi Hyper Scale-Out Platform, karena sistem tersebut menjawab hambatan utama adopsi teknologi baru dengan cara memberikan nilai dan makna dengan lebih cepat, sehingga mempercepat jalan menuju transformasi digital," ujar Nik Rouda, Senior Analyst di Enterprise Strategy Group (ESG).
Sistem HSP seri 400 ini menawarkan integrasi asli dengan Pentaho Enterprise Platform agar pelanggan memegang kendali penuh atas fitur pipeline analitik data dan pemberian peringkat seperti penyelarasan big data, manajemen siklus hidup, dan keamanan informasi yang lebih ditingkatkan lagi. Perpaduan kuat teknologi di dalam perangkat HSP next generation dirancang untuk mempersingkat waktu dalam memberikan insight kepada bisnis dan memberikan tingkat pengembalian terhadap investasi dalam waktu yang lebih cepat, sekaligus menyederhanakan integrasi Information Technology dan Operational Technology.
Dengan HSP, Hitachi mewujudkan janjinya untuk menghadirkan data center yang didefinisikan oleh software agar menyederhanakan layanan IT melalui abstraksi infrastruktur, akses data, dan otomatisasi data yang lebih baik.
BACA JUGA :
- Hitachi Data Systems ungkap lima tren lanskap bisnis dan IT 2016
- Program Smart City Kutai Kartanegara dilirik perusahaan Jepang
- Kesadaran orang Indonesia terhadap keamanan IoT memprihatinkan
- Microsoft dan Samsung kerja sama untuk Internet of Things (IoT)
- Beberapa hal berikut hilang sejak ada teknologi internet
(brl/red)