Koti Trends Kuinka olemassa olevat tietovarastoympäristöt voivat parhaiten mitoittaa suurten tietoanalyysien tarpeisiin?

Kuinka olemassa olevat tietovarastoympäristöt voivat parhaiten mitoittaa suurten tietoanalyysien tarpeisiin?

Anonim

K:

Kuinka olemassa olevat tietovarastoympäristöt voivat parhaiten mitoittaa suurten tietoanalyysien tarpeisiin?

V:

Yksittäiset tietovarastohankkeet on arvioitava tapauskohtaisesti. Yleensä yritettäessä venyttää olemassa olevaa tietovarastosuunnittelua paremman datan analytiikan käsittelemiseksi on olemassa ydinprosessi, joka selvittää, mitä on tehtävä. IT-ammattilaiset voivat kutsua tätä "skaalaamiseksi" tai "skaalaamiseksi".

Verkkoseminaari: Big Iron, tavata Big Data: Mainframe-tietojen vapauttaminen Hadoop & Sparkin avulla

Rekisteröidy täällä

Suurentaminen tarkoittaa yleensä riittävän prosessointitehon hankkimista, riittävän määrän muistin hankkimista ja tehokkaampien palvelintoimintojen sijoittamista kaikkien suurten tietojoukkojen käsittelemiseen, joita yritys käsittelee. Skaalaus voi sitä vastoin tarkoittaa palvelinlaitteisto klusterien keräämistä ja niiden verkottamista yhteen suuriin tietoihin.

Jotkut IT-asiantuntijat ovat ehdottaneet, että yleisempi menetelmä Apache Hadoopin ja muiden suosittujen suurten datatyökalujen ja alustojen kanssa on mitoittaa ja klusteroida laitteisto haluttujen vaikutusten saavuttamiseksi. Toiset kuitenkin huomauttavat, että nykypäivän tekniikan avulla tietovarasto voi skaalautua käyttämällä hankintastrategiaa, joka lisää resursseja palvelimelle, esimerkiksi hankkimalla enemmän käsittelyn ytimiä ja suuremman määrän RAM-muistia.

Tietovarastot tarvitsevat lisää fyysisiä laitteistoresursseja suurempien datatyökuormien käsittelemiseksi riippumatta siitä, mitkä ne ovat. He tarvitsevat myös ylimääräistä inhimillistä hallintoa, mikä tarkoittaa enemmän sisäisten ryhmien koulutusta. Projektiin on mentävä paljon suunnittelua sen selvittämiseksi, millaista stressiä ja paineita suuremmilla datatyömäärillä on olemassa olevassa vanhassa järjestelmässä, jotta se sopisi uudelle suurelle dataekosysteemille. Yksi suuri ongelma on varastoinnin pullonkaulat, jotka vaativat päivityksiä varastointikeskuksiin, ja muunlaiset suorituskyvyn pullonkaulat, jotka saattavat kiertää syntyvän järjestelmän, ellei niihin puututa.

Kuinka olemassa olevat tietovarastoympäristöt voivat parhaiten mitoittaa suurten tietoanalyysien tarpeisiin?