Sisällysluettelo:
Määritelmä - Mitä gigabitti (Gb) tarkoittaa?
Gigabitti (Gb) on datamittausyksikkö, jota käytetään digitaalisiin tiedonsiirtonopeuksiin (DTR) ja latausnopeuksiin. Yksi Gb on yksi miljardi (1 000 000 000 tai 10 9 ) bittiä.
Kansainvälinen yksikköjärjestelmä (SI) määrittelee giga-etuliitteen 109 tallennuskertoimeksi tai miljardiksi (1 000 000 000) bitiksi. Binaarinen giga-etuliite edustaa 1 073 741 824 (1024 3 tai 2 30 ) bittiä. SI- ja binaarierot ovat noin 4, 86 prosenttia.
Techopedia selittää Gigabit (Gb)
Keskusyksiköt (CPU) on rakennettu bittien tiedonohjausohjeilla - pienimmällä datan mittausyksiköllä. Bitit ovat magnetoituja ja polarisoituneita binaarinumeroita, jotka edustavat tallennettua digitaalista dataa RAM-muistissa tai vain luku -muistissa (ROM). Bitti mitataan sekunneissa ja karakterisoidaan suurjännitearvoilla 0 (päällä) tai 1 (pois).
Useimmat verkot käyttävät Gb: n SI-versiota modeemin, FireWire- tai Universal Serial Bus (USB) -nopeuden mittaamisessa, kun taas Gb: n binaariversio viittaa harvoin DTR-nopeuteen ja mittaa RAM-muistia ja valokuitukaapelia. Ohjelmistoryhmät ja arkistointijärjestelmät yhdistävät usein binaariset ja SI Gb -yksiköt vaatimusten mukaan.
Sähkö- ja elektroniikkainsinöörien instituutti (IEEE) sisällytti vuonna 2000 Kansainvälisen sähkötekniikan komission (IEC) virallisen hyväksynnän SI-metrisille etuliitteille (esimerkiksi MB miljoona tavua ja KB tuhatta tavua). Äskettäin lisätyt tietotermit sisältävät:
- Kibibyte (KiB) on 1 024 tavua.
- Mebibyte (MiB) on 1 048 576 tavua.
- Gibibyte (GiB) on 1 073 741 824 tavua.