heh, esto lleva a un área de algunos malentendidos, que recientemente han intentado ser corregidos por la definición de 2 términos separados: GB (con multiplicador decimal, de 1000s) y GiB (con multiplicador binario, de 1024, etc). Cuando se dice que el ordenador tiene 2048 MB de RAM, en realidad se quiere decir que tiene 2048 MiB (1024*1024) de memoria.
El direccionamiento del hardware es siempre un múltiplo binario, o potencia de 2, porque es la forma más eficiente de diseñar circuitos digitales. Lo que hace especialmente confuso, como en tu ejemplo, la gente habla de múltiplos decimales de MiB y GiB, que son multiplicadores binarios. Esto también es cierto para las especificaciones de la memoria JVM de Java: se especifica un número decimal de MiB normalmente. La memoria RAM del ordenador también se describe como un múltiplo decimal de un multiplicador binario, por ejemplo, 64 KB, 4 GB, que debería llamarse más correctamente 64 KiB, 4 GiB.
Así que, para su ejemplo, su ordenador tiene 2 GiB o 2,048 GB de RAM.
Además, es posible que recuerde que los fabricantes de unidades de disco siempre utilizaban multiplicadores decimales, porque eso hacía que sus discos parecieran más grandes (si X*1000 = Y*1024, entonces X > Y). Entonces, cuando se compraba un disco y se instalaba software en él, el sistema operativo informaba de un espacio total menor. ¿A dónde iba la diferencia? A ninguna parte, excepto a una pequeña sobrecarga en el formateo, pero sobre todo a este malentendido (¿intencionado?).