Das Problem ist gar nicht, dass der Speicher der Grafikkarte vom Hauptspeicher des PCs abgeknapst wird. Klar verringert sich dadurch, wie Du geschrieben hast, der verfügbare Hauptspeicher. Das große Problem ist aber die Geschwindigkeit des ganzen Systems. Beide Komponenten - die CPU und die GPU - müssen auf den selben Speicher-Riegel zugreifen. Während der eine seine Arbeit verrichtet, kann der andere nichts machen und umgekehrt. Logischerweise hat die GPU Vorrang, denn die muss ja ständig das Bild auf dem Bildschirm darstellen, also ständig aus dem Speicher lesen. Die CPU dreht in diesen Zeiträumen Däumchen und kann nur das abarbeiten, was sie ihrem Cache hat. Aber sie wird eben verlangsamt. Das ist der Grund, warum eine solche Kombination für Spiele problematisch ist. Und auch, warum Grafikkarte normalerweise ihren eigenen physischen Speicherplatz - wirklich in Form von eigenen Speicherbausteinen - auf der Platine haben. Wie Du schon schreibst, ist das für Büro-Anwendungen dagegen überhaupt kein Problem und eine feine Sache.
Kleine Bemerkung am Rande: Das »HD« in »Intel HD« soll wohl marketingtechnisch auf »High Definition« hindeuten oder so und hat mit der Festplatte nichts zu tun.
Noch eine Bemerkung: Dieses Systems des kombinierten Arbeitsspeichers ist ein extrem altes Prinzip. Sämtliche Homecomputer aus der 8- und 16-Bit Ära haben exakt genau so gearbeitet: Atari 800, C64, Schneider CPC, Sinclair Spectrum, Acorn BBC, die MSX-Computer, Atari ST/STE/TT, Commodore Amiga, etcpp. Deswegen haben sich die Programmierer und die Hardware-Entwickler der Computer immer etwas einfallen lassen müssen, damit man trotzdem zurande kommt. Bei den Erst-Amigas (1000, 500, 2000) gab es zum Beispiel das »Chip«-RAM und das »Fast«-RAM. Ersterer hatte genau das Problem, dass hier CPU und die restliche Hardware drauf zugreifen musste, und der war deswegen deutlich langsamer als das eben genau so betitelte »Fast«-RAM. Grafiken, Sounds und so weiter konnte man nur im Chip-RAM unterbringen und der war beim Amiga maximal 512 KByte groß. Das ist also bei weitem keine Erfindung von Intel, auch wenn die das gerne mal so hinstellen, sondern ist eine Asbach-Uralt-Geschichte aus den Anfängen der Computertechnik.