Bei 4Players achte ich idr darauf, wer was testet. Ich weiß es zwar sehr zu schätzen, dass dort das Wertungsspektrum voll ausgenutzt wird. Allerdings verfällt das Magazin mMn auch leicht in pseudo-intellektuelle Analysen und versteifen sich auf Dinge, die man eher als Zeitgeist-Empfinden bezeichnen würde. Das gilt speziell für Tests von Jörg Luibl. Sobald in seinen Texten das Wort "Regie" fällt, bin ich idr draußen. Das hat sich dort schon annähernd als Fluff-Totschlagument etabliert, um persönliche Vorlieben als allgemeingültigen Maßstab zu rechtfertigen.
Allgemein hätte ich auch sonst gesagt, dass es sehr deutlich auf die jeweilige Person ankommt und wie man sich dem Spiel nähert. Das gilt meines Erachstens auch für die Gamestar, wobei dort dieses Zurechtbiegen von Wertungen der Vergleichbarkeit wegen niemanden hilft. Das Problem an objektivierten Tests ist mMn (wobei Gamestar seit der letzten Umstellung nur noch halb-objektiv testet), dass im Zweifel der Production Value dafür sorgt, dass eine Wertung kaum unter die 70%-Marke fallen kann. Vor einigen Jahren gab es sogar noch einen internen Wertungsspiegel, wonach der Gipfel des Mittelmaßes nicht bei 50% angesetzt war, sondern irgendwo zwischen 65 und 70%. Also etwa auf dem Metacritic-Äquator. Verzerrt meiner Meinung nach die Wahrnehmung beim Leser, denn 70% liest sich immer gut und ist auch verwaschen genug, damit alles irgendwie gerechtfertigt werden kann.
Welche Blüten das teils treibt, konnte man bei GamersGlobal vor der Umstellung auf subjektive Wertungen sehen. Wenn dort ein Spiel eine 8.0 bekam, wusste man nie, ob das nun eine gute Wertung war oder sich die Redaktion uneins.
Es gab damals auch Redaktionsvideos mit Wertungsdiskussionen und da kam es zu Konstellationen wie zb bei Watch Dogs 2, dass ein Tester aufgrund völlig misslungener Dialoge keinen Spaß hatte, dem Haupttester die Dialoge egal waren und es gab eine 8 von 10. Klare Kaufempfehlung, nicht wahr? Das gab es mehrfach und auch, dass es in der Redaktion zwar verschiedene Meinungen gibt, aber getestet wurde es nur von Leuten, die ein Spiel nicht mochten. So geschehen bei The Last Guardian. Bei GamersGlobal gibt es ein Format namens Stunde der Kritiker, wo zwei Journalisten die erste Stunde eines Spiels erleben. Das hat erstmal nichts mit den Tests zu tun, man sieht aber schon Unterschiede, wie Leute an ein Spiel herangehen. Heinrich Lenhardt nahm den Hundevogel Trico so, wie er ist und hatte richtig viel Spaß. Dagegen analysierte Benjamin Braun vom Start weg, was wohl geskriptet und was Zufall ist. Benjamin war Haupttester, Jörg Langer Nebentester mit noch kritischerer Haltung, von Heinrich's Meinung fand sich nichts wieder. 6 von 10.
Das bin jetzt vielleicht nur ich, aber für mich verlieren so Tests und Wertungen ihren Sinn. Es liegt sicher auch am Medium und daran, dass es für einzelne Spiele eben nicht DIE allgemeingültige Betrachtungsweise gibt. Aber ich verstehe Tests als Kaufempfehlungen und da funktioniert ein zusammengemanschter Kompromiss nicht, sondern man sollte besser herausarbeiten, für welchen Typ Spieler sich das Spiel lohnt und auch warum.
Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von »v3to« (03.01.2021, 15:47)