"Studie" über Usability

Spiegel schreibt:
Psychologen der Universität Mainz stellten die Internetseiten von 21 deutschen Hochschulen auf den Prüfstand.

Der Titel weckt den Eindruck es handele sich um eine wissenschaftliche Untersuchen, die mit nachvollziehbaren und aktuellen Kriterien gemacht wurde um ein repräsentatives Ergebnis zu liefern.

Aber wenn man sich die Arbeit genauer anschaut, muss man arg umdenken:

  1. Es handelt sich nicht um eine Studie einer Gruppe von Psychologen, sondern um eine Arbeit (Semiararbeit oder Diplomarbeit, letzteres hoffentlich nicht!) einer Studentin der Psychologie. Besondere Kenntnisse in Sachen Usability oder IT gibt sie in ihrem OpenBC-Profil nicht an.
  2. Die Kriterien nach denen die „Tests“ abgelaufen sind, basieren (bis auf die Frage der Existenz einer Kontaktseite) offenbar nur auf subjektive Faktoren. Eindeutige und messbare Eigenschaften werden nicht abgefragt. So wird beispielsweise bei der Frage des Layouts keinerlei der bekannten Faktoren der Usability für Webseiten abgefragt und getestet. Weder bei der Frage nach Zielgruppen wird eine Basis an überhaupt abzuprüfenden Zielgruppen (wie Studierende, Presse, Mitarbeiter, Wirtschaft, etc.) angegeben, noch wird zum Beispiel bei der bewerteten Farbwahl auf bekannte Formeln und Regeln zur Farbharmonie oder der Kontrastmessung eingegangen.
  3. Seit mehreren Jahren bekannte Kriterien zur Barrierefreiheit und der Usability von Webseiten werden nicht erwähnt, noch zeigt der Text, daß diese überhaupt bekannt sind.
    Dies ist insbesondere auch an den vermeintlichen Gewinner der Studie merkbar. Der Webauftritt der Universität Jena enthält einige gravierende Barrieren, ist auch nicht standardkonform und fällt auch von der Usability durch, wenn es um die unüberschaubare Zahl der Links geht.
    Für einen blinden Benutzer, der auf eine Vorlesesoftware angewiesen ist, dürfte die Website die Hölle sein: Bevor man zum Inhalt kommt (und es gibt keine Sprungmarken dahin!) muss dieser sich erstmal mehrere Dutzend Links vorlesen lassen.
  4. Anhand der Überschrift der Studie wird der Eindruck erweckt, sie sei repräsentativ.
    Es wurden jedoch lediglich 21 Hochschulen (von mehr als 90 laut Wikipedia) getestet. Warum die Hochschulen gewählt wurden und was sie repräsentativ macht, bleibt ungenannt.
  5. Da keinerlei weitere Angabe gemacht wurde, wer an dem Test beteiligt war, muss davon ausgegangen werden, daß die Test alleine von der Studentin gemacht wurde. Eine wie auch immer geartete Gruppe von Testern ist offenbar nicht tätig gewesen.
  6. Andere bekannte Kriterienkataloge oder Verfahren zur Wertung und zum Test von Webauftritten wurden nicht erwähnt. Ein Studie die dies aber zum Ziele hat, muss zumindest auf vergleichbare andere Ansätze hinweisen.

Der Studentin kann man für ihre Arbeit kein Vorwurf machen. Eine Studentin der Psychologie kann nun mal nicht die Kenntnisse über diesen Bereich der IT haben.
Wohl kann sie möglicherweise etwas über spezielle psychologische Aspekte erzählen. Die sind dann auch nicht unbedingt messbar. Aber dies geschieht hier nicht. Stattdessen wird auf Dinge eingegangen, zu denen es längst und seit Jahren etablierte und gesicherte Erkentnisse und Methodiken in der IT gibt.

Schuster, bleibt bei euren Rappen!

2 Kommentare zu “"Studie" über Usability

Kommentarfunktion ist geschlossen.

  1. Ich wollte hier eigentlich was zur Ehrenrettung der Mainzer Psychos (zu denen ich zähle, ich kenne die Autorin aber nicht) schreiben, aber ich find die Studie auch sehr unausgegoren… :/

    Eigentlich wird uns von Anfang an eingetrichert, dass alles Alles ALLES gemessen und belegt werden muss, gerade in der Experimentellen Psychologie… Und da könnte ich mir auch für diesen Ansatz durchaus Möglichkeiten vorstellen.

    Mir ist das Ganze jedenfalls echt unverständlich. *kopfschüttel* Vor allem, weil Prof. Hecht ansonsten eigentlich sehr kritisch ist, was Methoden angeht, ich spreche da aus Erfahrung… ;)