Controlling 21

Dr. J. Schuhmacher

vg

etracker Testbericht

Externe Anbieter für die Zugriffsauswertung.

Fazit

Erst die wesentlich teurere Variante liefert einen halbwegs akzeptablen Umfang an auswertbaren Daten. Der freundliche Service steht im Widerspruch zur relativ komplizierten Einrichtung, welche diese Dienstleistung eher für Fachleute denn für das Management anwendbar macht. Messungenauigkeiten bei der Datenerhebung und teilweise nicht individuell einstellbare - und somit zu grobe - Auswertungsklassen reduzieren den Wert der gelieferten Zahlen. Die Auswertung der Ergebnisse wird durch nicht immer ergonomische Bedienung, insbesondere lange Wartezeiten und mangelnde Erklärungen zu den Zahlen erschwert.

Letztendlich bleibt ohne qualitative Bewertung der Zahlen jede Zahlenreihe wenig aussagekräftig. Erst eine qualitative Bewertung mit konkreten Handlungsempfehlungen ergibt ein effizientes Internet-Controlling.

Vorteile der Nutzeranalysen mit Bewertung

Hintergrund: Externe Dienstleister für das Internet-Controlling mit Online-Analysen

Seit einiger Zeit wird viel über externe Dienstleister gesprochen, die angeblich extrem preiswert das Internet-Controlling für Sie und Ihre Firma übernehmen. Sie bieten dies auf dem eigenen Server online und ständig aktuell an. Bei genauerer Betrachtung stellt sich das jedoch als zu euphorische Behauptung heraus. - Die Firma etracker ist vermutlich der bekannteste Anbieter in Deutschland. Deshalb soll er hier untersucht werden.

Lobenswerter Service

Der Service des Dienstleisters ist besonders lobenswert. Alle Anfragen wurden freundlich, hilfsbereit, schnell und kompetent beantwortet.

Schwierige Installation

Bereits bei der Installation der notwendigen Details dürften Laien an die Grenzen stoßen. So muss man die zu filternden Dateien mit einem Code versehen. Dazu muss man jedoch die Inhaltsdateien von denjenigen der inhaltslosen (z.B. Frame-Teile, Umleitungs-/Weiterleitungsseiten) unterscheiden können. Dies ist eher eine Aufgabe für die IT oder den Multimedia-Betreuer, der sich im Auftritt genau auskennt. Für das Management, an welches sich die Dienstleistung wendet, ist dieser Schritt zu kompliziert und fehleranfällig. Wer in diesem ersten Schritt Fehler macht, wird später nur wertlose Zahlen erhalten.

Technik

Der HTML-Datei wird eine kleine Grafik angehängt, welche vom externen Dienstleister ausgewertet wird. Das Meiste wird mit JavaScript analysiert: Nutzer, die das (aus Sicherheitsgründen) nicht aktiviert haben, werden nicht optimal erfasst! Zusätzlich findet sich zwar ein Noscript-Teil, welcher jedoch die Details nicht alle so gut erfassen kann. Es kommt zu einer erheblichen Aufblähung der Dateigröße um 5 KB Quellcode! Vor allem für Suchmaschinen ist der hohe Anteil des JavaScripts hinderlich. Damit eine gute Platzierung Ihrer Seiten in Suchmaschinen nicht verhindert oder zu stark behindert wird, sollte sich dieser JavaScript-Teil unbedingt am Ende der HTML-Datei befinden. Vermeiden Sie das Einbinden am Seitenanfang Ihrer HTML-Datei. Unabhängig davon, wo man den Code einbaut, er kann bei abgeschaltetem JavaScript das Layout einer Seite nachteilig verändern. PDF und andere Dokumentenformate werden auf diese Weise nicht erkannt und gezählt. Sie müssen mit einem Link-Analysator (teureres Paket) untersucht werden. Dieser prüft im Prinzip, ob der Link angeklickt wurde. Somit lassen sich jedoch direkt eingetippte oder gebookmarkte Downloads nicht erfassen. Beim Anhängen des komplexen Zusatzes im Quellcode der HTML-Seite handelt es sich um einen zeitaufwändigen Prozess, da man mit dem Windows-Programm nur jeweils eine Datei automatisch mit dem zusätzlichen Code versehen lassen kann. Datenbankgestützte Auftritte können vom Fachmann programmtechnisch angepasst werden. Hierbei treten dann jedoch teilweise unschöne Ergebnisse auf, die zu kaum lesbaren Seitennamen in den Auswertungen führen und somit die Analyse erschweren.

Auswertung

Es werden zahlreiche Auswertungen angeboten. Das so genannte Dashboard - die Übersicht der wichtigsten Kennzahlen - ist individuell einstellbar und liefert dann einen relativ ergonomischen Überblick der selbst ausgewählten Werte. Die Statistik beim Dienstleister ist allerdings mit zahlreicher, blinkender Werbung ausgestattet - die somit unergonomisch ist und die Bearbeitung erheblich erschwert. Abschalten lässt sich dies erst in teuren Paketen. Die Auswertung Besucher pro Wochentag ist unsinnig, da beliebig viele Tage aufaddiert werden, statt nur jeweils in Siebenergruppen (die Größe abgeschlossener Kalenderwochen). Dies muss man erst selbst im Kalender korrigieren. Auch der KW-Vergleich ist unsinnig, da auch Teilwochen gezählt werden, statt dass diese automatisch ausgeschlossen würden. Beide Werte lassen sich zwar korrigieren. Aber es fehlt jeder Hinweis darauf. Der Laie erhält hier vermutlich nur die falschen Werte. Im Bereich Nutzung werden die absoluten Zahlen der Seitenabrufe aufgeführt, jedoch keine Prozentzahlen. Dies gibt es erst in höheren Paketen. Bei der Analyse der Herkunft zeigten sich Fehler bei Multi-Domain-Auftritten. Angenommen Sie besitzen die Abkürzung abc.de und den ausgeschriebenen Namen Anton-Bauer-Compagnie. Hier wurden weitere Domains des eigenen Auftrittes als fremde Herkunft gezählt. Die Technik-Auswertungen sind erfreulicherweise absolut und prozentual ausgewiesen. Allerdings sind viele Werte zu grob in ihrer Granularität. So ist z.B. die Granularität bei Browsern zu grob. Es reicht nicht aus, zu wissen, dass der Internet-Explorer von 60% der Besucher genutzt wird. Elementar wichtig ist hierbei die Versionsnummer, da jede Version der Browser die Inhalte leider anders darstellt! Die Suchwortstatistik ist gelungen. Die Sortierreihenfolge der Bildschirmgröße ist unverständlich und unlogisch: 960, 680 etc. wird über/vor 1920 sortiert. Die Warte-/Ladezeiten waren trotz DSL-Anschlusses oft hoch. Am Monatsersten wurden Ladezeiten von Teilweise über 1 Minute gemessen. Zwar ist der Monatsanfang sicher ein Zeitraum mit hoher Last, da viele die Ergebnisse des Vormonats abrufen. Dennoch sind derartige Wartezeiten zu hoch. Vor allem das Fehlen von Bewertungen und selbst einfacher Erklärungen bei den Statistiken und Grafiken muss für Laien als hinderlich eingestuft werden. Schließlich wenden sich derartige Dienstleistungen angeblich an das Management, welche keine IT-Fachkenntnisse besitzen.

Mehrwert für Manager ?

Letztendlich stellt sich die Frage, was ein Manager mit den gelieferten Zahlen anfangen soll? Ist der Wert 10.000 gut, mittelmäßig oder schlecht? Ist ein Rückgang im Februar um 5% gut, mittelmäßig oder schlecht?

Ohne eine qualitative Bewertung der Zahlen muss jede Zahlenreihe wenig aussagekräftig bleiben. Erst eine qualitative Bewertung durch einen Fachmann mit daraus folgender konkreter Handlungsempfehlung ergibt ein effizientes Internet-Controlling.

Vorteile der Nutzeranalysen mit Bewertung

Service-Pakete

Zuerst verlockt der "Passanten-Stopper" mit den werbewirksamen 1,11 Euro Kosten je Monat. Schnell stellt sich allerdings heraus, dass zahlreiche sinnvolle und wichtige Funktionen nur in den höheren - teureren - Paketen zur Verfügung stehen. Z.B. Formularmessungen, Nutzung der Seite, Herkunft - Suchwortstatistik Phrasen, Herkunft - Suchwortstatistik Wörter, Technik - Internetzugang, Statistikdaten-Export (CSV, PDF, Excel). Das Lockvogel-Angebot ist somit selbst für Privatpersonen kaum brauchbar. Erst der Produktservice mit der Bezeichnung business für rund 25 Euro im Monat (immerhin 300 Euro im Jahr) bietet die für ein Internet-Controlling minimal erforderlichen Zahlen. Herkunft nach Region oder Stadt erhält man erst bei den advanced services für mindestens 1.300 Euro im Jahr. Alle Dienstleistungen - d.h. alle unbewerteten Zahlen - erhält man erst im Paket etracker commerce für 5.220 Euro im Jahr.

Dafür erhalten Sie jedoch auch bereits bewertete, schriftliche Gutachten mit Verbesserungsvorschlägen und konkreten Handlungsanweisungen zur Umsetzung.

Beschränkungen

Geo-Targetting liefert z.B. die Zahlen der Nutzer nach Land, Region oder Stadt. Die Feinauflösung ist allerdings preisabhängig. Geo-Targetting klingt zwar gut, funktioniert jedoch nur eingeschränkt. Für alle Funktionen Geo-Targetting gilt: Die Genauigkeit soll 99,8% auf Länder-Ebene, 92% auf Regionen-Ebene, 88% auf Städte-Ebene betragen. Dahinter steckt die patentierte Technologie von Digital Envoy. Man mag der Angabe glauben oder nicht. Bis über 10% Fehlerquote werden bereits vorab eingeräumt. Es stellt sich jedoch generell die Frage, was mit Geo-Targetting wirklich gewonnen wird: Ein Nutzer stammt aus Konstanz, ein anderer aus Hamburg. Dies mag für nur lokal tätige kleine Handwerker auf den ersten Blick interessant sein, weil sie wahrscheinlich vermuten, keinen Auftrag aus einer weit entfernten Stadt zu erhalten. Dass dies jedoch bereits unsinnig ist, wird spätestens dann klar, wenn Sie sich vorstellen, dass ein in Hamburg lebender Vater für sein Kind am Studienort Konstanz einen Handwerker sucht, der die neue Studienwohnung vor dem Einzug herrichten soll. Welchen angeblichen Mehrwert hat das Geo-Targetting dann erst für die meisten mittelgroßen und großen Firmen, welche sowieso überregional tätig sind? Aus meiner langjährigen Erfahrung kann ich klar festhalten, dass die meisten Zugriffe von Nutzern aus der näheren Umgebung nicht zu Kaufabschlüssen führten. Es handelte sich hierbei eher um allgemeines Interesse. Je größer die Entfernung des Nutzers vom eigenen Standort war, desto höher waren jedoch die Abschlussraten. Beispiel: Wer sich aus Japan kommend für Immobilien bei Ihnen vor Ort interessiert, hat ein anderes Kaufinteresse als jemand, der in ihrem Ort selbst ansässig ist. Geo-Targetting macht - wenn überhaupt - somit eher in der Umkehrung der meist verwendeten Form einen Sinn für das Internet-Controlling. Geo-Targetting mag primär interessant klingen. Aber um welche Menschen handelt es sich? In fast jeder Stadt leben Personen aus allen sozialen Schichten der Bevölkerung. Wichtig für eine Zielgruppenbestimmung sind eher die sozialen Faktoren. Aus welchen Firmen, Universitäten, Schulen, Behörden, etc. stammen die Nutzer und somit: welches Kapital und Interesse besitzen sie? Falls Sie z.B. einen Auftritt besitzen, der sich primär an Firmenkunden richtet, so sagt ihnen das klassische Geo-Targetting wenig über den Erfolg Ihres Auftrittes. Erst eine Auswertung auf detaillierterer Basis hilft schnell abzuklären, ob Ihr Auftritt nur von Schülern, Studenten und Privatnutzern aufgesucht wird, oder ob sich darunter Ihre anvisierten Zielfirmen befinden.

AGB

Wichtig ist auch der Hinweis in den AGB, dass diese Auswertungsfirmen Ihre Firmen-Daten weiterverwenden! Nur Sie selbst können entscheiden, ob dies wirklich sinnvoll ist. Es handelt sich schließlich um sehr wertvolle Daten. Geben Sie Ihre Buchführung oder Ihr Finanzcontrolling auch in solche fremde Hände, die sich derartige AGB ausbedingen?

Unterstützte Techniken

Hier wurde der Acrobat Reader fälschlicherweise nicht erkannt. Die Analyse der Farbtiefe lieferte unerklärliche Werte: 11% für 16-Bit-Farbtiefe, aber meist nur 2-3% für 24-Bit-Farbtiefe widerspricht allen eigenen Untersuchungen und auch den technischen Erwartungen an die vorhandene Hardware der Grafikkarten. Bei der Herkunft der Nutzer ist die Zahl der "nicht ermittelbaren" sehr hoch (20-30%) und liegt über den akzeptablen Grenzen. Bei der Herkunft pro Domain werden zahlreiche nicht aufgelöst (im Test unter anderem 66.249.93.104 und 64.233.179.104 - beide Google). Es bleibt somit die Vermutung, dass das System nicht zwischen menschlichen Zugriffen und denjenigen der Maschinen unterscheiden kann. Nicht erkannt werden unter anderem Raster-Fahnder, E-Mail-Sammler, Hacker-Angriffe, Massendownloads und Fehlermeldungen bei eigenen Seiten.

Netto-Werte

Probleme bei der Nominalzahl der Abrufe gibt es bei direkten Downloads von anderen Dateiformaten als HTML, die mit dem Link-Analyse-Tool nicht erfasst werden können. Die Firma selbst räumt Abweichungen zumindest im einstelligen Prozentbereich zur ähnlichen Messung der Abrufe durch IVW ein. Letztere Wiederum räumen ebenfalls Abweichungen zur realen Zahl an Abrufen ein. Diese sind systembedingt. Unter anderem Sicherheitsvorschriften, im Browser abgeschaltete Bilder sowie ein schneller Seitenwechsel ohne Abruf der erst unten am Seitenende eingebundenen Grafik führen dazu. Selbst Tage nachdem das System abgeschaltet und alle JavaScript-Teile aus den Seiten entfernt worden waren, registrierte etracker vermeintliche Besucher und Seitenabrufer. Sogar nachdem etracker selbst bei sich das dazugehörende Konto gelöscht und somit definitiv alle Zählungen eingestellt hatte, wurden noch Wochenberichte mit angeblichen Besuchern und Seitenabrufen versandt.

Zur Rechtfertigung des eigenen komplexen Mess-Systems wird von derartigen Dienstleistern gern die pauschale und veraltete Behauptung ins Feld geführt: Server-Logfiles der Firmen seien weitgehend wertlos, da dort unter anderem aufgrund von Proxies und Caches die Daten zu gering seien. Dies wurde bereits vor Jahren in von mir durchgeführten Studien widerlegt.

Abweichungen zum Testsystem von Controlling 21

Es fanden sich grundsätzlich Abweichungen zwischen dem System von etracker und dem genaueren Analysekonzept von Controlling 21. Die Besucherzahlen von etracker lagen in allen Tests zu hoch. I.D. Regel waren die Abweichungen bei den Besuchern unter oder um 10%. Vereinzelt konnten jedoch über 20% gemessen werden. Da die Besucherzahlen zu hoch waren, lässt sich darauf schließen, dass maschinelle Abrufe z.B. von Rasterfahndern, E-Mail-Sammlern und evtl. sogar Suchmaschinen als menschliche Besucher gewertet wurden! Die Uhrzeitverteilung der Besucher wich erstaunlicherweise nach beiden Richtungen ab. Die Zahl der abgerufenen HTML-Seiten wich im Untersuchungszeitraum insgesamt um ca. 12% ab. Die prozentuale Verteilung der Betriebssysteme wich in beiden Richtungen ab. Zwar handelte es sich - bei einem Bezug auf 100% - in der Regel nur um wenige Prozent. Aber bei den kleineren Einzelwerten waren die Unterschiede teilweise erheblich. Bei den Browsern hielten sich die Abweichungen im einstelligen Bereich nach oben und unten, wobei die Varianten des Gecko vermutlich zum Firefox hinzugezählt wurden. Allerdings fehlten sinnvolle Untergruppen der Browser-Versionen, sodass die groben Gruppenzahlen von etracker zur Weiterentwicklung des eigenen Auftrittes kaum Wert besitzen.

Resümee

Letztendlich bleibt festzuhalten, dass dieser Service sicherlich einiges für Personen bietet, die bisher überhaupt nichts auf dem Gebiet des Internet-Controllings getan haben - solange Sie mit den Einschränkungen leben wollen.

Spezialisten werden jedoch mit optimierter Software nicht nur genauere Zahlen liefern, sondern mit verständlichen Bewertungen samt Handlungsempfehlungen erst ein effizientes Internet-Controlling für Sie aufbauen.

Im Internet-Controlling gilt: Wissen führt zum Erfolg! Halbwissen hat meist nicht halben Erfolg zur Folge, sondern führt oft in unangenehme Situationen.

Hilfe

Ich helfe Ihnen bei der

Analyse Ihres Internet-Auftrittes

Zum Seitenanfang

Controlling21.de - Dr. J. Schuhmacher
Internet und Multimedia in Perfektion