Category: Google

  • Google bringt alte Zeitungen in das Internet

    Die Zeitungen werden eingescannt, sowie das beim Google Buchprojekt passiert. Nutzer erhalten die Zeitungen zwar in elektronischer Form, doch in der Original-Optik. Schriftsatz, Spaltenbreite, Farbe usw. bleiben erhalten. Dennoch können die Scans durchsucht werden.

  • Der Webbrowser Google Chrome will gläserne Nutzer

    Bevor Sie weiterlesen entkleiden Sie ich bitte vollständig. Dabei stellen Sie sich vor, in jedem Raum ihrer Wohnung, ihrer Arbeitsstätte, des Internetcafes oder wo immer sie sich aufhalten, sind immer aktivierte Kameras installiert die jeden Winkel einfangen und keine Ihrer Bewegungen unbeobachtet lassen. Klingt ziemlich nach Big Brother?

  • Google PageRank Update – Juli 2008

    Es ist nicht gerade häufig, dass Google bzw. Mitarbeiter des Unternehmens ein Update des Google PageRank offiziell verkünden. Vielleicht ein Schritt gegen das Sommerloch?

  • Google misst Traffic für Websites

    Mit einer Aktualisierung in den Google Trends stellt Google nun klar, dass der Suchmaschinenbetreiber konkrete Zahlen zur Nutzung von Websites kennt. Ähnlich Alexa, aber sehr viel umfassender, kennt Google die Anzahl der Nutzer einer Website. Daraus lassen sich Rankings für Websites erstellen.

  • Anmeldung in Webkatalogen

    Um eine Website bekannt zu machen, gehört der Eintrag in Webverzeichnisse dazu. Kataloge als vertrauenswürdige Quellen, die redaktionell geprüfte Links mit hoher Qualität veröffentlichen. Das war viele Jahre eine gute Richtlinie. Jedoch ist die Zahl der Webkataloge enorm gewachsen und es gilt die Spreu vom Weizen zu trennen.

  • Interview mit Stefanie Dürr – Search Quality Team Lead – Google

    Im nachfolgenden Interview gibt Stefanie Dürr, Search Quality Team Lead – Google, Antworten auf Fragen, die für Webmaster von Interesse sind.

  • Suchmaschinen – Mehr Gemeinsamkeiten für Robots-Richtlinien

    Mehr Klarheit für Webmaster bringt die jüngste Initiative der drei grossen Suchmaschinen von Yahoo!, Google und Microsoft. Gemeinsame Regeln für die Datei robots.txt und robots Meta-Tags bringen mehr Übersichtlichkeit und erleichtern die Arbeit. Nachfolgend die Details.

  • Cloaking, IP Delivery und Geolocation

    Mit Cloaking werden Suchmaschinen andere Inhalte präsentiert als Nutzern. IP Delivery wird u.a dafür genutzt, Inhalte nach Standort des Nutzers auszuliefern (oder nicht zu liefern). Mit Geolocation wird festgestellt wo sich ein Nutzer aufhält um ihm z.B. mit lokalen Informationen zu versorgen. Was darf in welcher Form genutzt werden?

  • GoogleBot bedient HTML-Formulare

    Formulare waren bisher ein Tabu für Suchmaschinen. Google ist dabei dieses Tabu zu brechen. Durch die Nutzung von Formularen sollen neue Webseiten erschlossen werden. Vorrangiges Ziel sind Websites mit hoher Qualität.

  • Yahoo! testet Google-Anzeigen

    Ein begrenzter Nutzerkreis soll in Rahmen des angekündigten Tests von Yahoo!-Anzeigen präsentiert bekommen, die aus dem Google-Anzeigensystem stammen.