Wie arbeiten die Suchmaschinen von morgen?

1. June, 2007 2 Kommentare Autor:

Die ökonomischen, politischen und informationstechnischen Perspektiven der Suchmaschinen wurden auf einem Symposium in Berlin diskutiert. Welche Technologien werden morgen die Suchmaschinenlandschaft bestimmen?

Fragen die sorgfältige Klärung brauchen sollen auf dem Symposium von acatech gestellt werden. Tatsächlich gab es einige Vorträge die sich mit der Stellung der Suchmaschinen in der Gesellschaft auseinandersetzten. Auch die technologische Entwicklung der Suchmaschinen wurde beleuchtet.

Friedemann Mattern von der ETH Zürich

sieht Suchmaschinen als Universalschnittstelle zur digitalen Welt aber auch als professionelles Rechrecheinstrument. Die grosse ökonomische, kulturelle und politische Bedeutung der Suchmaschinen wurde speziell mit Blick auf das Oligopol der führenden Suchmaschinen Google, Yahoo! und Microsoft (GYM) betrachtet. Welche Macht haben Suchmaschinen? Gibt es ein Recht auf Listung in den Ergebnislisten? Wie steht es um Zensur, Selbstzensur und Manipulation durch Suchmaschinen? Es gibt ein Risiko für Machtmissbrauch durch Suchmaschinen.
Suchmaschinen haben durch die Nutzung gewaltiger Datenmengen (Datamining) einen Informationsvorsprung. Suchmaschinen sind ein Wirtschaftsfaktor. Dabei sind auch Dienstleistungen zu berücksichtigen, die auf Suchergebnissen aufbauen.
Wer digitalisiert die Welt? Wem gehören Daten und Wissen? Wie beeinflussen Suchmaschinen das Lernen, Leben, Meinungen? Wird das Weltbild erweitert, eingeengt oder schief?

Die Technik wendet sich neuen Daten in Fotos, Videos und Büchern zu. Zukünftig wird es mehr medizinische Daten zur eigenen Gesundheit und sehr viele sensorgenerierte Realzeitdaten geben. Beispiele für Ähnlichkeitssuche für Bilder und Briefmarken, sowie Proteinfaltung wurden erwähnt.

Eine ultimative Herausforderung ist die persönliche Suchmaschine. Diese kennt die aktuelle Situation der Einzelperson durch maschinelles Lernen. Es werden sich Dienstleister für private Daten und Wissensbedürfnisse entwickeln.

Marcell Machill, Lehrstuhl für Journalistik, Uni Leipzig

Wie arbeiten Suchmaschinen von morgen?

Es gibt einen hohen Konzentrationsgrad einiger weniger Suchmaschinen. Diese üben eine hohe Marktmacht aus. Es besteht das Risiko des Machtmissbrauchs.

Warum ist Regulierung notwendig?
Jugendschutz, Urheberrecht, Datenschutz und Zensur.
In Deutschland gibt es zur Selbstregulierung den Code of Conduct dem sich alle wichtigen Suchmaschinen und Portale angeschlossen haben. Das ist international einmalig. In den USA werden nur gerichtliche Einzelfallentscheidungen getroffen.

Die Filterung von Inhalten hält Herr Machill in demokratischen Staaten für zulässig und notwendig. Problematisch ist die Filterung in Staaten wie China. Hier wurde speziell für Google und Yahoo! Filterung nachgewiesen.

Suchmaschinen als Wirtschaftszweig sind Big Business. Das Suchmaschinenmarketing ist sehr wichtig. Google erzielte im Jahr 2005 rund 99% aller Einnahmen aus Werbung.
Suchmaschinen können manipuliert werden. Die Manipulation durch Suchmaschinenoptimierer beinflusst die Qualität der Suchergebnisse. Machill lobte das Gütesiegel welches an SEO vom BDVW vergeben wird. (Sicherlich in Unkenntnis der tatsächlichen Vergabepraxis.)

Journalisten recherchieren fast täglich mit Suchmaschinen. Es besteht das Risiko der Wirklichkeitsverzerrung. Die Uni Leipzig entwickelt Handlungsempfehlungen für Journalisten.
Offen blieb die Frage, wie eine internationale Selbstregulierung organisiert werden könnte. Eine bessere Präsentation der Suchmaschinenergebnisse ist notwendig.

Wolfgang Wahlster, DFKI

These: Heute führt Google, morgen SmartWeb (BMBF)
SmartWeb gibt konkrete Antworten, statt Listen von Treffern. Nicht einzelne Dokumente sondern konkrete Informationen aus den Dokumenten werden geliefert (Bilder, Tabellen,…). Als Beispiel wurde die Frage nach dem Umsatz des deutschen Industriekonzerns Siemens aus dem Jahr 2005 gestellt. Die Antwort kam in Form einer Tabelle welche aus einem Dokument extrahiert wurde. Im Gegensatz zu konventionellen Suchmaschinen gibt es in in SmartWeb keine Werbung obwohl sich SmartWeb u.a. der Suchmaschine Google bedient. (Anmerkung: Kaum vorstellbar das sich diese nutzerfreundliche Version kommerziell durchsetzen kann). Für SmartWeb müssen Informationsmodule, die Daten extrahieren, trainiert werden. PDF-Dateien werden in HTML konvertiert und Bilder mit Anmerkungen (Annotationen) versehen. Es wird mit kamerabasierter Objekterkennung gearbeitet. Beispiel: Mit Fotokamera wird das Plakat eines Kinofilms aufgenommen. Daraus resultiert die Frage: Wo läuft gerade dieser Film?
Andere Fragen die zu beantworten sind: Wo gibt es hier den billigsten Diesel? Wo wird heute geblitzt?
Oder die Erfüllung von Wünschen. In diesem Besipiel an das Autoradio gerichtet: Spiele mir das Lied “irgendwie, irgendwo, irgendwann”. Der Nutzer wird systematisch zum gewünschten Titel geführt.

Minerva – P2P für Websuche
Minerva basiert auf einem verteilten Index, der skalierbar und selbstorganisierend arbeitet. Soziale Komponenten wie Bookmarks, Social Tags, Frage und Klickhistorie werden berücksichtigt.

Theseus
das Projekt soll im Sommer 2007 offiziell starten.
Es gab keine Einigung mit dem französischen Projekt Quaero, weil die deutschen Vertreter mehr möchten als nur die heutigen Funktionen von Google kopieren. Schwerpunkt von Theseus liegt auf Web3.0.
Web 3.0 = Sematisches Web + Web 2.0.
Komplexe Anfragen können nur durch die Komposition von Webdiensten wie Webservices, Wrapper, Bildextraktion usw. beantwortet werden.

Thomas HofmannGoogle Schweiz

Als Ingenieur gab Thomas Hofmann in einem stark gerafften Vortrag vor allem technische Informationen.
Google möchte keine Antwortmaschine sein. Nutzer sollen Antworten im Kontext bekommen.

Google betreibt eines der leistungsfähigsten Rechnernetzwerke der Welt. Dennoch gibt es zunehmend die Erkenntnis, dass nicht alle Inhalte aufgenommen werden können. Es müssen Entscheidungen getroffen werden. Das passiert u.a über den Google PageRank einer Seite.
Google arbeitet mit eigener Software um die riesigen Datenmengen zu managen. Dazu gehören Google File System, Big Table, Map Reduce,…
10 bis 20% der Inhalte des Webs wechseln monatlich.

Die Sprachkorrektur (Spell Checker) arbeitet mit statistischen Ähnlichkeitsmodellen. Obwohl diese Funktion gut funktioniert ist sie nicht perfekt.

Einige Ausführungen galten der Qualitätsmessung von Google. Das Quality Management von Google enthält viele Ideen und Innovationen. Eigene Messungen bei Google bestätigen andere Untersuchungen. Z.B. dass der erste Treffer bevorzugt angeklickt wird. Selbst wenn Treffer 1 und 2 “gewaltsam” vertauscht werden. Nutzer beurteilen weniger die Relevanz der Treffer als deren Position in der Ergebnisliste. Ein Nutzerverhalten das Google kritisch beurteilt.

Human Quality Raters beurteilen zusätzlich die Relevanz der Ergebnisse. Das heisst, menschliche Beurteilung fliesst in das Ranking der Ergebnisse ein. Auf meine Nachfrage erklärte Thomas Hofmann, dass die menschliche Beurteilung jedoch immer nur dazu verwendet würde, um die Algorithmen zu verbessern. Eine direkte menschliche Beinflussung der Ergebnisse würde nicht stattfinden.
Siehe dazu auch: Suchmaschine Google arbeitet mit Redakteuren

Abschliessend wurden einige Funktionen der Google Suchmaschine vorgestellt:

– Fragen verfeinern: Auswahl v. Wortvariationen und Synonymen
– Fakten Antworten: Auszug aus z.B. Wikipedia
– Timeline und Navigationsbar
Siehe auch: Google experimental

Schwerpunkte zukünftiger Google-Entwicklung liegen auf strukturierten Daten und Personalisierung der Ergebnisse.

Der Soziologe Rudi Schmiede – TU Darmstadt

wies auf die zukünftige Spaltung in digital/ nicht digital hin. Es besteht die Gefahr der Umwertung von Wissen. gegoogelt/nicht gegoogelt, digital/nicht digital statt wahr/falsch. Quatsch-Explosion droht Wissen Erfahrung und Urteilskraft zu verdrängen (Wersig).

acatech

VN:F [1.9.22_1171]
Beitrag bewerten
Rating: 0.0/5 (0 votes cast)


Share
Kategorie: Suchmaschinen

2 Kommentare to “Wie arbeiten die Suchmaschinen von morgen?”

  1. Website Boosting says:

    Man mag smartweb ja die Daumen drücken. Aber so viele Unternehmen UND auch noch gefördert… gab es denn schon mal ein Forschungsprojekt, dass in dieser Konstellation funktioniert hätte?
    Hmmm…wohin Steuergelder überall fließen… Galileo lässt grüßten!

  2. netzmedium » Blog Archive » Bericht vom acatech-Symposium in Berlin says:

    […] komme ich nun endlich mal dazu, vom acatech-Symposium in Berlin am 31.5. zu berichten. Im @-web-Newsletter gab es schon eine ausführliche […]

Eine Nachricht hinterlassen