Alles zu Suchmaschinen: Suchfibel Startseite


suchmaschinen


Suchfibel / Gastbeiträge / Wohin gehen die spezialisierten Suchmaschinen ?

Wohin gehen die spezialisierten Suchmaschinen ?

von Stefan R. Müller

Der Ausdruck "spezialisierte Suchmaschine" dürfte vielen Suchmaschinen-Entwicklern, -Betreibern und -Kennern sicherlich paradox erscheinen, wenn man unter einer Internet-Suchmaschine ein System sehen möchte, das angemeldete Webseiten über einen Robot erfaßt, klassifiziert und in Datenbanken ablegt. Dem eigentlichen Suchautomaten kommt dann die Aufgabe zu, in diesem nicht vorhersehbaren Wust an Verweisen möglichst zielsicher etwas zu finden, und die Mengen an alternativen Antworten möglichst übersichtlich und selbsterklärend zu gestalten.

Ich möchte hier zeigen, daß der obige Absatz nicht ausreicht, um eine Suchmaschine allgemein zu beschreiben und stütze mich dabei auf den Einsatz und den Ansprüchen sogenannter spezialisierter Suchmaschinen. Und ich schließe diesen Aufsatz mit einigen selbstgestrickten Mutmaßungen über die mögliche Zukunft derartiger Suchmaschinen, die sich auf die zu erwartenden Stärken und Schwächen gegenüber allgemein gehaltenen Suchmaschinen begründen lassen. Man möge mir verzeihen, daß sich meine Beispiele an meinem Alltag orientieren.

Daten erfassen, einsortieren und durchsuchen

Es gibt Leute, die trennen zwischen dem Erfassen von Daten und dem Suchen in den Daten. Folgt man dieser Trennung, dann ist nur letzteres die Suchmaschine und es stellt sich die Frage, wie man das erste am besten und am vernünftigsten anstellen kann

Die Erfassung der Webseiten und das Crawlen entlang der internen Links ist nur ein Verfahren, aber es setzt voraus, daß der Robot überhaupt "weiß", daß es diese Seiten gibt. Im Allgemeinen erfolgt dies durch die Anmeldung der Webseiten beim Robot.

Will man aber eine Spezialisierung durchführen, nach welchen Maßstäben auch immer, dann muß das Robotsystem in der Lage sein, die zur Spezialisierung passenden von den unpassenden Seiten zu trennen. Eine Spezialisierung liegt beispielsweise schon dann vor, wenn man nur deutschsprachige Seiten indizieren möchte. Der Robot muß also erkennen, daß es sich um deutschsprachige Texte in den Webseiten handelt. Das ist schon ein gewaltiges Kunststück. Man kann sagen, daß Seiten auf einem Server mit der .de-Domain deutschsprachig sind. Wie gesagt, man kann es sagen, das Sagen allein macht sie aber noch nicht deutschsprachig. Klar, es wäre gut, wenn der Robot den Unterschied zwischen Deutsch und jeder anderen Sprache erkennen würde. Das ist gar nicht mal so einfach, wie man sich das denkt.

Wir sprachen eben nur von einer Spezialisierung nach einer bestimmten Sprache. Setzen wir doch einmal einen drauf, und spezialisieren nun nach einem bestimmten Thema. Um zu entscheiden, ob ein Text zum Thema paßt oder nicht, muß man schon fachkundig sein. Solange sich die Gelehrten oft genug streiten, was zu welchem Thema gehört und was nicht, ist das eine Leistung, die ein Robot auch nicht so ohne weiteres beherrschen wird. Vor allem aber müßte der Robot etwas können, was selbst ein Mensch nicht nur Robots nicht erklären kann: Einen Text inhaltlich verstehen.

Bei dieser eher philosophischen Betrachtung gehen wir ja noch davon aus, daß die Quelle "rein" ist und nur noch differenziert werden muß. Sie ist aber nicht "rein". Genauer, es ist eher unwahrscheinlich, daß sich Anmelder von Webseiten an das Fairplay halten und keiner versuchen wird, den eingegrenzten und differenzierten Themenbereich zu durchbrechen. Wie wenig brauchbare Anmeldungen bei themenspezifischen Suchmaschinen landen, können die Betreiber solcher Suchmaschinen bestätigen. Zudem scheint das Sendungsbewußtsein bei manchen Autoren sehr groß zu sein. Wenn ich eine Suchmaschine für Philosophie bauen würde, und die dann oft genug in der Presse erscheint, so wird sich jeder, der sich für ein Genie hält, auch in einer solchen Suchmaschine per Anmeldung verewigen wollen. Man spricht in diesem Fall vom "Versanden" einer Suchmaschine.

Relevanz und Vollständigkeitsnähe in der Spezialisierung

Obwohl damit der Arbeitsaufwand extrem ansteigt, müssen die Betreiber spezialisierter Suchmaschinen notwendigerweise jede Anmeldung redaktionell begleiten.

Das wesentliche Kriterium einer spezialisierten Suchmaschine ist Relevanz und zusammen mit annähernder Vollständigkeit kann man daraus den Anspruch "Kompetenz" schmieden. Genau daran werden spezialisierte Suchmaschinen von den äußerst kritischen Besuchern gemessen, nach nichts anderem. Und dies gilt eigentlich nicht nur für spezialisierte Suchmaschinen.

Relevanz bedeutet, daß die Treffer zum Kontext der Suchabfrage passen. Kleine Abweichungen sind erlaubt, aber diese dürfen nicht all zu sehr selbst einen gutgemeinten Glauben an einen Zusammenhang strapazieren, sonst trägt so etwas eher zur Belustigung oder zum Desinteresse bei. Doch was aber ist Relevanz? Sie ist vorallem subjektiv. Es bedeutet nämlich nichts anderes, als die Welt und nicht nur die Webseiten zu ordnen, nach eigenem Gutdünken.

Wäre es nicht so beliebt, die Robots bewußt zu täuschen, indem gezielt mit falsch gewählten Metainformationen (Spam) Vorteile bei eventuellen Varianzverfahren der entsprechenden Suchmaschine herauszugekitzeln, dann würde es sogar Sinn machen, zur Spezialisierung eine automatische Erfassung in Betracht zu ziehen. Diese könnte sich an der Verschlagwortung orientieren, die die Autoren und Anmelder selbst für ihre Seiten vorgenommen haben. Aber auch hier wird deutlich, daß ein Stichwort wie "Philosophie" recht häufig am falschen Platz sitzen kann, und um ehrlich zu sein, es sitzt eher selten am richtigen Platz. Dies muß nicht aus Boshaftigkeit geschehen, aber es ist anzunehmen, daß viele Autoren die Kategorisierung ihrer Werke eher falsch einschätzen. Dies ist insofern nicht verwunderlich, da jede Form der Kategorisierung nicht vom Himmel fällt, sondern Weltanschauungen und Gewohnheiten unterliegt. Dies zeigt das Beispiel der Webkataloge. In eher evangelisch dominierenden Regionen würde man der Tradition wegen "Philosophie" anders kategorisieren als in katholischen Gemeinden. Bei den einen kann es schon mal unter "Kunst" zu finden sein, bei den anderen unter "Geisteswissenschaften" und bei wieder anderen unter "Bildung". Manches würde man zur Philosophie zählen, was bei anderen einfach nicht dazu gehört. Kategorien sind nun mal nicht von Gott gegeben, sondern werden von Menschen einfach in den Raum gestellt, in der Hoffnung, mie einem solchen Entwurf ließe sich die Welt am besten ordnen. Wie oft diese Ordungen durcheinandergeraten können, kann man aus der Menschheitsgeschichte studieren. Zwangsläufig ist einem zentralistisch organisiertem Katalog dann daran gelegen, lieber seine eigene Ordnung der Dinge durch einen Katalog zu manifestieren.

Noch ein kleines Problem, aber das nur hier am Rande, die Verschlagwortung für allgemeine Suchmaschinen ist allgemein, die für spezialisierte Suchmachinen muß innerhalb des gewünschten speziellen Kategoriezweiges getroffen werden. Dieses Problem ist bisher noch nicht gelöst. Was für das Allgemeine gut ist, muß für das Spezielle nicht unbedingt treffend sein.

Kompetenz durch eine Redaktion

Nicht zu letzt führen auch diese Überlegungen zum Schluß, daß eine kompetente spezialisierte Suchmaschine nach dem Stand der Dinge nur durch ein redaktionelles Team "betreut" werden kann. Und dies legt auch den Schluß nahe, daß eine spezialisierte Suchmaschine eben auch nur so gut sein kann, wie die Redaktion es ist. Spezialisierte Suchmaschinen unterliegen dann nicht mehr allein informationstheoretischen Überlegungen, sondern ganz deutlich den Gesetzen der Medien. Ein paar Millionen Mark in den Suchmaschinenautomaten gestopft und nur ein wenig Trinkgeld an die Redaktion macht keine gute und kompetente, spezialisierte Suchmaschine. Da es aber um die zahlreichen Spezialsucher nicht viel Medienrummel gibt, und diese auch nicht viel Aufmerksamkeit genießen, kann eigentlich jeder schnell ein paar Links durchsuchen lassen und hübsche Webseiten drum herum kleben. Es würde auf Anhieb keiner merken, wenn dabei mehr Schein als Sein vorliegt. Und leider passiert dies auch. Denn Spezialisierung als marketingwirksames Attribut auf der Titelseite macht zwar noch keine gute spezialisierte Suchmaschine, aber immerhin schon einen guten Eindruck. Die enge Verbindung zwischen Begriffen wie "Kompetenz" und "spezialisierte Suchmaschine" wird auch dazu führen, daß man Kompetenz durch scheinbare Spezialisten vortäuschen kann.

Nun befinden wir uns in der Situation, daß es einige gute Spezialisten gibt, die natürlich nicht Millionen von Webseiten durchsuchen und ein eher klägliches Dasein am Rande des Suchmaschinenhimmels führen. Spezialsucher haben nun einmal das Problem, daß sie nicht allen und jeden ansprechen, sondern eben diejenigen, denen an eine solche Spezialiserung thematisch, regional oder auf die Benutzergruppen bezogen, liegt. Suchmaschinen werden immer noch an der Masse ihrer Daten und Visists gemessen, nicht an ihren Inhalten. Für die Qualität der Information im Internet ist eine Unterschätzung der Spezialisten nicht sehr günstig. Denn allgemeine Suchmaschinen sind nicht immer den spezialisierten Suchanfragen der Besucher gewachsen. Fast ist es eher der Zufall, wenn man dann tatsächlich einen Treffer erzielt, der eine Antwort liefert, die das Problem zu lösen vermag. Dazu kommt, daß redaktionelle Arbeit emsig und mühevoll, daher also teuer ist, und das kann sich kaum eine kleine Suchmaschine leisten. Was bedeutet, daß fast alle Spezialisten die nicht reißerische Themen wie "Erotik" und "Free Download" anbieten, ein enormes Potential an Engagement mitbringen müssen, insbesondere dann, wenn sie einen Themenbereich abarbeiten, der keine Werbeeinnahmen und Massenbegeisterung verspricht. Andersherum ist ein irgendwie zusammengesetzter Erotik-Guide, der massenhaft Besucher garantiert, bereits vielerorts zum Einstiegsspezialisten geworden. Es geht also, wenn man will.

Zunehmende Bedeutung der Spezialsucher

Die Bedeutung der Spezialisten wird leider noch zu sehr unterschätzt. Relativ schnell wachsen sie zu kleinen "Portalen" für ihren Bereich heran, was nicht weiter verwundert, sind sie doch meist die einzige Vernetzungsinstanz in bestimmten Bereichen, und geben sie auch den Leuten eine Chance, die nicht im Medienrummel auffallen. Sie sind daher zwangsläufig näher am Thema und am "Volk", nicht nur bei den themeninteressierten Surfern. Sie hegen und pflegen jeden einzelnen ihrer Besucher. Und es ist nicht selten, daß sie auch ihren Besuchern Platz zum Mitmachen lassen. Dies mag verwundern. Der Glaube, daß eine Suchmaschine, die sich nicht spezialisiert und stattdessen möglichst vollständig allgemein beliebte Themen abdeckt, die Massen erreiche, ist nur ein Werbetrick oder, um es mal boshaft zu deuten, Aberglaube. Die Leute bleiben nicht lange und nutzen allgemeine Suchmaschinen zunehmend nur noch für das Grobe.

Ein weiterer Vorteil der Spezialisierung und Kompetenz einer Suchmaschine ist, daß sich solche Leute drum herum scharen können, die sich gern mit anderen zu dem ausgewählten Thema unterhalten möchten. Deshalb findet man bei guten Spezialisten nicht nur ein Gästebuch, sondern auch Foren speziell zu den bereichsinternen Themen. Die Kommunikation ist neben der Information das wichtigste Gut des Internets. Spezialisierte Suchmaschinen sind daher ein ideales Pflaster für ein "natürliches" Entstehen von Communities, die bei allgemeinen Suchmaschinen dann künstlich erzeugt werden müßten, gerade wegen des Mangels an dauerhafter Interessengleichheit. Es müssen künstliche Themen geschaffen werden, von denen "Lara Croft" eines ist, oder politisch aktuelle Konflikte ein weiteres.

Der nicht zu unterschätzende Vorteil, der die eigentliche Bedeutung von diesen spezialisierten Suchmaschinen hervorstechen läßt: Diese Suchmaschinen widmen sich vor allem den Themen, Regionen oder Besuchergruppen, die bei den allgemeinen Suchmaschinen zu kurz kommen, oder bereits völlig "versandet" sind. Bei Themen wie Erotik hingegen macht eine spezialiserte Suchmaschine weniger Sinn, denn das sind die Themen, die auch die allgemeinen bis in den letzten Winkeln des Internets schneller, vollständiger und aktueller zusammenstellen können.

Subjektivität durch die Redaktion statt automatisierte Willkür

Natürlich haben die Spezialisten Nachteile. Ein großer Nachteil, der jedem Besucher sofort auffallen und zu denken geben sollte, ist der, daß gegen die Willkür eines Robots die Subjektivität einer Redaktion gesetzt wird, und diese muß nicht immer mit der des jeweiligen Besuchers übereinstimmen. Kein redaktionelles Team kann die subjektiven Ansprüche der Besucher vollständig befriedigen, das soll es ja auch gar nicht. Sondern sie will lediglich ein Werkzeug schaffen, das zu den gewünschten Informationen führt. Dennoch ist ein solches System, trotz raffinierter manueller Verschlagwortung nicht unbedingt eine Bibliothek und auch kein Dokumentationswesen, sondern eben eine Redaktion, die sich selbst einen Sendeauftrag erteilt hat. Eine solche Redaktion unterscheidet sich von anderen nebst Kompetenz auch in der Moderation und in ihrem Engagement.

Sie bauen einen Suchschlitz und füttern die Datenbanken, weil sie etwas erreichen, bewegen, verändern möchten. Vorallem wollten sie Übersicht und einen schnellen gezielten Zugriff zu den themenrelevanten Daten (Webseiten) schaffen. Nur so macht es Sinn, den einen Link aufzunehmen, den anderen zu verwerfen. Es sind auch deshalb Redaktionen, weil sie nicht nur Bestände katalogisieren, sondern eben auf die "Jagd" gehen, selbst Quellen sammeln; genauso, wie es Journalisten tun, die Reportagen verfassen. Dies tun sie ja, um bei ihrer Arbeit das Attribut der Vollständigkeitsnähe nicht dem Zufall zu überlassen. Und hier lauert auch der unerbittliche Feind einer kompetenten Suchmaschine: Manches, was ganz wichtig für die Vollständigkeit wäre, gibt es einfach nicht im Netz. Diesem Problem stehen Robots nicht gegenüber, da sie ja nicht auf die "Jagd" gehen. Der Mangel an Engagement in der publizierenden Bevölkerung und bei entsprechenden Einrichtungen fällt meist auf die Spezialisten zurück. So lauten dann auch die Protestmails: "Eure Suchmaschine findet ja nichts zum Thema … Die ist aber doof ". Wo nichts ist, läßt sich leider auch nichts indizieren und schon gar nicht drauf verweisen.

Suchmaschinen zusammenfassen

So wie es in den Print- und elektronischen Medien mehrere Anbieter gibt, gibt es dann eben auch im Internet nicht eine, sondern oft mehrere Suchmaschinen zu einem Thema, oder sagen wir mal themenverwandte Suchmaschinen. Da stellt sich für den Benutzer die Frage, warum packen denn die sich nicht alle zusammen, ein Suchschlitz reicht doch? In der Tat. Hier setzt der Gedanke auf, die "Kompetenzzentren" zusammenzufassen, besser zusammenzuführen, z.B. durch Metasuchmaschinen, die meiner Meinung nach erst hier ihren Dienst am besten erfüllen können.

Um etwa in den Geisteswissenschaften nach etwas zu suchen, wäre eine solche Maschine in der Lage, gleichzeitig bei den Philosophen, den Psychologen, den Soziologen, und was es da alles geben mag, zu suchen. Es ist davon auszugehen, daß jede der Primärmaschinen gerade wegen ihrer fachkundigen Redaktionen nach besten Wissen und Gewissen antworten kann.

Überall, wo sich Themen als Subthemen einem übergeordneten Thema zuweisen lassen, können sich die Vielheiten der Kompetenzen in einer Metasuchmaschine sammeln. Soll bedeuten, wenn eine solche Metamaschine als ein dezentrales Projekt all die redaktionell bearbeiteten Daten der spezialisierten Suchmaschinen beinhaltet, dann begründet sich deren Kompetenz in der der Redaktionen der primären Maschinen. Und noch ein klein wenig mehr, der "Experten" bleibt kein "Fachchaot" mehr, im Gegenteil, er gewinnt durch eben die anderen an Kompetenz dazu. Klar, behaupte ich eine Binsenweisheit in der Psychologie, und will der Zufall es, daß bereits in der Philosophie zu diesem Thema ausgiebig diskutiert wurde, gewinnt die Philosophie an Bedeutung bei der Psychologie. Ähnlich ist das mit Autos und Angeln. Der schönste Angelplatz nützt ja nichts, wenn man ihn nicht erreichen kann, und das schnellste und beste Auto nützt nichts, wenn ich damit nicht zum Angeln fahren kann.

Umberto Eco nannte eine solch ähnliche Symbiose "Opera Mediale", in der es gelingen sollte, Fakten aus der Geschichte zu den politischen Geschehnissen, der damalige Mode, Musik und der sozialen Zustände in den Land- oder Stadtgebieten nicht nur einer Region, sondern möglichst aller Regionen zusammenzubringen. Wie man sieht, ein nicht gerade neuer Ansatz, wenngleich er aus der Philosophie kam. Hier kommt also am Ende eine Muttersuchmaschine heraus, die eigentlich, zumindest theoretisch, ziemlich kompetent antworten kann, und zudem in der Lage ist, anzugeben, worin sich ihre Kompetenz begründet, sie kann ins Speziellere verweisen, so wie es die alte logische Regel will: Vom Allgemeinen zum Speziellen. Sie, nur sie, wäre in der Lage, die Suche durch benutzerbedingten Differenzierungen in dem Kategoriesystem effizient zu fokuzieren. Allgemeine Suchmaschinen bräuchten hochintelligente Filter, die sich an einem automatiersierten Verstehen von Inhalten orientieren, und beim heutigen Stand der Dinge, eher Zufallstreffern gleichkämen. What´s related? Subjektivität!

Löcher im System mit eigenem Content unterfüttern

Kommen wir noch einmal zu den Löchern der Vollständigkeit, die am Kompetenzimage einer spezialisierten Suchmaschine immer kratzen werden. Diese lassen sich natürlich füllen. Fehlt bedeutsamer Content, so ist eine spezialisierte Suchmaschine aus Eigennutz daran interessiert, daß dieser geschaffen wird, sollte er sich nicht auffinden lassen. Spezialisierte Suchmaschinen neigen daher dazu, eigene Content-Seiten anzubieten, oder andere zu motivieren, solche zu schaffen. Hier wird wieder deutlich, daß ein Team einer spezialisierten Suchmaschine eine Redaktion ist. Das ist ein etwas unüblicher Ansatz, denn normalerweise macht man es sich zur Aufgabe, das zu durchsuchen, was da ist. Auch das unterscheidet eine robot-basierende Suchmaschine von einer spezialisierten Suchmaschine oder einem allgemeinen Katalog, denn auch ein solcher enthält nur das, was da ist, schafft aber selbst keine neuen Seiten, außer seine eigenen Katalogseiten natürlich.

Noch etwas ist anders als bei allen anderen Suchmaschinentypen. Da eine Redaktion jeden Eintrag kommentiert und selbst verschlagwortet, tut sie dies nicht nur im Kontext des Themas, sondern auch in steter inhaltlicher Abstimmung zu all den anderen Einträgen, aber immer noch so, daß ein Eintrag trotzdem für sich allein stehen kann. Auch dabei lassen sich Löcher in der Vollständigkeit stopfen. Und es wird deutlich, dass eine Volltextsuche bei einer guten Verschlagwortung unsinnig ist. Spezialisierte Suchmaschinen suchen nicht nach irgendwelchen Textstellen, sondern nach bestimmten Ausdrücken und wollen vom Anspruch her mit relevaten Ergebnissen contern und nicht nur mit irgendwelchen, möglichst vielen. Es soll ja nun nicht so sein, daß man in einer Suchmaschine für Philosophie irgendeinen Text oder Hinweis findet, in dem das Wort "Wahrheit" in irgendeinem Zusammenhang vorkommt, sondern daß man eben genau die Texte findet, die sich mit dem Begriff "Wahrheit" auseinandersetzen wollen. Robot-basierende Maschinen wissen nicht, was da alles im Topf ist. Sie setzen auf Volltextsuche, auch wenn neuerdings Feldsuche zur Verfeinerung hinzugekommen ist. Interessanterweise wollen auch sie erfassen, welche Ausdrücke von welcher Relevanz sind, um bei Varianzberechnungen der einen Seite Vorteile gegenüber der anderen Seiten zu ermöglichen. Allerdings, sie wissen nicht, was inhaltlich relevant ist, sondern nur, wie etwas formal als relevant deklariert wurde.

Mögliche Fusion von Spezialisten und Allgemeinen

Nebst sozialer Funktion durch die Vernetzung und durch die Kommunikationsmöglichkeiten, sowie der zu vermutenden Kompetenz, die sich wie oben behauptet aus Vollständigkeitsnähe und Relevanz zusammensetzt, gehört das Engagement und die Souveränität der betreibenden Redaktionen zum Aushängeschild einer spezialisierten Suchmaschine. Sie bauen eben nicht nur eine Suchmaschine, sondern sie bauen eine Infrastruktur im Netz auf. Je mehr es davon gibt, je facettenreicher die Suchräume sein mögen, desto mehr wird deutlich, welcher Druck da von unten kommt. Ein Druck, dem auch die großen Suchmaschinen ausgesetzt sind. Denn sie wissen zu genau, daß jede externe Spezialisierung eine Gefahr für die Hits auf einer allgemeinen Suchmaschine bedeutet, aber eben auch, und das ist weitaus interessanter, daß immer mehr Suchmaschinennutzer dadurch eine Basis finden, nach besseren und vorallem relevanten Treffern zu rufen.

So war der Weg in Richtung "Portal" ein Versuch, als Anlaufstelle zu dienen. Man sollte alle wichtigen Sachen sofort erreichen können, und alles weitere dann über den Suchschlitz erhalten. Die Rechnung geht nicht auf, denn eine Webseite ist zu klein um alles wichtige schnell erreichbar zu machen. Also mußten schon aus Übersichtsgründen Surflisten her, die über ihren Kategorienamen erreichbar sind. Am besten sogar noch, der Suchende muß gar nicht erst suchen. Aber so etwas läßt sich nicht eben mal so realisieren, denn auch solche Guides verlangen redaktionelle Systeme, in denen die spezialisierten Suchmaschinen bereits mehr Erfahrungen haben. Surfguides oder gepflegte Linklisten müssen mit dem Internet fest verwachsen sein. Sterben die Seiten, die kommentiert wurden, muß das im Surfguide geändert werden. Und Surfguides sollen ja als kleine Spezialisten dienen, bekommen also das Problem, bei zunehmender Größe durchsuchbar werden zu müssen. Da haben wir dann wieder die spezialisierten Suchmaschinen, die eben genau aus diesen Problematiken heraus erwachsen sind.

Und um es mal als Teufel an die Wand zu malen, aus dem Werkzeug Suchmaschine ist ein Sender im Internet geworden, alles wird von den Redaktionen und der Moderation abhängen, während der Suchschlitz mehr und mehr an Bedeutung verliert. Der Suchschlitz der eigentlichen allgemeinen Suchmaschine wird nicht überflüssig. Keineswegs. Er ist der letzte Weg für einen Besucher, der nach Informationen sucht, vor allem nach solchen, die nicht auf dem ersten Blick erreichbar sind.

Aber, um das noch einmal zu wiederholen, diese Spezialisten sind keine Lara Croft oder Miss Internet Moderationen, sondern verlangen natürlich ein sachkundiges Personal, wie ich oben schon darstellte, eben eine kompetente und lebendige Redaktion, die allerdings nicht nur einordnet und vorstellt, sondern für die Masse der Besucher ansprechbar sein sollte. Diese Surfguides berichten nicht nur von dem Kult Internet, sie gehören zu dem Kult Internet. Am besten man hat Redaktionen, die wiederum im Internet bekannte Redakteure haben, denn es ist schon eigenartig, wenn die bekannten und guten Leute bei der Konkurrenz herumsitzen. Bisher wird oft auf ein Team aus desinteressierten und schlecht vergüteten Jobbern zum Vorsurfen gesetzt, was nicht so schlau ist. Es sei denn, man setzt auf die Internet-Neulinge, die das alles noch nicht einordnen können, und sich noch erstaunen lassen, was für ein cooles Internet es gibt. Aber der immer gegenwärtigen drohende Breite und Tiefe des Internets wird man dadurch nicht gerecht, es sei denn man verschweigt ein paar Juwelen im Netz.

Zukunftssichernd aber sind professionelle Teams, am besten welche, deren Herzblut oder deren Unternehmen an dem Bereich hängt, den sie redaktionell bearbeiten. Denn das merken die Internetbenutzer sehr schnell, ob es sich um ein künstliches, auf cool getrimmtes Projekt, oder um echte Redaktionen handelt, denen man Kompetenz abkaufen kann.

Das Internet 2000++ wird zeigen, daß zwischen Kult und Kultur ein gewaltiger Unterschied liegt.

Hamburg - St. Pauli, 03.04.1999

Stefan R. Müller (smueller@suchfibel.de) vom Team der Blinden Kuh (www.blinde-kuh.de) der ersten deutschsprachigen Suchmaschine speziell für Kinder

Seitenanfang





Benutzerdefinierte Suche

Impressum | Hilfe | Buchbestellung



Created by 24.02.2009 ID: 229 SORT: 435 PAPA: 222
Suchfibel Home