Start>>Themen>>Global Commons>>


Rainer Kuhlen

Universal Access - Wem gehört Wissen?

1 Zusammenfassung

Die Frage nach dem Besitz an Wissen wird als die Frage nach dem Zugriff (Access) auf Wissen bzw. auf Information reformuliert. Antworten darauf entscheiden über die Entwicklung der Informationsgesellschaft. Die Präferenz dieser Bezeichnung gegenüber "Wissensgesellschaft" wird aus dem pragmatischen Informationsbegriff begründet. Von den insgesamt 6 vorgestellten Sichten auf "Informationsgesellschaft" wird näher auf die derzeit dominierende funktionale Sicht auf Wissen und Information eingegangen.

Rainer Kuhlen
ist Professor für Informationswissenschaft an der Universität Konstanz. Seine Forschungsschwerpunkte sind Experimentelles Information Retrieval, Hypertext, Informationsmarkt; Informationswirtschaft, elektronische Mehrwertdienste, elektronische Marktplätze, Kommunikationsforen, Medieninformation, Informationsassistenten/-agenten, Informationsethik und Informationspolitik.
Veröffentlichungen (Auswahl):Die Konsequenzen der Informationsassistenten. Was bedeutet informationelle Autonomie oder wie kann Vertrauen auf elektronischen Märkten gesichert werden? Frankfurt 1999.

Diese erklärt die gegenwärtigen Tendenzen der Kommerzialisierung und Wissensverwertung, aber auch der Transformation der Verhaltensformen gegenüber Wissen (z.B. Wechsel vom Kauf von Wissen zu dessen Leasing) mit den Konsequenzen des "Pricing for Information" und entsprechenden Kontrollverfahren des "Digital Rights Management". Im Ausgang von Differenzierungen im Begriff des "Access" werden Begründungen für "Universal access" vorgestellt, vor allem aus informationsethischer und normativ-prinzipalistischer Sicht. Ausführlich werden einige gegenwärtige Gefährdungen von "Universal access" an den Beispielen Filtern bzw. Abblocken, Manipulation von Metainformationsdiensten und des Leasing bzw. des "Digital Rights Management" diskutiert. "Digital Rights Management" ohne vertrauenssicherndes "User Rights Management" hat alle Potenziale, zum Folterinstrument der Informationsgesellschaft zu werden, aber auf der anderen Seite auch alle Potenziale, durch sozial gesteuerte Rechte- und Benutzerverwaltung das Instrument für Interessenausgleich und damit Informationsfrieden zu werden. Abschließend werden einige Vorschläge unterbreitet, wie das Prinzip des "Universal access" und damit der freie öffentliche Zugang zu Wissen und Information gesichert, zumindest gefördert werden kann. Aus der Diskussion leiten sich verschiedene mögliche Szenarien und die Schlußfolgerung ab, daß jede Zeit unter Anerkennung der technologischen und medialen Rahmenbedingungen ihren Konsens zwischen öffentlichem und privatem Interesse an Verwertung bzw. Austausch von Wissen und am Zugriff auf Wissen neu bestimmen muß.1

1 Die These

Die These, die sich hinter der Formulierung im Titel dieses Beitrags verbirgt, lautet: Über Erfolg im privaten und professionellen Umfeld und über die aktive Teilhabe am öffentlichen Geschehen entscheidet immer weniger der persönliche Besitz an Wissen, sondern der Zugang zu und der Zugriff auf Wissen (beides nehmen wir als Übersetzung von Access) . Zugang zu und Zugriff auf Wissen erfolgen nie direkt. Wir können nicht in die Gehirne anderer Menschen eindringen und uns deren Wissen aneignen. Wir sind auf repräsentiertes und medialisiertes Wissen angewiesen. Wissen wird heute zunehmend in digitalen Medien repräsentiert und auf elektronischen Märkten gehandelt, und zwar, wenn es nach dem Willen der WTO ginge, genauso wie bei allen anderen materiellen Gütern. Wir können die These auch anders formulieren: Nicht Wissensautonomie - realisiert als Wissenskompetenz, verstanden als die Fähigkeit, all das selber zu wissen, was bei anstehenden Problemen für deren Lösung benötigt wird - kann ein realistisches Bildungsziel in modernen Gesellschaften sein, sondern Informationsautonomie - realisiert als Informationskompetenz, verstanden als die Fähigkeit, sich den Zugang und den Zugriff auf die vorhandenen Ressourcen des Wissens und der Information zu sichern und die daraus erarbeiteten Informationen in ihrem Wahrheitswert und ihrer Handlungsrelevanz einschätzen zu können. Ist die erste Anforderung an Informationskompetenz eine politische und ökonomische Herausforderung, so ist die zweite eine Herausforderung an das Bildungssystem, alle Bürgerinnen und Bürger in die Lage zu versetzen, mit Information methodisch geschult und kritisch umgehen zu können.

Sicherlich ist Informationskompetenz nicht unabhängig von Wissenskompetenz zu sehen - wie sonst können Wahrheitswert und Handlungsrelevanz der selbst erarbeiteten oder von anderen vermittelten Information eingeschätzt werden? Die Philosophen haben das Urteilskraft genannt und dabei - entsprechend Kant - die analytische Urteilskraft als die Fähigkeit, neue Information unter bestehendes Wissen zu subsumieren, also neue Information in die passenden Wissensschubladen (Slots) einordnen zu können, von der reflektierenden Urteilskraft unterschieden, durch die nicht nur bestehendes Wissen erweitert oder auch nur bekräftigt werden kann, sondern durch die aus den bereitgestellten Informationen neues Wissen, neue Gesetzmäßigkeiten oder neue Handlungsanweisungen erarbeitet werden können.

Man muß also weiter viel wissen, um über qualitativ abgesicherte Kriterien zu verfügen, wie mit neuen Informationen kompetent umzugehen ist. Noch ist die Situation nicht abzusehen, in der uns die personalen und maschinellen Informationsassistenten nicht nur die Information erarbeiten, sondern uns auch sagen, ob diese richtig und handlungsrelevant ist oder sogar uns die Probleme definieren, für deren Lösung sie die Informationen liefern. In einem solchen Endstadium der Delegation der Informationszuständigkeit an die Assistenten wäre in der Tat kaum noch eigenes Wissen erforderlich. Das ist aber zum Glück vermutlich noch eine Weile eine unrealistische Dystopie, so daß nach wie vor fortlaufend Wissen als dauernder Besitz über neu eingegangene Informationen angeeignet werden muß.

Allerdings - und das wird unsere Einstellung zu Wissen und Information und unsere Strategien zum Erwerb von Kompetenz verändern - konkurriert dieser klassische Prozeß des individuellen Lernens zunehmend mehr mit den Situationen, in denen für Probleme, die aktuell zur Lösung anstehen, Wissen in Form von direkt verwertbarer Information aus den Marktressourcen abgerufen wird - zu den Ressourcen gehören natürlich auch die angesprochenen Informationsassistenten, personaler und technischer Art, deren Aufgabe es ist, Information an die zu vermitteln, die sie nicht selber erarbeiten können oder wollen. Information - sofern sie als handlungsrelevant eingeschätzt wird und auch einen akzeptablen (probablen) Grad an Wahrheitswert zu haben scheint - wird benutzt, aber nach Gebrauch oft wieder spurlos vergessen. Man lernt vermutlich immer weniger sozusagen auf Vorrat, sondern vertraut darauf, daß man in der Lage ist, das Wissen anderer, das Wissen in Systemen und Diensten bei Bedarf zu aktivieren. Aktivieren heißt nicht speichern. Wir haben es nicht in Besitz genommen, es steht auch zur Benutzung durch beliebig viele andere zur Verfügung, ganz gleich, ob es digital oder analog repräsentiert ist. Ob ich Wissen bei mir einspeichere oder eben nur als Information flüchtig benutze - es verbraucht sich nicht. Auch dies ist ein wichtiger oder sogar zentraler Aspekt bei der Beantwortung der Titelfrage. Man kann Wissen, einmal öffentlich gemacht, nie mehr exklusiv besitzen.

Unser Gehirn geht immer schon mit Information auf diese flüchtige Weise um - unmöglich, die vielen Millionen Informationseinheiten, die laufend durch jede Augenbewegung eingehen, zu speichern. Realisiert, gehandelt, vergessen, das ist das unumgängliche Ökonomieprinzip der Informationsverarbeitung. Diese allgemeine Gesetzmäßigkeit des Vergessens bzw. Ignorierens der einströmenden Visualisierungsdaten auf Wissensprozesse insgesamt zu übertragen, ist noch ein ungewohnter Gedanke, aber wird schrittweise Realität. Auch das war im Prinzip wohl schon immer so, aber die Auslagerung von Wissenskompetenz, verbunden mit der Informationskompetenz, externes Wissen aktivieren zu können, wird in der gegenwärtigen Welt zum Normalfall, um in vielen Situationen bestehen zu können. Immer mehr Wissen aus sehr heterogenen, keinesfalls kompetenzmäßig mehr individuell beherrschbaren Gebieten muß herbeigeschafft und kann nicht mehr vollständig behalten werden. Auf unseren eigenen Gedächtnisspeicher können wir uns nicht verlassen. Daher wird die Access-Frage, die Frage nach Zugang und Zugriff, zur entscheidenden in der Informationsgesellschaft, die damit die Wissensgesellschaft zu einer potentiellen macht. Access ist aber nur die eine Seite der Wissensmedaille. Wir sind bislang eher auf die Kompetenzfrage der Nutzer von Wissen und Information eingegangen und haben nur mit einem Nebensatz die ökonomische und politische Dimension der Frage nach Besitz von Wissen und der Sicherung von Informationskompetenz angedeutet. Access erstellt sich nicht von selber, sondern hängt davon ab, wie die Umsetzung von Wissen in Informationsprodukte organisiert ist bzw.

  • inwieweit also der Staat die rechtlichen Rahmenbedingungen schafft, daß nicht eine für die Entwicklung der Gesellschaft künstliche Verknappung des Zugriffs auf die das Wissen repräsentierenden Informationsprodukte entsteht bzw. positiver, weniger defensiv: wie die freien Zugriffsmöglichkeiten weiter verbessert werden können, und
  • inwieweit die Informationswirtschaft in der Lage ist, im digitalen Umfeld Organisations- und Geschäftsmodelle für den Umgang mit Wissen und Information zu entwickeln, die es ihr einerseits erlaubt, in die Produktion von Informationsgütern mit Aussicht auf Refinanzierung und Gewinn zu investieren, die aber andererseits für die Nutzer dieser Produkte auch unter finanziellen Gesichtspunkten so attraktiv sind, daß sie nicht gezwungen sind, die "offiziellen" Märkte zu vermeiden und auf den "inoffiziellen", von Seiten der Wirtschaft als illegal bezeichneten Parallelmärkten aktiv zu werden.

Metaphern dürfen nicht überstrapaziert werden. Aber Wissensgesellschaften können sich nur dann zum Nutzen aller entwickeln, wenn es gelingt, Informationsfrieden möglich zu machen. Gegenwärtig mag die Kennzeichnung "Informationskriege" zwar überzogen sein, aber massive Interessengegensätze, erst recht in der globalen Perspektive des Digital divide, bestimmen derzeit die Diskussion um den richtigen Umgang mit Wissen und Information. Urheber als Produzenten von Wissen sehen sich nicht mehr unbedingt in einem Boot mit den Verwertern von Wissen, zumindest nicht im wissenschaftlichen Bereich, zuweilen auch nicht mehr mit den klassischen Mittlern, den Bibliotheken, sondern organisieren, wie Initiativen gleich Open Archive Initiative (http://www.openarchives.org/), SPARC (http://www.arl.org/sparc) oder Public Library of Science (http://www.publiclibraryofscience.org/) nachdrücklich demonstrieren, die Selbsthilfe, die Direktversorgung.

Immer mehr Wissensnutzer aus den Publikumsmärkten empfinden gegenwärtige Praktiken der Kommerzialisierung von Wissen als nicht fair (zur Hochzeit von Napster waren es immerhin ca. 30 Millionen) und versuchen alternative Modelle des Zugriffs auf Wissen auszuprobieren, in der Regel dem Prinzip des "Information sharing" folgend. Davon wiederum sieht sich die Wissensindustrie in ihren Verwertungsansprüchen bedroht und versucht eine Verschärfung der Kontrolle durchzusetzen, in erster Linie über Techniken des "Digital Rights Management", durchaus mit starkem Druck auf die Politik, die entsprechend die rechtlichen Rahmenbedingungen anzupassen versucht . Bei einem solch massiven Aufprall von Interessen muß es zunächst darauf ankommen, die Positionen herauszuarbeiten, also den Diskurs offen zu halten.

Wir haben vor, unsere Diskussion wie folgt zu strukturieren. Wir stellen zunächst die zentralen Fragen zusammen, die mit "Universal access" und dem Besitz von Wissen und Information zusammenhängen und stellen diese Fragen in den Kontext verschiedener Sichten auf Wissens- und Informationsgesellschaften. Von diesen Sichten greifen wir in erster Linie die funktionale Sicht auf, die Sicht auf die Verwertung von Wissen und Information, weil hierdurch gegenwärtige Tendenzen, z.B. die Lizenzierung von Wissen und Information, deutlich werden. Anschließend nehmen wir die Access-Perspektive ein. Wir versuchen die Bedeutungsdifferenzen im Begriff "Access" und informationsethische Begründungen für "Universal access" herauszuarbeiten, zeigen einige Tendenzen auf, die "Universal and free access" bedrohen (können) und wollen am Ende einige Vorschläge unterbreiten, auf welcher Grundlage informationsbefriedete Wissensgesellschaften entstehen können. Das ist ein gewaltiges Programm und kann in einem kurzen Beitrag sicher nicht auch nur annähernd erschöpfend behandelt werden. Daher hat dieser Beitrag eher programmatischen Charakter und verzichtet bis auf wenige Ausnahmen auf belegende Referenzen und detaillierte Ausführungen. Das, so hofft der Verfasser, wird demnächst in einer größeren Studie zum Umgang mit Wissen und Information nachgeholt werden.

2 Grundlegende Fragen

Im Ausgang von der These - nicht Besitz von Wissen ist entscheidend, sondern "Access" - wollen wir uns mit den folgenden Fragen auseinandersetzen:

  1. Warum wird die Frage nach dem Besitz von Wissen, konkreter: nach der Verfügung über Wissen einerseits bzw. nach dem Zugriff auf Wissen andererseits, heute breit und kontrovers diskutiert, nachdem dies in der Vergangenheit nur die Informationsspezialisten anzugehen schien, die sich als Dokumentare, Archivare oder Bibliothekare schon darum kümmerten, daß der Zugriff auf publiziertes Wissen unproblematisch für jedermann und zu allgemein akzeptierten Bedingungen gewährleistet war?
  2. Was hat sich in unserem Verständnis von und in unserem Umgang mit Wissen und Information auf Grund welcher Rahmenbedingungen mit welchen Folgen verändert? Welche Begründungen werden vorgebracht, um die verschiedenen Positionen im Kontinuum zwischen gänzlicher privater Aneignung und vollständig öffentlichem Besitz plausibel zu machen? Welche Interessen stehen auf dem Spiel?
  3. Wodurch ist der Zugriff auf Wissen bedroht? Welche Tendenzen sind auf den internationalen Informationsmärkten auszumachen, die die bisherige Freizügigkeit zumindest bei der Nutzung der Internet-Dienste einschränken (können)?
  4. Was kann getan werden, um den Zugriff auf Wissen frei zu halten? Welche Aufgaben kommen staatlichen Institutionen zu? Was kann man von den Selbstregulierungsmechanismen der Informationsmärkte erwarten? Welche neuen Organisations- und Geschäftsmodelle für den Umgang mit Wissen und Information, auch im Zusammenspiel öffentlicher und privater Partner, zeichnen sich ab?

3 Wissens- bzw. Informationsgesellschaften

Viele reden heute von Wissensgesellschaft (und im Gefolge von anderen Wissensbegriffen, wie "Wissensordnung", "Wissensmanagement" etc.) , nachdem in den letzten 20 Jahren eher von "Informationsgesellschaft" gesprochen wurde. Wir wollen hier keine terminologische Grundsatzdiskussion über die Unterschiede zwischen "Wissen" und "Information" bzw. "Wissensgesellschaft" und "Informationsgesellschaft" führen , aber doch andeuten, daß wir weiterhin die Bezeichnung "Informationsgesellschaft" bevorzugen. Das ist aus unseren einleitenden Bemerkungen zur Wissensautonomie bzw. -kompetenz und zur Informationsautonomie bzw. -kompetenz schon ersichtlich. Auch wird nach unserer Einschätzung mit der Bezeichnung "Wissensgesellschaft" dem dynamischen Charakter von Information nur unzureichend Rechnung getragen und ein bildungspolitisches Ideal fast schon ideologisiert, das der Realität nicht (mehr) entspricht. Für die Zwecke dieses Artikels steht aber in der terminologischen Differenzierung nicht viel auf dem Spiel. Daher sehen wir im folgenden beide Begriffe als quasi-synonym an und verwenden der Einfachheit halber die Bezeichnung "Informationsgesellschaft". Auch wollen wir keine neue umfassende Definition den vielen existierenden hinzufügen, sondern machen lediglich zumindest sechs Sichten auf Informationsgesellschaft aus:

  1. Die Sicht der fortschreitenden Verwissenschaftlichung: Verwissenschaftlichung und damit einhergehend Formalisierung und weitergehend Informatisierung bestimmen tendenziell alle Lebensbereiche in modernen Gesellschaften. Was nicht formalisiert, algorithmisiert und entsprechend zur Verarbeitung an Computer übergeben werden kann, läuft Gefahr, marginalisiert zu werden. Die Informationsgesellschaft passt sich den Möglichkeiten der maschinellen Verarbeitung von Wissen und Information an.
  2. Die mediale Sicht: Der Paradigmenwechsel von analoger Wissensdarstellung und -verteilung zu den digitalen Medien hat durchaus revolutionäre Züge. Der mediale Wandel ist nicht neutral, sondern verändert - wie es die Medientheorie herausgearbeitet und mit guten empirischen Befunden belegt hat - sowohl die Inhalte dessen, was über die Medien transportiert wird, als auch das organisationelle und institutionelle Umfeld, das für die Produktion, Aufbereitung, Verteilung und Nutzung der neuen medialen Produkte zuständig ist (Deibert 1997). Nichts bleibt im Umfeld von Wissen und Information so, wie es lange im Gutenberg-Paradigma gültig war (Kuhlen 1995).
  3. Die funktionale Sicht: Eine Gesellschaft, in der Wissen und Information nicht als Zweck in sich selbst, als Befriedigung des Theoriebedürfnisses oder nur von Neugier gesehen wird, sondern funktional auf Innovations- und Wettbewerbsfähigkeit (in der Wirtschaft) oder Rationalität und Effizienz in Politik und Verwaltung bezogen ist (dazu gehört auch die folgende).
  4. Die makröokonomische Sicht: Eine Gesellschaft, in der der überwiegende Teil des Bruttosozialprodukts durch Wissensprodukte erwirtschaftet wird bzw. in der der überwiegende Teil der Arbeitsplätze durch Wissensarbeit (Primärproduktion, Aufbereitung, Verteilung/Bereitstellung/Vermarktung, Nutzung) bestimmt wird.
  5. Die soziale, gesellschaftspolitische Sicht: Eine Gesellschaft, in der die Menschen in allen Lebensbereichen (in privaten, sozialen, öffentlichen, professionellen Lebensräumen) den größten Teil ihrer Zeit mit Wissen bzw. Wissensprodukten, also in digitalen Informationsräumen verbringen.
  6. Die emanzipative Sicht: Eine Gesellschaft, in der jedermann als Voraussetzung für seine persönliche, soziale und professionelle Entwicklung freien Zugriff zum öffentlichen Wissen hat und in der jedermann informationelle Kompetenz entwickeln kann, um die im Prinzip vorhandenen Wissensressourcen richtig zu nutzen.

Alle sechs Sichten auf "Informationsgesellschaft" lassen erkennen, daß die Formen des Umgangs mit Wissen und Information, die Frage nach der Verfügung über Wissen bzw. des Zugriffs auf Wissen zentral Gegenwart und Zukunft aller Gesellschaften bestimmen. Damit ist erkennbar, warum im Sinne des obigen Fragenbündels unter (1) die Diskussion um Besitz und Nutzung von Information zentral geworden ist. Wir gehen nicht auf alle Sichten ausführlicher ein, sondern greifen vor allem die Probleme auf, die mit der zunehmenden Funktionalisierung von Wissen und Information entstanden sind.

4 Funktionalisierung von Wissen und Information

Wissen und Information werden unter den Bedingungen der sich ausdifferenzierenden modernen Gesellschaften in erster Linie als Produktivkräfte, Innovationspotentiale, aber auch als Reservoir für vielfältige Produkte der Freizeit- und Unterhaltungsindustrie angesehen. Wissen und Information sind nicht Selbstzweck, sondern sind unbedingt nötig, um andere Ziele zu erreichen, z.B. um bessere Autos zu produzieren, um bessere Krankenpflege zu leisten, um effizienter Steuererklärungen zu bearbeiten, um Demonstrationen in den Griff zu bekommen oder um entscheiden zu können, ob militärische Kontakte zu China abgebrochen werden sollen oder nicht.

Eine Informationsgesellschaft in diesem Verständnis ist dann als fortgeschritten anzusehen, wenn der Aufwand zur informationellen Absicherung von Aufgaben höher wird als für die Durchführung der Aufgabe selber. Das dürfte bei fast allen Gebieten der Industrieproduktion der Fall sein, bei Dienstleistungen, z.B. von Banken und Versicherungen, ohnehin, aber auch bei so gut wie allen Verwaltungsakten, die für sich schon nichts anderes als Information sind. Information und Wissen arbeiten also anderen Zwecken zu, wobei der (technische, personelle, methodische und finanzielle) Anteil der Informations- und Wissensarbeit am Gesamtaufwand für die Erstellung einer Leistung immer größer wird. Diese funktionale Sicht hat auch die Informationspolitik in den meisten fortgeschrittenen Länder in den letzten 20 Jahren bestimmt. Wissen und Information werden in den entsprechenden Förderprogrammen der Länder (insbesondere in den Fachinformationsprogrammen in Deutschland seit 1974 bis in die Gegenwart) mit aus der Ökonomie stammenden Begriffen wie "Innovationspotential" oder "Wettbewerbsfaktor" in Verbindung gebracht.

Entsprechend ist es zumindest in der Wirtschaft selbstverständlich geworden, daß die Nutzung von Wissen und Information nicht kostenlos ist und auch nicht sein kann, sondern daß für ihre Nutzung über die entsprechenden Produkte Gebühren gezahlt werden müssen, da in sie - in die Produkte, nicht unbedingt in das zugrundeliegende Wissen - von Seiten der Informationswirtschaft erhebliche Mittel investiert worden sind. Die dadurch entstandenen Gewinnanreize haben seit Mitte der 60er Jahre zur Entwicklung eines globalen Informationsmarktes geführt, auf dem Informationsprodukte und Informationsdienstleistungen in vielfältiger Ausprägung zunächst auch als öffentliche Leistung, dann aber zunehmend als kommerzielles Angebot gehandelt wurden. Das Wissens- und Informationsgebiet, das über die Archive, Bibliotheken und Dokumentationsstellen lange Zeit eher in einem friedlichen und öffentlich wenig beachteten Dornröschenschlaf war, ist durch diese Funktionalisierung und die damit einhergehende Kommerzialisierung quasi - wenn man in dem Bild bleiben darf - wachgeküßt worden, man kann auch sagen: Es hat seine Unschuld verloren.

Die Entwicklung der Informationsmärkte hat die Auslagerung von Wissen radikalisiert und damit die anfangs beschriebene Entwicklung in Richtung Informationsautonomie bzw. -kompetenz forciert. Auch heute ist in Organisationen jeder Art die Logistik für Information sicherlich weiterhin von der internen Kompetenz abhängig (die eigene Bibliothek, das Firmenarchiv, die Dokumentation und vor allem natürlich das Wissenskapital der Mitarbeiter, das über gegenwärtige Formen des Wissensmanagements aktiviert werden soll). Aber sie ist immer mehr von externer, eben auf den Informationsmärkten verfügbarer Information abhängig. Das verändert unsere Einstellung zu Information und Wissen. Jeremy Rifkin hat darauf hingewiesen, daß in der Informationsgesellschaft Wissen zunehmend weniger erworben, in der Regel gekauft und dann als Besitz verfügbar gehalten wird, sondern immer mehr nur noch "geleast" wird (Rifkin 2000). Man kann es auch in Fortsetzung der anfänglichen Argumentation anders sagen: Das Ethos des Lernens, so viel an Wissen - mit Kurzzeit- oder Langzeitperspektive - sich anzueignen wie irgend möglich, ist in der funktionalen Sicht der Informationsgesellschaft weitgehend zerstört.

Wissen wird zur verbrauchbaren Ware. Wenn ich nicht ausreichend Wissen habe, um handeln oder entscheiden zu können, muß ich es mir als Information beschaffen. Denn das, was ich mir beschaffe oder vermittelt bekomme, ist Information, also die Teilmenge an Wissen, die ich aktuell brauche, aber nicht selber habe. Die 20jährige Aufbauarbeit der Informationsmärkte hat ganz unabhängig von und zeitlich vor den Informationsangeboten der Internetdienste, hat über 10.000 Online-Datenbanken auf so gut wie allen Wissensgebieten entstehen lassen, in denen das Wissen der Welt, zumindest das publizierte und dokumentierte Wissen, zugriffsfähig, verwertbar, in Information umsetzbar gehalten wird. Das Wissen ist da, es muß nur als Information aktualisiert werden. Es kann genutzt, für die kritische Situation gebraucht und dann wieder vergessen, weggeworfen werden. Die Kosten, es zu lernen, d.h. in der Organisation irgendwie dauerhaft zu speichern, sind höher als die Kosten, es gegebenfalls. bei einer neuen Nutzung in einer anderen Situation erneut zu aktivieren.

Dies macht den für das Informationsgebiet noch neuen Leasing-Gedanken verständlich. Radikalisieren wir ihn! Die Priorität von Information über Wissen verschiebt die Frage nach dem Besitz von Wissen. Es wird unter der funktionalen Sicht von Wissen und Information, unter der Verwertungssicht, immer unwichtiger, Wissen zu besitzen, als vielmehr Information, also tatsächlich handlungsrelevantes Wissen, aktivieren zu können. Wir externalisieren unsere verfügbaren Bestände an Wissen, Unternehmen sprechen von "Outsourcing" und verstehen darunter zunehmend nicht nur die Auslagerung des Fuhrparks oder des Gehaltsabrechnungssystems, sondern eben auch die Auslagerung der Ressourcen des Wissens und der Wissenskompetenz.

In der Konsequenz des Informations- und Leasinggedankens liegt auch, daß nur noch für die reale Nutzung des angebotenen Wissens abgerechnet werden soll (manche verschärfen es sogar dahingehend, daß nicht nur die Nutzung, sondern der erzielte Nutzen (oder der Spaß) an der Nutzung die Grundlage für die Abrechnung sein sollte). "Pricing for information" nennt man das. Nicht die Produkte haben ihren Preis, sondern die in Anspruch genommene Leistung. Warum soll ein Pharmaunternehmen die gedruckte Ausgabe des in der Welt führenden Referateorgans der Chemie, Chemical Abstracts, mit einem mittleren 5stelligen Betrag für das Jahresabonnement erwerben, in seinen Gebäuden mit erheblichen Kosten aufstellen und mit noch mehr Kosten über Erschließungsverfahren zugänglich halten, wenn eine Online-Recherche auf den Informationsmärkten, für die einzeln vielleicht 1000.- DM bezahlt werden müssen, das aktuelle Informationsproblem lösen kann?

Längere Zeit sind aber auch diese Themen eher in der internen Fachdebatte geblieben, z.B. die Frage, welche Infrastruktur für Wissen und Information von welchen Institutionen (privat oder öffentlich rechtlich) vorgehalten werden muß, damit die entscheidenden volkswirtschaftlichen Bereiche - Wissenschaft, Technik, Wirtschaft, Medien, Politik und Verwaltung - mit Information zur Durchführung ihrer genuinen Aufgaben versorgt werden können. Diese Diskussion ist weitgehend unter den (bisherigen) Informationsprofessionellen und den professionellen Nutzern (überwiegend in der Wirtschaft) geführt worden. Und es hat die Öffentlichkeit wenig interessiert, daß die Informationsinfrastruktur in Deutschland in den letzten 20 Jahren unter dem Denkansatz einer neo-liberalen Wirtschaftspolitik tendenziell vollständig privatisiert und der kommerziellen Nutzung zugeführt wurde.

Es hat allerdings in der Gegenwart spektakuläre Beispiele im Schnittfeld Wissenschaft/Wirtschaft gegeben, die die Öffentlichkeit aufgerüttelt haben, z.B. die Vermarktung von Wissen durch den Amerikaner Craig Venter über die Firma Celera Genomics (http://www.celera.com). Erst jüngst hat Celera - nach Etappensiegen beim Genom des Menschen und der Fruchtfliege Drosophila melanogaster gegenüber dem öffentlichen finanzierten Human Genome Projects - den Anspruch erhoben, das Erbgut der Maus mit insgesamt 9,3 Milliarden Basenpaare Maus-DNA so gut wie komplett entschlüsselt zu haben. Das ist für Celera kein interessefreies Wissen, denn das Genom der Maus wird von der Pharmaindustrie als Werkzeug benutzt. Mäuse-Gene und Menschen-Gene entsprechen sich in der Funktion weitestgehend, so daß z.B. das Entstehen und das Bekämpfen von Krankheiten durch genetische Eingriffe an Mäusen studiert werden kann und entsprechende Medikamente entwickelt werden können. Aber auch trivialere Produktableitungen sind möglich. Durch "Data-Mining-Techniken" in der Celera-Datenbank konnten Geschmacksrezeptoren identifiziert werden, durch die Menschen und Mäuse Süßes rezipieren. Innerhalb dieses Genes gibt es Variationen, die erklären, weshalb manche Mäuse (und Menschen) einen "sweet tooth" haben, andere nicht. Das ist natürlich für Getränke- und Lebensmittelfirmen interessant, wenn neue künstliche Süßstoffe entwickelt werden sollen (celera.com 1.5.01).

Das Ventersche Genom-Vorhaben ist privat finanziert, auch wenn es natürlich umfassend auf Wissen, das durch andere Projekte wie das Human-Genom-Projekt erarbeitet wurde, und Ergebnisse der gesamten Gentechnologie- und Bioinformatik-Forschung zurückgreift. Wegen dieser privaten Finanzierung wird es als selbstverständlich, sicher aber als berechtigt und akzeptabel in unserer Gesellschaft angesehen, daß Celera das erarbeitete Wissen als Ware vermarkten will. Das geschieht dadurch, daß der Zugriff auf die Celera-Datenbanken bzw. die Benutzung des Celera Discovery System, d.i. das Auswertungssystem, für große Pharmafirmen bis zu $15 Mio. kosten soll. Kritische Bedenken aus der offenen Wissenschaft - der Wert der Daten sei zweifelhaft, da die kommerzielle Firma sich nicht dem wissenschaftlichen Anspruch auf öffentliche Überprüfbarkeit unterwerfe - zählen unter der funktionalen Perspektive kaum. Celera schließt die Veröffentlichung und freie Nutzung seiner Daten zwar nicht aus, will aber zunächst seinen Wissensvorsprung kommerziell nutzen. Daß dies auch ein andauernder Anspruch sein kann, zeigt die gegenwärtige Ausweitung der Patentierungs- und Urheberrechtsansprüche.

Wir haben keinesfalls vor, das komplizierte Thema des geistigen Eigentums an der (von Laien kaum nachvollziehbaren) Patentierbarkeit von Genen und Gen-Sequenzen hier zu diskutieren. Was kann aber an dem Genom-Beispiel für unsere Frage nach dem Besitz von Wissen abgeleitet werden?

  • Wissen und Öffentlichkeit gehören zusammen, wenn auch die Verbindung unterschiedliche Realisierungsstufen einnehmen kann.
  • Nicht auf Wissen wird Anspruch erhoben, sondern auf die Darstellungsformen von Wissen, die als Informationsprodukte angeboten werden.
  • Solange Wissen nur eine kognitive Struktur im Gehirn eines Menschen ist und bleibt, entstehen keine Besitzansprüche Dritter.
  • Da Wissen bislang nicht aus Gehirnen in andere Gehirne oder externe Speicher heruntergeladen werden kann, bleibt mein Wissen mein Wissen, und niemand kann mich hindern, mein Wissen zu meinem Gebrauch einzusetzen.
  • Es macht entsprechend keinen Sinn, die Frage nach dem Wissen als kognitive Struktur zu stellen, sondern nach Wissen in einer wie auch immer repräsentierten Form, also nach Information.

Diese Ausweitung des Wissensverständnisses, zumal mit der alle Wissensausprägungen umfassenden Digitalisierung, hat die Frage nach dem Besitz und der Verfügung über Wissen zum Gegenstand der öffentlichen Diskussion werden lassen - und zwar durch die Verlagerung der Fragestellung in die allgemeinen Publikumsmärkte. So wie das Internet bis noch Anfang der 90er Jahre so gut wie exklusiv die "Spielwiese" (manche sagen auch das Einübungsfeld für die spätere Wirtschaft) des freien Austauschs von Wissen in wissenschaftlichen Umgebungen war, so ist auch die Digitalisierung von Wissensgegenständen der allgemeinen Kultur-, Medien- und Alltagswelt erst neueren Datums.

Auf der Suche nach immer neuen Wissensprodukten und Informationsangeboten bleibt kein Wissens-Teilbereich der Gesellschaft von der Telemediatisierung (Telekommunikation, Multimedia, Informatik) ausgespart. Produkte der Wissenschaft werden als digitale Produkte genauso vermarktet wie Sportinformation, Musikprodukte jeder Art, Bürgerinformationen der Verwaltung, öffentliche Kulturobjekte und -aufführungen, bis hin zur Vermarktung des Privatbereichs in telemedialen Produkten ("Big brother"). Was alles möglich wird, läßt sich erahnen - z.B. die Übertragung der 1. Mai-Demonstrationen und -Auseinandersetzungen von dem für voyeuristische Bedürfnisse gefährlichen Mariannenplatz in Kreuzberg in die sicherere Umgebung der Auguststrasse in Berlin-Mitte via Web-Cam.

Wenden wir zum Abschluß dieser Diskussion die oben angesprochene Frage des "Pricing for Information" auf die allgemeinen Publikumsmärkte an. Bislang war es durchaus unüblich, die Güter der Freizeit- und Unterhaltungsindustrie auf "Wissen" zu beziehen (vgl. aber Anm. 3). Nicht zuletzt durch die fortschreitende Informatisierung aller Lebensbereiche ist dies anders geworden. Deren universale Reichweite ist auch darauf zurückzuführen, daß die Digitalisierung unabhängig vom Charakter ihrer Referenzobjekte ist. Theoretische Texte der Wissenschaft, politische Reden, Musik jeder Art, Filme, Bilder - alle sind Produkte menschlichen Geistes und können digital repräsentiert und entsprechend von Rechnern verarbeitet werden. Die Verfahren zum Aufbau elektronischer Informationsprodukte, zum Angebot, zum Verteilen und zur Nutzung sind im Prinzip die gleichen wie bei einer wissenschaftlichen Literaturdatenbank, einem medizinischen Expertensystem, einem fachspezifischen Lernhypertext oder einer Musik-CD, einem elektronischen Museumskatalog oder einer DVD. Die Ausweitung des allgemeinen Geschäftsmodells für Wissen und Information auf alle Wissensobjekte, wie wir sie neutral nennen können, in Richtung "Leasing" und "Pricing for Information" ist nur konsequent.

Warum sollen noch ganze Wörterbücher oder ganze Musik-CDs für immer gekauft werden, wenn nur Interesse an einem Artikel oder einem speziellen Song besteht und das auch nur für einen bestimmten Zeitraum und in speziellen Umgebungen (nur zu Hause, nur im Büro oder auch in beiden)? Krisensituationen wie die der Musikindustrie um die als Bedrohung oder Piraterie empfundene globale kostenfreie Nutzung bzw. Vermittlung von Musikstücken im "Peer-to-Peer-File-Sharing-Modell" haben gezeigt, daß die traditionelle Produktions- und Medienindustrie noch ganz in den Anfängen steht, die Lektionen der Informations- und Wissensgesellschaften zu lernen. Es macht keinen Sinn mehr, ganze Produkte, wie CD-ROMs, DVDs oder ganze elektronische Bücher, verkaufen zu wollen (bzw. keinen Sinn, ein Stapel an CDs zu besitzen), wenn diese jederzeit unter zu definierenden Bedingungen, und sei es bald über UMTS, genutzt werden können. In der Gegenwart hat das konsequent zur Entwicklung von Verfahren des "Digital Rights Management" (im folgenden DRM) geführt, also zur kontrollierten und genau definierten Abrechnung der aktuell genutzten Wissensobjekte. Wir gehen auf die Problematik solcher Verfahren in Abschnitt 5.3 näher ein, wollen aber schon hier anmerken, daß der Einsatz von perfektionierten Kontroll- und Abrechnungsverfahren kein Ersatz für neue, den digitalen Umgebungen angemessene Organisations- und Geschäftsmodelle sein kann (vgl. Abschnitt 7). Fassen wir zusammen, was wir bislang erarbeitet haben.

  • Durch den steigenden Bedarf nach Wissen für die Produktion neuer Güter nimmt Wissens- und Informationsarbeit einen immer höheren Anteil an dem Gesamtaufwand zur Produktion dieser Güter ein.
  • Durch die fortschreitende Informatisierung aller Gebiete, auch der intellektuellen Lebenswelt, weitet sich der Wissensbegriff auf die Objekte der allgemeinen Publikumsmärkte in Form von Musik, Bildern und Filmen aus. Die Wissens- und Informationsindustrie emanzipiert sich aus den Grenzen der Fachinformation und wird zur umfassenden Kulturindustrie moderner Gesellschaften.
  • Die funktionale Sichtweise und die Ausweitung des Wissensbegriffs machen die makroökonomische Aussage verständlich, daß mit Wissen und Information der größte Teil des Bruttosozialprodukts erwirtschaftet wird. Entsprechend schreitet die Kommerzialisierung von Wissen und Information voran, einhergehend mit perfektionierten und individuell differenzierten Verfahren der Kontrolle und Abrechnung der Nutzung von Wissensobjekten beliebiger Art.
  • Unter der Funktionalisierungs- und Verwertungsperspektive ist das Ziel nicht mehr Wissen als dauernder Besitz, sondern verwertbare, also handlungsrelevante Information. Das semantische Primat von Wissen verwandelt sich in ein pragmatisches Primat von Information. Wissen wird und muß immer weniger dauerhaft erworben (z.B. gelernt) werden, sondern kann selektiv - in einem bestimmten Umfang, für eine bestimmte Dauer, durch festzulegende Personen, etc. - genutzt bzw. geleast werden.
  • Nicht Wissen ist Macht, sondern das Wissen darüber, welche Wissensressourcen vorhanden sind und wie sie genutzt werden können. Anders formuliert: Der Zugriff auf Wissen entscheidet über die Nutzung von Wissen. Informationskompetenz ist wichtiger als die Kompetenz, Wissen selber zu haben.
  • Schon allein in (zeit)quantitativer Hinsicht verbringen zunehmend mehr Menschen mit der Beschäftigung mit Wissen und Information bzw. mit den Geräten und Diensten zu deren Verarbeitung und Nutzung den größten Teil ihres Daseins. Die "Face-to-File"-Situation wird gegenüber der "Face-to-Face"-Situation zum grundlegenden Kommunikationsmuster. Man kann auch sagen, wir leben zunehmend in digitalen Räumen. Die politische Herausforderung an die Informationsgesellschaft besteht daher in der Entwicklung einer Ökologie von Wissen und Information, wie also das Leben unter den Bedingungen digitaler Räume gut und gerecht organisiert werden kann.

Was also folgt aus diesem Zwischenstand? Die im Titel formulierte Frage "Wem gehört Wissen?" ist durchaus nicht bloß rhetorisch gemeint. Natürlich kann Wissen niemandem gehören, ebenso wie die Luft niemandem gehören kann. Wissen, in der klassischen Formulierung von Thomas Jefferson, eignet sich nicht für Eigentum. Es liegt im Wesen von Wissen, ein gesellschaftliches Gemeingut zu sein, setzt doch Wissen immer auf den Vorleistungen des Wissens Früherer auf, und wird doch die Erarbeitung von neuem Wissen überwiegend durch öffentliche Unterstützung finanziert, sei es direkt, wie an den meisten Universitäten und anderen öffentlichen Forschungseinrichtungen, oder sei es indirekt, indem Forschung und Entwicklung in der Wirtschaft (im Anteil etwa gleich verteilt zur öffentlichen Forschung und Entwicklung) auf öffentliches Wissen, aber vor allem auf die mit öffentlichen Mitteln ausgebildeten Personen zurückgreift. Die private Aneignung von Wissen, sei es zur privaten kommerziellen Verwertung, z.B. über Patente, oder sei es durch das Erstellen und Anbieten von gebührenpflichtigen Produkten, kann vom Prinzip her immer nur die Ausnahme sein. Das Bewußtsein für diese Priorität in der Wertehierarchie droht allerdings in der Gegenwart, wie man an der Debatte um die Reformulierung des Urheberrechts verfolgen kann , verloren zu gehen. In der Vision einer offenen Wissensgesellschaft sollte Wissen - so hat es André Gorz in seinem Beitrag zu der in diesem Band dokumentierten Konferenz formuliert - nicht nur als funktionalisierbares Fachwissen angesehen werden, sondern als Bestandteil von "Kultur" . Informations- und Wissensgesellschaften sollten vom Wesen her Kulturgesellschaften sein, in denen die nachhaltige Entwicklung der menschlichen Fähigkeiten und Beziehungen das entscheidende Ziel ist.

Über dieses Ziel sollte man sich verständigen können. Wie aber kann sich eine solchermaßen verstandene Wissens- bzw. Kulturgesellschaft realisieren? Nach unseren bisherigen Ausführungen nur über den Zugriff auf Wissen. Wir verschieben daher, wie angekündigt, das Thema des Besitzes von Wissen auf die Frage nach dem Zugriff auf Wissen. In einer Wissensgesellschaft soll der Zugriff für jeden offen gehalten werden und zwar zu, wenn schon nicht gebührenfreien, so doch fairen Bedingungen. Das entscheidende Mittel, um das Ziel der Wissens- bzw. Kulturgesellschaft zu erreichen, sollte der freie Zugriff (Access) auf Wissen und Information sein (ganz im doppelten Sinn des Französischen "libre et gratuit"). Sicherlich kann dieses Prinzip des freien Zugriffs nicht im Gegensatz zu dem Interesse der Informationswirtschaft stehen, mit oder über Wissens- und Informationsprodukte/n Gewinne zu erzielen - wird dadurch doch erst der gesellschaftliche Reichtum produziert, der die vielen anderen Leistungen der Kulturgesellschaft erst möglich macht. Aber im Konfliktfall muß die Priorität in der Wertehierarchie erhalten bleiben. Dazu gehen wir kurz auf theoretische, ethische, faktische Begründungen für "Universal access" ein. Die Frage dabei ist: Wie kann der freie, allgemeine Zugriff auf öffentliches (publiziertes) Wissen politisch, rechtlich, technologisch und faktisch durchgesetzt bzw. wie (letztlich ethisch) begründet werden?

In der angelsächsischen Welt werden solche Fragen häufig in einem konsequenzialistischen (utilitaristischen) Ansatz zu beantworten gesucht, nach dem Entscheidungen in letzter Konsequenz aus den positiven Folgen für das Gemeinwohl zu legitimieren sind. Ohne den Wert solcher Denkansätze bestreiten zu wollen, hilft das für die Beantwortung unserer Fragestellung nicht viel weiter. Denn unter der Annahme, daß nur eine frei operierende Wirtschaft ein freies Gemeinwesen hervorbringen kann, kann der utilitaristische Ansatz gleichermaßen für ökonomisch begründete Organisationsformen bzw. für kommerzielle Besitzansprüche auf Wissen verwendet werden wie für Zielvorstellungen der Zivilgesellschaft, daß sich offene, freie, demokratische Gesellschaften nur dann entwickeln können, wenn Wissen öffentlich sein kann und jedermann freien Zugriff auf öffentliches Wissen hat.

Dieses Dilemma hat vor allem in Europa dazu geführt, ethische Begründungen für den freien Zugang zu Wissen eher auf deontologische, prinzipalistische Denkansätze zu fußen, selbst eingedenk der Tatsache, daß diese sich in erster Linie auf die in der westlichen Welt, vor allem in der Philosophie der Aufklärung, entwickelten Prinzipien stützen, aber nun auch in globaler Perspektive Geltung haben sollen. Pragmatischer können wir davon ausgehen, daß es zahlreiche internationale Menschenrechtserklärungen, Konventionen, Deklarationen, Programme oder Empfehlungen gibt, die als Ersatz für ethisch prinzipalistisch begründete Antworten auf die Fragen nach dem Besitz von Wissen und nach freiem Zugriff auf Wissen dienen können:

  • In der Allgemeinen Erklärung der Menschenrechte (Universal Declaration of Human Rights) liefern Artikel 19 und Artikel 27 die menschenrechtliche, quasi deontologische Begründung für den freien Zugriff auf Wissen und Information: "Everyone has the right to freedom of opinion and expression; this right includes freedom to hold opinions without interference and to seek, receive and impart information and ideas through any media and regardless of frontiers" (Art. 19) bzw. Art. 27: "Everyone has the right freely to participate in the cultural life of the community, to enjoy the arts and to share in scientific advancement and its benefits".
  • Erneuert wird dies in Abschnitt 25 der zum 50. Jahrestag der Menschenrechtsformulierung verabschiedeten "United Nations Millennium Declaration": "To ensure the freedom of the media to perform their essential role and the right of the public to have access to information". Ähnliche Formulierungen finden sich in der Europäischen Menschenrechtskonvention (EMRK) des Europarates: "Everyone has the right to freedom of expression. This right shall include freedom to hold opinions and to receive and impart information and ideas without interference by public authority and regardless of frontiers" (Art. 10).
  • In der 2000 in Nizza vom Europäischen Rat verabschiedeten "Charta der Grundrechte der Europäischen Union" ist von "freiem Zugriff" zwar nicht die Rede, wenn auch Artikel 11 die Freiheit der Meinungsäußerung und Informationsfreiheit explizit aufgreift: "(1) Jede Person hat das Recht auf freie Meinungsäußerung. Dieses Recht schließt die Meinungsfreiheit und die Freiheit ein, Informationen und Ideen ohne behördliche Eingriffe und ohne Rücksicht auf Staatsgrenzen zu empfangen und weiterzugeben. (2) Die Freiheit der Medien und ihre Pluralität werden geachtet."
  • Die Okinawa Charter on Global Information Society der G8-Gruppe aus dem Jahr 2000 vermeidet, das Konzept des "Free access" direkt zu erwähnen. Entsprechend der US-amerikanischen Tradition des First Amendment, die auch G8 insgesamt beeinflußt, wird allerdings der Zusammenhang von Demokratie und freiem Informationsfluß betont: "The resilience of this society depends on democratic values that foster human development such as the free flow of information and knowledge" (Abschnitt 3). Vom freien Zugang ist nur die Rede im Zusammenhang von öffentlicher Information und nur, insofern "intellectual property rights" nicht verletzt werden (Abschnitt 10). Man kann es noch einmal drastischer formulieren: Das letztlich ethisch-politisch begründete Prinzip des "Universal access" wird zum ökonomischen Prinzip des freien Handels mit Information unter Berücksichtung des Urheberrechts (des Copyright) bzw. des Schutzes des geistigen Eigentums. Ähnlich wird es auch in Verlautbarungen der OECD, der WTO, von ITU, des amerikanischen, an die Digitalisierung von Wissen und Information angepaßten Copyrights (DMCA), aber auch in den WIPO-Verträgen (Copyright Treaty von 1996) und der EU-Richtlinie 2001/29/EG gesehen .
  • Die UNESCO kümmert sich entsprechend ihren Gegenstandsbereichen - Ausbildung, Wissenschaft, Kultur und Kommunikation - unter den UN-Organisationen federführend um den freien Zugriff zu Wissen und Information. Die UNESCO hat im letzten Jahr ein neues zwischenstaatliches Programm "Information for All" (INFA) verabschiedet. Dort heißt es im ersten Absatz der Präambel: "Information and knowledge are essential to the advancement of education, science, culture and communication, to empowerment, to the promotion of cultural diversity and to fostering of open governance. UNESCO's mandate «to promote the free flow of ideas by word and image» (Constitution of UNESCO, Article I) clearly indicates the part that the Organization is called upon to play in making information and knowledge freely accessible to all, with the ultimate objective of bridging the gap between the information rich and the information poor" (Abschnitt 6 der Präambel).
  • Natürlich sieht auch die UNESCO den wachsenden Einfluß der international sich ausweitenden Informations- und zunehmend auch Kulturwirtschaft, für die Wissen und Information Warencharakter wie andere materielle Güter auch haben. UNESCO setzt daher verstärkt auf "information in the public domain", auf "conservation and protection of the world's recorded knowledge" und auf internationale Netzwerke "among key institutions, such as archives, libraries, and other information centres", die mehr denn je die Mittlerrolle für den freien Zugang zur Information wahrnehmen sollen. "Information für alle" bedeutet programmatisch: "Give the people of all countries access to printed and published material produced by any of them" und "free exchange of ideas and knowledge and to increase the means of communication between peoples" (Abschnitt 7 der Präambel).

5 Gefährdungen des Universal access

5.1 Filtern bzw. Blocken

Wir haben in Anmerkung 1 ausgeführt, daß "Access" auch das Recht bedeuten kann, das abblocken zu können, was "Spam" (ungewollte Werbung) oder als verletzende Information (Kinderpornographie, Gewalt, Sexismus, politischer Radikalismus) nicht in den eigenen Informationsraum kommen soll. Die Debatte um den Einsatz von Filter- und Abblockverfahren wird höchst kontrovers geführt . Die emphatisch Zustimmenden sehen die Chance (oder sogar die Notwendigkeit), durch Filter- und Abblockverfahren die Kontrolle über Internet-Inhalte dadurch zu behalten, daß Information mit deren Hilfe selektiv behandelt werden kann. Die kategorisch Ablehnenden wittern die Gefahr des Einstiegs in eine umfassende Internet-Zensur - und sei es nur in eine Selbstzensur (ACLU 1997; GILC 1999) und sehen in Abblockverfahren eine Bedrohung des freien Informationsaustauschs in globaler Dimension, erst recht dann, wenn sie entweder aus ökonomischen Interessen oder über staatlich-interventionistische Regulierungsmaßnahmen oder andere Auflagen erzwungen werden.

Wie viele andere technische Verfahren sind auch Filter- und Ablockverfahren ambivalent in ihrer Wirkung. Sie können für das positive Ziel der Zustellung nur erwünschter Information verwendet werden, indem sie z.B. belästigende Werbeinformation oder sonstige störende, beleidigende oder verletzende Information ausfiltern oder zur zielgerechten, interessenadaptiven Selektion von ansonsten nicht mehr überschaubarer Medieninformation eingesetzt werden. Sie können aus polizeilichen Ermittlungs- bzw. nachrichtendienstlichen Interessen ebenso verwendet werden wie zur Kontrolle des Navigationsverhaltens von Angestellten einer Firma. Sie können Eltern entlasten, die ihren Erziehungsauftrag wegen Überlastung an Software abgeben wollen. Sie können auch als Formen der freiwilligen Selbstkontrolle der Wirtschaft bzw. von Anbietern von Internet-Angeboten jeder Art begriffen werden, durch die ein (ansonsten als nicht vermeidbar angesehenes) Eingreifen des Staates mit regulierenden bzw. gesetzgeberischen Maßnahmen verhindert werden soll. "Access" scheint aus dieser Perspektive kein universales Recht zu sein, wenn aus anderen, als höherwertig empfundenen Gründen, z.B. des Jugendschutzes oder der Verbrechensbekämpfung, der Zugriff eingeschränkt wird.

Filter- und Abblocktechniken wie auch allgemeinere Überwachungstechniken kommen ordnungspolitischen Interessen entgegen und scheinen auch den Moralvorstellungen der Mehrheit in gegenwärtigen bürgerlichen Gesellschaften zu entsprechen. In so gut wie allen Staaten, die das Internet nicht nur positiv für die demokratische Entwicklung sehen, hat es Versuche der Regulierung auch der Inhalte gegeben. So wurde längere Zeit vor allem in den USA diskutiert, ob Filtertechniken in Bibliotheken und Schulen eingesetzt werden sollen, damit schädliche oder politisch inkorrekte Informationen vor allem aus dem Internet nicht von zu schützenden Zielgruppen wie Jugendlichen eingesehen werden. Als Druckmittel sollte die Zuweisung von öffentlichen Fördermitteln an Bibliotheken und Schulen von dem Einsatz solcher Filtertechniken abhängig gemacht werden . Gegenwärtig sieht es allerdings so aus, als ob Zwangsfilter für Bibliotheken und Schulen (geplant als Bestandteil des "Children's Internet Protection Act") nach Einsprüchen bzw. Klagen des Verbandes amerikanischer Bibliotheken (American Library Association, ALA) und der American Civil Liberties Union (ACLU) zum einen wegen Ineffizienz (Durchlassen von an sich abzuweisenden Seiten bzw. das unberechtigte Abblocken nützlicher Seiten), zum andern wegen Unverträglichkeit mit der grundsätzlichen, im ersten Verfassungszusatz (First Amendment) formulierten Forderung nach Meinungsfreiheit nicht erzwungen werden dürfen, auch nicht über das Mittel der Verweigerung von Fördergeldern.

Politische Maßnahmen zur direkten Kontrolle über Filter- und Abblocktechniken scheinen daher zumindest in den USA politisch nicht mehrheitsfähig zu sein . Daher wird in vielen Staaten, so auch in der Bundesrepublik Deutschland und in der EU, auf Formen der Selbstkontrolle bzw. Selbstregulierung gesetzt, also durch den Einsatz selbst entwickelter Software. Dies kann geschehen durch die Institutionen der Informationswirtschaft selbst, also über Maßnahmen der Ersteller von Web sites direkt, aber auch durch Institutionen, vor allem aus der Bürgerrechtsbewegung, die damit weitergehenden staatlichen Maßnahmen einen Riegel vorschieben wollen. Allerdings kann sich die Einstellung des Staates zu Kontroll- und Einschränkungsmaßnahmen durch aktuelle, dramatische Ereignisse, wie dem 11. September, jederzeit wieder verändern.

Wer auch immer über Filter- und Abblockverfahren bestimmen wird, im Plädoyer für ihren Einsatz vereinen sich heterogene Interessen und starke Koalitionen, so daß sich diese Verfahren auf breiter Front wohl durchsetzen werden, obgleich alle bislang vorliegenden Studien erkennen lassen, daß deren Leistungsstärke bislang nicht ausreicht, all das auszuschließen, was ausgeschlossen werden sollte, und daß auch nicht verhindert werden kann, daß Seiten ausgeschlossen werden, die eigentlich eher erwünscht sind, jedenfalls nicht als negativ bewertet werden können. Noch problematischer ist es weiter, daß es für die Betroffenen in der Regel nicht durchschaubar ist, auf welchen Werte- und Wissenssystemen die Filter- bzw. Blockingsysteme beruhen, wer sie kontrolliert und ob abweichende kulturelle Wertesysteme durch sie unterdrückt werden. Wir können hier nur einige Maximen angeben, durch die beurteilt werden kann, ob und wann Filter- und Abblocktechniken den freizügigen Informationsfluß im Internet, also das Prinzip des "Universal access" gefährden können, z.B.

  • wenn sich bestimmte Methoden und Verfahren zur Bewertung von Inhalten durchsetzen und zum De-facto-Standard im Internet und somit zu Komponenten von Internet-Software werden, wie z.B. PICS (und Weiterentwicklungen) für die Methoden und die Listen von Safe Surf oder INCORE für die Rating-Systeme;
  • wenn die den Rating-Verfahren zugrundeliegenden Wertesysteme auf Länder mit ganz anderen kulturellen Hintergründen übertragen werden;
  • wenn Filter-/Abblock-Verfahren auf der Grundlage entsprechender Rating-Systeme in Internet-Browser bzw. Internet-Suchmaschinen fest eingebaut werden und nicht mehr von Nutzern abgestellt werden können;
  • wenn Verfahren der Selbsteinschätzung bzw. ersatzweise der Delegation der Einschätzung an Dritte verbindlich werden;
  • wenn (öffentlich finanzierte) Schulen oder Bibliotheken verpflichtet werden, Rating- bzw. Filter-/Abblock-Verfahren einzusetzen;
  • wenn zivil- und strafrechtliche Maßnahmen gegenüber Personen und Institutionen ergriffen werden, denen (bewußt oder unbewußt?) falsches oder irreführendes Rating ihrer Web-Angebote nachgewiesen wird;
  • wenn Internet-Browser bzw. Internet-Suchmaschinen Web sites automatisch abblocken, die sich nicht einem (anerkannten) Rating-Verfahren unterworfen haben.

5.2 Monopolisierung von Access durch Metainformationsdienste

Informationelle Kompetenz hatten wir definiert als die Fähigkeit, sich den Zugriff auf die auf den Informationsmärkten vorhandenen, im Prinzip also öffentlich zugänglichen Ressourcen sichern zu können. Elektronische Information steht und fällt - noch stärker als bei den analogen Medien, die z.B. in Bibliotheken auch auf die Findetechniken wie Kataloge angewiesen sind - mit den vorhandenen Metainformationsmöglichkeiten, also mit den Systemen, die die Information über die Information bereitstellen. Bei den vielen Milliarden Seiten, die im World Wide Web entstehen, ist der Zugang nur noch über solche Metadienste möglich, von denen gegenwärtig die Suchmaschinen die verbreiteste Art sind. Natürlich werden auch andere Orientierungsformen eingesetzt. Wohl jeder Internet-Nutzer pflegt mehr oder weniger systematisch seine "Bookmarks" und verwendet "Websites" als Portale, also als Einstiegspunkte für weiteres Navigieren, die sich bewährt haben oder empfohlen wurden. Aber zweifellos sind es in erster Linie die Suchmaschinen, die vor allem bei neu anfallenden Problemen genutzt werden. Wir wollen hier keine methodische Diskussion über die Stärken und Schwächen der Verfahren führen, die bei der Informationsaufbereitung und den "Retrievaltechniken" zum Einsatz kommen, auch die Argumente vernachlässigen, daß keine Suchmaschine auch nur annähernd die gesamte Breite der Internetinhalte abdeckt, sondern nur auf einige Aspekte hinweisen, die mit dem Thema "Access" direkt zusammenhängen.

  • Suchmaschinen täuschen in ihren Resultaten eine informationelle Sicherheit oder redaktionelle Neutralität vor, die keineswegs gerechtfertigt ist. Bei so gut wie jeder Anfrage - wie einfach sie auch mit Einwortsuchen formuliert ist - werden Ergebnisse generiert, die irgendwie schon einschlägig sind und mit denen man sich häufig zufrieden gibt, auch beim negativen Resultat, unter der Annahme, daß es tatsächlich nichts zu dem Thema gibt, wenn auch die Suchmaschine nichts nachweist. Im wissenschaftlichen Bereich führt das zu fatalen Ergebnissen, denn die eigentliche Fachinformation, die über die weit über 10.000 Online-Datenbanken mit vielen Milliarden Datensätzen und "Pre-Print-Servern" aus allen Wissensgebieten erschlossen ist, wird von den Suchmaschinen nicht nachgewiesen. Da diese Fachinformationsbanken aber in der Regel kostenpflichtig sind und auch erweiterte Informationskompetenz bei der Nutzung erforderlich machen, werden sie - wie jüngst eine entsprechende Studie im Auftrag des BMBF mit dramatischen Defiziten nachgewiesen hat (http://www.stefi.de/) - nur sehr unzureichend genutzt. Vorgegaukelte informationelle Sicherheit ist schlimmer als informationelle Unsicherheit durch Unterinformation.
  • Bislang ist auf den Internet-Märkten der Suchmaschinen eine breite Konkurrenzsituation auszumachen . In der letzten Zeit deutet sich aber mit dem immer populärer werdenden Dienst Google fast schon eine Monopolisierungstendenz an. Zumindest bei dem Nachweis der Newsgroups-Informationen hat Google so gut wie ein Monopol. Zudem trägt Google von sich aus intensiv zur Vernetzung der Suchdienste untereinander bei. So beliefert Google u.a. Yahoo, Inktomi AOL, MSN und overture. Die Überlegenheit von Google beruht sicherlich auch auf einigen methodisch interessanten Aspekten und guten Design-Lösungen, aber vor allem darauf, daß Google umfänglich in mehrere tausend verteilte Rechner investiert hat, die die leistungsstarken Erschließungs- und Suchresultate möglich machen. Welches Geschäftsmodell bei den sehr hohen Investitionen und Betriebskosten und bei der weiterhin gebührenfreien Nutzung dahinter steht, ist schwer auszumachen. Es muß jedenfalls sehr sorgfältig beobachtet werden, inwieweit die starke Position von Google, die zumindest einer partiellen Monopolisierung sehr nahe kommt, nicht für eine Manipulation von Suchergebnissen in kommerziellem Interesse mißbraucht werden wird.
  • Die Verfahren zur Manipulation - neutraler formuliert: des interessengeleiteten "Rankings" der Suchergebnisse - sind bekannt und scheinen sich auszubreiten. Am bekanntesten ist das sogenannte Goto-Verfahren geworden, das 1997 über die Suchmaschine overture gestartet wurde. Goto ist ein "Pay-Per-Click"-Modell mit sogenannten "Paid Listings". Hierbei werden die Spitzenplätze bei der Anzeige der Suchergebnisse an die meistbietenden Anbieter versteigert. Da nach allen Erfahrungen nur die ersten 10-20 Suchergebnisse angeschaut werden, ist eine obere Platzierung für die Erfolg eines Webauftritts entscheidend. Auch viele bekannte Suchdienste wie AltaVista, Lycos, HotBot setzen das Goto-Verfahren ein. Ob das außerhalb der USA auch ein geeignetes Geschäftsmodell sein wird, ist sicher noch nicht entschieden. Ende 2001 nahmen erst 50 000 Firmen dieses Angebot des bezahlten "Listings" (mehr oder weniger regelmäßig) wahr .
  • In der Wirkung vielleicht weitreichender als Goto-Verfahren ist das "Paid-Inclusion"-Modell, bei dem Informationsanbieter für die "gesicherte" Aufnahme in den Index der Suchmaschinen bezahlen. Zwar wird dadurch in der Regel kein Anspruch auf irgendwelche Rangpositionen bei den Ergebnissen erworben (könnte durch die Kombination mit dem Goto-Ansatz durchaus geschehen), aber es wird so ein für die Nutzer zunächst unmerklicher Zusammenhang zwischen dem finanziellen Potential der Informationsanbieter und der Zusammensetzung der Indexbestände der Suchmaschinen hergestellt. Leicht vorstellbar, daß dieses Geschäftsmodell zur Folge haben könnte, daß nichtkommerzielle Infoanbieter zunehmend aus den Datenbeständen der Suchmaschinen verdrängt werden, weil die Indexingkapazitäten der Suchdienste sich auf die zahlungsbereiten Anbieter konzentrieren werden. Das ist das, was wir später mit Lessig "Zoning" von Information nennen werden (vgl. Abschnitt 5.3).

Wir gehen in Abschnitt 5.3 auf einige Konsequenzen aus dieser Abhängigkeit des Zugriffs von den Verfahren der Metainformationsdienste ein. Es dürfte aber deutlich sein, daß hier eine hohe informationspolitische Problematik vorliegt, die im öffentlichen Interesse nach neutralen Lösungen verlangt. Und dabei stehen wir vermutlich erst ganz am Anfang der Entwicklung von Metainformationsdiensten. Die intelligenten Agenten, von denen die Suchagenten nur eine Ausprägung unter vielen anderen möglichen sind, deuten die Richtung in adaptive, also direkt auf die individuellen Bedürfnisse der Nutzer zugeschnittenen Metainformationsdienste an (vgl. Kuhlen 1999), auch wenn sie bislang noch kaum nennenswerte Marktanteile erreicht haben.

5.3 Leasing, Zoning und Digital Rights Management

Wir haben in Abschnitt 4 weitgehend neutral auf die sich abzeichnende Tendenz des Leasing von Wissen hingewiesen. Indikator für die vollständige Kommerzialisierung von Wissen ist es, daß Informationsprodukte nicht mehr durch Kauf dauerhaft erworben werden und nicht mehr das ihnen zugrundeliegende Wissen zum dauerhaften (unveräußerbaren) Besitz der Kaufenden wird, sondern nur noch über "Leasing"-Verfahren für den Augenblick genutzt (und ihre Inhalte dann wieder vergessen) werden (Rifkin 2000). In der kommerziellen Informationsgesellschaft dient also die Nutzung von Information nicht mehr primär dem Erwerb von Wissen (durch Lernen), sondern der direkten Anwendung und Verwertung. Ist immer weniger eigenes Wissen vorhanden, fehlt, wie wir angemerkt haben, auch die Basis für die Urteilskraft, die Qualität und Relevanz der zur Nutzung bereitgestellten Information einschätzen zu können. Informationsnutzung ohne Wissenserwerb könnten im Prinzip dann auch Software-Roboter, intelligente Informationsassistenten durchführen. Die damit einhergehende Entmündigung von Menschen, die Rücknahme des aufklärerischen Programms des mündigen Bürgers, ist damit vorgezeichnet. Ob es Wege gibt, aus diesem, wie es uns scheint, der Informationsgesellschaft inhärenten Dilemma herauszukommen, ist schwer zu erkennen.

Gravierender ist der Zugriff von Wissen bedroht durch das, was Lawrence Lessig "Zoning von Wissen" (Lessig 1999) nennt. Die Kommerzialisierung der Informationsmärkte scheint, entgegen der ursprünglichen freien Wissensnutzung im Internet, eine fortschreitende Einteilung der Domänen des Wissens in Nutzungszonen zwingend erforderlich zu machen - z.B. Zonierung über Paßwörter (einschließlich biologische Authentifizierungs- bzw. Identifizierungsverfahren), über entsprechende Lizenzen oder bekundete Zahlungsbereitschaft, aufgrund von Nutzungskompetenzen, nachgewiesenem Nutzungsinteresse oder kontrollierter politischer Zuverlässigkeit bzw. Korrektheit - um nur einige Kriterien zu nennen.

Weitere Folge der durch Kommerzialisierung des Zugriffs auf Wissen bewirkten Zonierung könnte sein, daß nur noch der Teil von Wissen (einschließlich der Kulturprodukte) in Informationsprodukte verwandelt und damit zugänglich gemacht wird, der sich "rechnet". Wissens- und kulturelle Vielfalt werden jedoch in der politischen Theorie und in allen ethischen Begründungen als Bedingung für individuelle, soziale und demokratische Entwicklung angesehen. Ökonomisierung von Wissen begünstigt eine Homogenisierung und eine Dominanz bestimmter global wirksam werdender Wertesysteme. Hierzu gehört auch die in Abschnitt 5.1 erwähnte Wertnivellierung durch die in Abblockverfahren verwendeten Rating-Systeme und die in Abschnitt 5.2 angesprochene Zonierung der über die Suchmaschinen nachgewiesenen Internetinhalte.

Zoning auf einer Mikroebene ist durch den Einsatz von DRM-Techniken und über die Verwirklichung des Konzepts des "Digital object" zu erwarten, durch das jedes noch so kleine Stück Wissen referenzierbar, nachspürbar, abrechenbar und damit kontrollierbar wird. DRM ist im Umfeld des elektronischen Publizierens entstanden, in erster Linie zur Sicherung von Copyright-Ansprüchen, aber auch für den sicheren Handel mit elektronischen Objekten allgemein. DRM ist in den Formulierungen von ASPSecure und InterTrust® Technologies Corporation DRM : "A new computing technology that, when distributed over a vast array of computers and devices, consistently protects and manages rights related to digital information and processes, online and offline, wherever such information and processes may occur. Creators, publishers, distributors, service providers, governments and other institutions, and users must have the ability to create and associate rights and rules that persistently apply to digital information and processes, and to modify the rights and rules, if permitted, even after the information is distributed. These rights and rules might represent information regarding ownership, access, payment, promotion, warranty, privacy, and other elements of commerce in information. When these rights and rules are based on a common foundation, they can form a basis for an interoperable global system for digital commerce."

DRM ist also aus dem Bedarf (der Software-, Publikations- und Medienindustrie) entstanden, die Rechte aus den bestehenden und nach Willen der Verwerter auch auf digitale Produkte zu übertragenden und zu verschärfenden gesetzlichen Copyright- bzw. Urheber-Regelungen tatsächlich geltend machen, also auch das freie, für private Zwecke getätigte Kopieren und/oder Benutzen von an sich geschützten Materialien unterbinden zu können. DRM-Technologie kann von allen Personen bzw. Institutionen in Anspruch genommen werden, die an kontrollierbaren, nachvollziehbaren und anrechenbaren Transfer-Prozessen, einschließlich der dabei beteiligten Transaktionen, interessiert sind. Durch DRM-Verfahren können Dateien jeder Art über das Netz geschickt und nur von denen gelesen werden, die einen Schlüssel dafür bekommen oder erworben haben. Der Neuansatz von DRM besteht darin, daß die Dokumente nicht nur während der Übertragung verschlüsselt werden, sondern daß die Regeln zur Benutzung von digitalen Objekten mit den Inhalten auch noch nach der Verteilung und nach der Lösung der Netzverbindung (online oder offline) verbunden bleiben. Der Anbieter behält so die Kontrolle über seine Produkte auch nach dem "Verkauf" (es handelt sich also tatsächlich um Leasing). Es gibt unterschiedliche Ausprägungen von DRM-Technologie, aber das Verfahren beruht grundsätzlich darauf, daß der Käufer beim "Einkauf" einer digitalen Ware quasi eine Lizenz erwirbt, durch die festgelegt wird, in welchem Ausmaß er über die erworbene Ware tatsächlich verfügen bzw. diese manipulieren kann. Beliebige Verfeinerungen dieses allgemeinen Ansatzes sind möglich:

  • Die Gültigkeit der Lizenz kann auf eine festzulegende Anzahl an Personen und/oder Rechner und/oder Software begrenzt werden. Die DRM-Technologie kann so z.B. vorsehen, daß ein zu definierender Teil des Objektes frei einsehbar ist, so daß (begrenzt) Browsing- bzw. Schnupper-Effekte möglich werden und das Lizenzverfahren erst bei erfolgtem Kauf zum Einsatz kommt.
  • Die Lizenz kann zwischen lesenden, kopierenden oder bearbeitenden Zugriffs- bzw. Bearbeitungsrechten und deren Ausmaß unterscheiden.
  • Die Gültigkeit der Lizenz kann auf ein festzulegendes Zeitsegment oder auf eine bestimmte Anzahl an Lesezugriffen begrenzt werden.
  • Die Praxis des Ausleihens von Informationsobjekten kann durch DRM gesteuert werden: Wenn der Käufer seine Information an einen Dritten weitergeben will, dann muß auch dieser erst einen neuen Schlüssel erwerben. Dieses Verfahren wird Superdistribution genannt.
  • Es kann geregelt werden, ob der ursprüngliche Käufer während der Ausleihphase die Leserechte behält oder nicht (beim klassischen Ausleihverfahren übergibt der Eigentümer ja seine Lesemöglichkeiten), ob die Ausleihzeit begrenzt ist oder die Anzahl der Ausleihmöglichkeiten.

Wenn Informationsprodukte - wovon auszugehen ist - in der Zukunft exklusiv elektronisch verfügbar sein werden, wird trotz aller offensichtlich damit verbundenen Probleme die flexible Abrechnung nach dem Prinzip des "Pricing for information" die Regel werden. Nur das (aber dann auch das), was genutzt wird, wird bezahlt, unter den Bedingungen, die vorher vertraglich festgelegt werden. Software-Code, DRM-Techniken greifen als Kontrollmechanismen damit weitgehend in unser Wertesystem und unser bisheriges Normverhalten ein, hier in das Zusammenspiel individueller und öffentlicher Rechte und Pflichten beim Umgang mit Wissen und Information, zumal dann, wenn sie durch staatliche Maßnahmen der Gesetzgebung flankierend unterstützt werden. DRM wird neue Realität und neues Verständnis von Urheberrecht bzw. Copyright und von "Fair use" schaffen, und zwar zugunsten der Kontroll- und Verwertungsinteressen und effizienter, als es jede gesetzliche Regelung leisten kann. "Fair use", bislang durch die technologischen Rahmenbedingungen begünstigt und sinnvoll gemacht - man kann im traditionellen Medium nicht das individuelle Kopieren oder Zitieren von geschütztem gedrucktem Material vollständig kontrollieren -, kann durch Software-Code, kann im Prinzip durch die technischen Maßnahmen vollständig außer Kraft gesetzt werden.

Aber das ist kein Determinismus, keine natürliche Evolution. Auch hier wird es darauf ankommen, wie mit diesen Entwicklungen umgegangen wird. Es ist erkennbar, daß Formen des DRM unvermeidbar sein werden. Was im analogen Medium noch möglich und sinnvoll war - nämlich die Abgeltung von Urheberrechtsansprüchen durch Pauschalabgaben auf die entsprechenden Vervielfältigungsgeräte, die dann über Verwertungsgesellschaften zum Teil an die Urheber zurückgegeben werden -, macht im digitalen Umfeld kaum noch Sinn. Individualisierte und damit extrem flexibilisierte Abrechnungsmöglichkeiten sind technisch machbar, auch wenn sie, wie jede Software, unterlaufen werden können, und sind, werden sie transparent eingesetzt, auch den realen Nutzungsformen angemessener. Allerdings ist zu erkennen, daß den veränderten medialen Rahmenbedingungen bislang einseitig Rechnung getragen wird, insofern mit technischen Maßnahmen des DRM in erster Linie den erwarteten größeren Mißbrauchmöglichkeiten (leichteres digitales Kopieren ohne Qualitätsverlust) begegnet werden soll, anstatt diese Techniken auch konstruktiv zugunsten eines "User Rights Management" (URM) umzudeuten und entsprechende Entwicklungen anzuregen.

DRM bedeutet die Perfektionierung des Leasing-Gedankens. DRM kann auch die totale Transparenz der Nutzergewohnheiten bedeuten und damit das Recht auf anonyme Nutzung von Wissensobjekten, wie es bislang der Fall war, wenn ein Objekt, ein Buch, eine CD, käuflich erworben wurde, vollständig unterlaufen. DRM hat alle Züge einer Kulturrevolution an sich, d.h. wird unsere Formen des Umgangs mit Wissen und Information dramatisch verändern. Dieses Instrument nicht allein in den Händen der Verwerter der "Content"-Industrie zu belassen, wird die zentrale Herausforderung der nächsten Jahre sein. "Digital Rights Management" ohne vertrauenssicherndes "User Rights Management" hat alle Potentiale, zum Folterinstrument der Informationsgesellschaft zu werden, aber auf der anderen Seite auch alle Potenziale, durch sozial gesteuerte Rechte- und Benutzerverwaltung das Instrument für Interessenausgleich und damit Informationsfrieden zu werden. Ein breiter Konsens von Urhebern, Autoren und Künstlern, Verwertern und Informationswirtschaft, Nutzern, Mittlern, vertrauenssichernden Instanzen und nicht zuletzt der Software-Wirtschaft (nach Möglichkeit auf der Grundlage transparenter offener Entwicklungsprinzipien) muß hier angestrebt werden, soll "Universal access" weiter das zentrale Ziel in Informationsgesellschaften bleiben.

6 Maßnahmen zur Sicherung von Access

Die gegenwärtige Auseinandersetzung um den Besitz von Wissen kann letztlich nur politisch, nicht primär ökonomisch und nicht primär technologisch, entschieden werden, genauso wie die Auseinandersetzung um die Verfügung über Wasser oder die Reinhaltung der Umwelt. Die Frage nach dem Besitz von Wissen, d.h. die Frage nach dem Zugriff auf Wissen, hat eine ähnlich universale Dimension. Um den Entscheidungsraum deutlich zu machen, kann die Frage - sicherlich vereinfacht - auf die folgende Alternative zurückgeführt werden.

Was ist mit welcher Begründung und mit welchen Konsenschancen politisch gewollt: die Stärkung des privaten Sektors in seiner Zielsetzung, Wissen und Information über entsprechende Produkte zu vermarkten und entsprechend effizienter nutzen zu können? Oder die stärkere Unterstützung öffentlicher bzw. nicht-kommerziell ausgerichteter Institutionen der Produktion und der Vermittlung von Wissen und Information, deren Ziel es sein sollte, die Produktion und den Zugriff auf Wissen und Information unabhängig vom kommerziellen Interesse und damit frei und öffentlich zu halten?

Soll die Alternative als solche vermieden werden - was im politischen Ausgleich in der Regel der Fall ist -, wird es darauf ankommen, einen den gegenwärtigen (nicht zuletzt technologischen) Bedingungen angemessenen Kompromiß zu finden. Dieser Kompromiß wird in abzuwägendem Ausmaß den Ansprüchen der Wirtschaft, Wissen zu verwerten, Rechnung tragen müssen und den Erwartungen der allgemeinen Öffentlichkeit bzw. der Zivilgesellschaft, zu Wissen freien und universalen Zugang zu haben. Dazu nur einige Hinweise: Wenn Produktion, Verteilung und Nutzung von Wissen nicht vollständig privatwirtschaftlich organisiert sein sollen, müssen öffentliche bzw. öffentlich finanzierte Organisationen und Institutionen (aus allen Bereichen von Wissenschaft, Kultur, Medien, Politik und Verwaltung) bereit sein und entsprechend finanziell in die Lage versetzt werden, ihr Wissen über öffentliche Wissens-Server für jedermann frei in elektronischen Netzen zur Verfügung zu stellen. Das Prinzip der informationellen Selbstbestimmung (als das Recht der Verfügung über die eigenen Daten) muß um das Prinzip der informationellen Grundversorgung aus öffentlichen Wissens-Servern erweitert werden, da Selbstbestimmung nicht ohne informationelle Autonomie, also nicht ohne den Zugriff auf Wissensressourcen erreicht werden kann.

Angesichts der erkennbaren Tendenz des DRM, die bisherigen Praktiken eines "Fair use" (Ausnahmen von Urheberrechts- und Copyright-Ansprüchen im öffentlichen Interesse) einzuschränken, ist es zunehmend weniger sinnvoll, daß öffentlich produziertes Wissen (z.B. aus den Hochschulen und öffentlich finanzierten Forschungseinrichtungen) an Institutionen der Wissensverwertung (Verlage, Content Provider, kommerzielle Fort- und Weiterbildungseinrichtungen) zum quasi Nullpreis übergeben wird, mit der Konsequenz, daß die Institutionen der Primärproduktion von Wissen bzw. die ihnen zugeordneten Vermittlungsinstitutionen (Bibliotheken, Dokumentationen, Fachinformationssysteme) die abgeleiteten Informationsprodukte unter stark reglementierenden Bedingungen zurückkaufen müssen. Entsprechend sollten die heutigen und absehbaren technologischen Potentiale der Direktpublikation durch die Wissensproduzenten selber und alle Formen der nicht-kommerziellen Wissensspeicherung (einschließlich der Archivierung und Bereitstellung des Weltkulturerbes) und Verbreitung von Wissen durch öffentliche Förderung ausgeschöpft werden. Das M.I.T. hat jüngst ein deutliches Zeichen gegen die Privatisierung und Kommerzialisierung von Wissen gesetzt, indem es das OpenCourseWare-Programm ankündigt, durch das innerhalb der nächsten 3 Jahre die Materialien aller Undergraduate- und Graduate-Kurse ins Netz zur freien Nutzung gestellt werden . Die anfangs erwähnten großen Initiativen der letzten Jahre, Open Archive Initiative, Sparc, Public Library of Science, sind vermutlich erst der Beginn der Bewegung aus der Wissenschaft, die Organisation von Wissen und Information in die eigenen Hände zu nehmen. Die Napsterisierung von Wissensobjekten der Musik, die Organisationsformen des "Peer-to-Peer-Information-Sharing" zeigt, daß auch auf den allgemeinen Publikumsmärkten die Endnutzer sich von den kommerziellen Mittler- und Verwertungsformen emanzipieren können. Wenn es in der Informations- und Wissensgesellschaft wichtiger wird zu wissen, wie auf Wissen zugegriffen werden kann, als Wissen selber zu besitzen, ist es umso erforderlicher, daß die unterschiedlichen Ausprägungen von Metainformationsformen frei zugänglich und in ihrer Leistung transparent bleiben: also die Suchmaschinen (die Roboter, Kataloge, Agenten und Informationsassistenten), die Register, die Bibliothekskataloge, archivarischen Fundbücher, Klassifikationen und andere Ordnungssysteme von Wissen, die Referateorgane und Datenbankführer, auch die elektronischen Wörterbücher und Enzyklopädien. Digitale Bibliotheken in der Informationsgesellschaft haben vergleichbare Orientierungs- und Vermittlungsaufgaben, wie sie die klassischen Bibliotheken und Dokumentationen für Wissenschaft, Technik und Wirtschaft bis in die jüngste Vergangenheit gehabt haben. Entsprechend muß der Prozeß der Transformation von traditionellen Bibliotheken in digitale Bibliotheken durch öffentliche Förderung beschleunigt werden. Die Verwirklichung der Wissensgesellschaft steht und fällt mit der Funktionsfähigkeit der Informationsinfrastruktur für Metainformation, Orientierung und Vermittlung. Diese Funktionsfähigkeit ist zur Zeit, wie wir gezeigt haben, durch Kommerzialisierungs- und Monopolisierungs- bzw. Zonierungstendenzen zumindest bedroht. Hier ist ein dringender Koordinationsbedarf durch staatliche Maßnahmen gegeben, auch wenn die Verwirklichung neutraler Metainformationsdienste nicht zwingend von staatlichen Institutionen selber geleistet, vermutlich aber vertrauenssichernd überwacht werden muß.

Nicht zuletzt ist die Informationswirtschaft selber gefordert, auf die mediale Entwicklung der tendenziell vollständigen Digitalisierung aller Vorgänge im Umfeld von Wissen und Information nicht defensiv durch verschärfte Kontrollmechanismen und Abwehr von als Piraterie diskreditierten freien Nutzungsformen des "Information sharing" zu reagieren, sondern die Herausforderung durch neue Organisations- und Geschäftsmodelle aufzunehmen. Die "Todsünde" beim Übergang von analogen zu digitalen Produktions-, Darstellungs- und Verteilformen von Wissen und Information besteht in einer einfachen 1:1-Abbildung der Gepflogenheiten aus der analogen Welt in die digitalen Räume, auch wenn dies zuweilen mit der schrittweisen Gewöhnung an die neuen medialen Produkte begründet wird. Besonders "tödlich" ist die einfache Übertragung in der Informationswirtschaft, wenn bisherige, auf proprietäre Aneignung und Verwertung abzielende Geschäfts- und Organisationsmodelle für Wissen und Information auf die neuen digitalen medialen Umgebungen übertragen werden, in denen die bisherigen Transaktionskosten für Produktion und Vertrieb drastisch gesenkt werden können (wobei allerdings neue Transaktionskosten hinzukommen).

7 Perspektiven

Wo geht der Weg hin? Wie werden die Besitzverhältnisse für Wissen, wie wird der Zugriff auf Wissen in mittlerer Perspektive organisiert sein? Wir machen drei Szenarien aus:

  • Szenario 1 - Wissen und Information sind frei zugänglich: In längerer Sicht wird elektronisch erstellte und vertriebene Information prinzipiell frei zugänglich sein, so wie die Technologie des Buchdrucks mit bewegten Lettern die bislang geltenden Privilegien des Zugriffs auf Wissen ausgelöscht hat und mit der Gutenberg-Galaxis das Fundament für eine Informations- und Wissensgesellschaft für alle gelegt hat. Die jetzigen Besitzansprüche auf Wissen und Information sind genauso wie Konzepte der individuellen subjektiven Autorschaft und des geistigen Eigentums zu überwindende Relikte aus bürgerlichen Vor-Informationsgesellschaften.
  • Szenario 2 - Wissen und Infomation sind ausnahmslos kontrolliert: Dem Markt überlassen, ohne politische Gegensteuerung und ohne umfassenden Einspruch aus der Zivilgesellschaft, werden sich im elektronischen Medium die Kontrollmechanismen des DRM bis hinunter zu den kleinsten Einheiten digitaler Objekte durchsetzen, zumal dann, wenn sie von entsprechenden gesetzlichen Regelungen der Verschärfung von Urheber- und Verwertungsrechten flankiert werden. Fraglich, ob es dann noch Spielräume für die Vermittlungsleistungen und -institutionen (Bibliotheken etc.) gibt, die bislang den Zugriff freigehalten haben. Die Kommerzialisierung und Zonierung von Wissen und Information werden umfassend sein und den Alltag bestimmen.
  • Szenario 3 - Wissen und Information werden über koexistente oder Paralleluniversen organisiert: Die beiden ersten Szenarien sind für sich und in ihrer Dichotomie nicht realistisch. Die Vision einer umfassend offenen und freien Wissensgesellschaft muß nicht besagen, daß in ihr keine Informationswirtschaft entstehen kann, die mit Wissensleistungen Gewinne erzielen und somit Arbeitsplätze schaffen und einen gewichtigen Beitrag zum gesellschaftlichen Reichtum erbringen kann. Die Entwicklung der Open-Source-Bewegung hat hier zumindest eine mögliche Richtung angedeutet. Nicht mit dem Wissens-Softwareprodukt selber kann Gewinn erzielt werden. Dieses Wissensprodukt ist frei und öffentlich zugänglich und nutzbar. Für Adaptions-, Beratungs- oder Veredelungs- bzw. Mehrwertleistungen der kommerziellen Informations- und Wissenswirtschaft bleibt genug Spielraum. Auch kann kein Interesse der Informationswirtschaft daran bestehen, offene Informationsräume unmöglich zu machen. Die jüngste Vergangenheit der Entwicklung des Internets und seiner Dienste hat gezeigt, daß die wesentlichen Innovationen nicht aus dem Interesse der direkten kommerziellen Verwertung entstanden sind (obgleich diese dann rasch möglich war), sondern durch den Bedarf nach "interessenfreier Kommunikation".

Ob sich also parallele Informationsmärkte bzw. "Paralleluniversen" (Müller-Maguhn) des Umgangs mit Wissen und Information entwickeln - die kommerziellen Marktplätze, auf denen Wissensprodukte nach Marktaustauschprinzipien und mit vollständiger Kontrolle gehandelt werden, und die öffentlichen Foren, auf denen Wissen als Zweck in sich selber ausgetauscht wird -, sei dahingestellt (Kuhlen 1995). Vermutlich wird es weniger parallele, sondern sich überlappende Informationswelten geben. Jede Zeit muß unter Anerkennung der technologischen und medialen Rahmenbedingungen ihren Kompromiß zwischen öffentlichen und privaten Interessen an dem Austausch von Wissen und dem Zugriff auf Wissen neu bestimmen. In diesem Findungsprozeß stecken wir. Lösungen sind bald erforderlich, damit die Informationsgesellschaft sich als informationell befriedete Gesellschaften entwickeln kann.

Literatur

  • The American Civil Liberties Union (ACLU) (1997): White Paper. Fahrenheit 451.2: Is cyberspace burning? (http://www.xxxx/aclu_burning.html)
  • Deibert, R. J. (1997): Parchment, printing, and hypermedia. Communication in world order transformation, New York: Columbia University Press
  • Global Internet Liberty Campaign (GILC) (1999): Member statement submitted to the Internet content summit, München 9.-11. Sept. 1999 (http://www.gilc.org/speech/ratings/gilc-munich.html).
  • Kuhlen, R. (1995): Informationsmarkt. Chancen und Risiken der Kommerzialisierung von Wissen. Schriften zur Informationswissenschaft Bd. 15., Konstanz: Universitätsverlag Konstanz
  • Kuhlen, R. (1999): Die Konsequenzen von Informationsassistenten. Was bedeutet informationelle Autonomie oder wie kann Vertrauen in elektronische Dienste in offenen Informationsmärkten gesichert werden? Frankfurt: Suhrkamp
  • Kuhlen, R. (2000a): Ambivalenz von Filter-, Abblock- und Rating-Verfahren, in: Kubicek, H. et al., Global@home. Informations- und Dienstleistungsstrukturen der Zukunft, Jahrbuch Telekommunikation und Gesellschaft 2000, Heidelberg: Hüthig Verlag, S. 371-384
  • Kuhlen, R. (2000b): Wissen als Eigentum? Wie kann der freie Zugang zu den Ressourcen des Wissens in globalen Informationsräumen gesichert werden? Vortrag auf einer Tagung der Heinrich-Böll-Stiftung vom 20.-21.10.2000 "Wem gehört das Wissen? Geistiges Eigentum in Zeiten des Internet" (http://www.inf-wiss.uni-konstanz.de/People/RK/Vortraege00-Web/boell201000.pdf)
  • Kuhlen, R. (2002): Napsterisierung und Venterisierung. Bausteine zu einer politischen Ökonomie des Wissens. PROKLA 126 - Zeitschrift für kritische Sozialwissenschaft, Nr. 4, S. 57-88 Münster: Westfälisches Dampfboot
  • Lessig, L. (1999): Code and other laws of cyberspace, New York: Basic Books (Perseus Books Group)
  • Lessig, L. (2001): The future of ideas: The fate of the commons in a connected world, New York: Random House
  • Rifkin, J. (2000): Access. Das Verschwinden des Eigentums, Frankfurt/M.: Campus

Rainer Kuhlen: Universal Access - Wem gehört das Wissen?
Beitrag zum Kongress "Gut zu Wissen", aus: Heinrich-Böll-Stiftung(Hg.): Gut zu Wissen, Westfälisches Dampfboot 2002


NACH OBEN # ZURÜCK # TEXT ALS PDF-DATEI


WWW.WISSENSGESELLSCHAFT.ORG # HEINRICH-BÖLL-STIFTUNG # 2001