Start>>Themen>>Global Commons>>


Rainer Kuhlen

Wissen als Eigentum? Wie kann der freie Zugang zu den Ressourcen des Wissens in globalen Informationsräumen gesichert werden?[1]

1. Reklamation von Ansprüchen auf geistiges Eigentum ein Verbrechen?

Am 17. Oktober 2000 erschien in der Frankfurter Allgemeinen Zeitung eine Regierungserklärung, nicht die eines Politikers, wohl aber eine politische, verfaßt auf Aufforderung der FAZ und ihr entsprochen, da diese in Regierungskreisen gelesen wird, von Andy Müller-Maguhn. Andy Müller-Maguhn war bislang bekannt als Mitglied des Chaos Computer Clubs, und jetzt als gewählter und ab November amtierender Europa-Direktor von ICANN (The Internet Corporation for Assigned Names and Numbers). Da stehen Sätze, die man normalerweise nicht in der FAZ liest:

"Betongefängnisse in die Luft sprengen [Reminder der RAF-Welt] war schon okay, aber ins Internet zu ziehen einfach der gründlichere Ansatz. Die Gedanken sind frei." Bis die Juristen mit den Geschäftsleuten des E-Business und des E-Commerce kamen "und die jetzt, wo das mit dem Internet gerade weltweit so richtig anfängt, geistiges Eigentum deklarieren wollen. Und laut aufschreien, wenn sie sich überlegen, daß da geklaut wird, den ganzen Tag in jedem Computer dieses Planeten. Und da natürlich Diebstahlsperren einbauen wollen, Filter, Polizisten und Gefängnisse." Juristen und sonstige ICANNler: "Und die tragen Krawatten, die ja bekanntlich die Sauerstoffzufuhr zum Gehirn einschränken. Und deswegen haben Sie keine Phantasie und haben das auch gar nicht verstanden, wozu man so einen öffentlichen Raum braucht oder was ein Paralleluniversum ist [...] Und weil sie Amerikaner waren, haben sie natürlich amerikanisches Markenrecht bevorzugt, die WIPO (World Intellectual Property Organization)[2] als potentielle Schiedsgerichtsstelle (gewählt durch den Kläger) bestimmt und damit den Namensraum den anderen Juristen zum Fraß vorgeworfen. Das nervt nicht nur, das ist ein Verbrechen. Ein Verbrechen an der Sache, ein Verbrechen am öffentlichen Kulturraum Internet. Was die Juristen ,geistiges Eigentum' nennen, ist - das weiß jeder Lateiner - nichts weiter als ein Diebstahl am öffentlichen Raum". Und als Regierungsmitglied von ICANN will er "immer noch den öffentlichen Raum frei von kommerziellen Spielregeln halten, den freien Informationsfluß hüten und den Bits ihre Freiräume geben. Wir wollen lauter Datengärten, wo sie sprießen, gedeihen und sich vermehren können ...."[3]

Das könnte eine radikale Eingangsthese sein: Wissen - und um Wissen geht es in meiner Darstellung, nicht um geistiges Eigentum aus den Bereichen Kunst, Unterhaltung, Medien allgemein oder um die Patentierbarkeit von Software.

Rainer Kuhlen
ist Professor für Informationswissenschaft an der Universität Konstanz. Seine Forschungsschwerpunkte sind Experimentelles Information Retrieval, Hypertext, Informationsmarkt; Informationswirtschaft, elektronische Mehrwertdienste, elektronische Marktplätze, Kommunikationsforen, Medieninformation, Informationsassistenten/-agenten, Informationsethik und Informationspolitik.
Veröffentlichungen (Auswahl):Die Konsequenzen der Informationsassistenten. Was bedeutet informationelle Autonomie oder wie kann Vertrauen auf elektronischen Märkten gesichert werden? Frankfurt 1999.

"Wissen" - und das meint wohl auch Müller-Maguhn - ist in erster Linie Eigentum des öffentlichen Raums - frei und uneingeschränkt nutzbar. Der öffentliche Raum wird - angesichts fortschreitender Durchdringung aller Lebensbereiche mit Informations- und Kommunikationstechnologie - mit der Vernetzung in den elektronischen Räumen des Internet der globale Raum unserer Erde. Der öffentliche Raum kann sinnvollerweise nicht auf territoriale, regionale Grenzen beschränkt werden. Wissen ist somit Eigentum der gesamten Menschheit. Alle Unternehmungen, Wissen auf private, organisationelle oder geographische Nutzung einzuschränken, sind demnach - im obigen Vokabular - "Verbrechen" oder sanfter: ethisch nicht akzeptable Durchsetzungen von Partikularinteressen.

Die Forderung aus dem Untertitel dieses Textes "freier Zugang zu den Ressourcen des Wissens" legt nahe, daß Wissen nicht als Eigentum, jedenfalls nicht als individuell verfügbar angesehen werden soll, kann und darf. Wissen ist durchaus auch im wirtschaftswissenschaftlichen Sinne ein öffentliches Gut, eines, von dessen Nutzen niemand ausgeschlossen werden kann und darf, und das sich im Gebrauch nicht verbraucht. Wir wollen - vor allem mit Blick auf die Produktion und Verwendung von Wissen in der Wissenschaft - einige Hinweise darauf geben, wodurch dieser freie Zugriff zur Zeit gefährdet ist und welche Rolle dem Staat zukommen kann bzw. soll, Informationsflüsse für den Zugriff auf Wissen offen zu halten.[4]

Die Darstellung, die eher das Terrain abzustecken sucht, als daß sie schon zu fundierten und sicheren Aussagen kommen kann, geht den folgenden Gang: In Abschnitt 0 wird am Beispiel der Debatte um (De)CSS (Content Scrambling System) für DVD (Digital Versatile Disc) diskutiert, inwieweit in Software kodiertes Wissen frei sein soll oder an der Anwendung gehindert werden soll, wenn sie mit bestehendem Recht konfligiert. In Abschnitt 3 diskutieren wir die Bedrohungen bzw. Auflösungen des bisherigen Fair use (Ausnahmen vom Copyright/Urheberrecht) durch Techniken eines umfassenden Digital Rights Management (DRM). In Abschnitt 4 sollen Grundzüge einer neuen Informationspolitik herausgearbeitet werden, die die Interessen beider Informationsmärkte - der kommerziellen Marktplätze und der wissensaustauschenden Foren - verfolgt und neuen Formen der Sicherung des freien Zugriffs auf Wissen und Information konsensuelle Geltung verschafft.

2. Bedrohung geistigen Eigentums oder Verschärfung der Sicherung des geistigen Eigentums?

Fragte man den immer wieder zitierten Mann auf der Straße, ob das Internet die Rechte von Autoren, von Produzenten geistiger oder künstlerischer Produkte, bedrohen würde oder eher nicht, dann ist mit ziemlicher Sicherheit eine Antwort in Richtung Bedrohung zu erwarten. Zu sehr ist man überzeugt, daß so etwas wie Napster, durch das das freizügige private Herunterladen von elektronischen Musiktiteln, eingespeist von Privatpersonen, möglich geworden ist, zwar individuell gerne genutzt wird, aber doch von den meisten als Verletzung von Rechtsvorschriften oder sogar als Verletzung ethischer Prinzipien eingeschätzt wird. Was im Fall Napster für die Musik gilt, ist auch auf DVD-Produkte, also elektronische Filme übertragbar. Gehen wir kurz auf diese aktuelle Diskussion ein, um daraus einiges über das allgemeine Problem der Verfügung über Wissen zu lernen. DVD (Digital Versatile Disc) wird durch eine Authentifizierungs- und Verschlüsselungstechnik (CSS) geschützt, die als CSS (Content Scrambling System) in die offiziellen DVD-Systeme von XING Technologies eingebaut ist. D.h. ein DVD-Film ist nur dann lesbar, wenn die originale Scheibe zur Authentifizierung in das Laufwerk bei einem Rechner mit dem richtigen Betriebssystem eingelegt ist und entsprechend die verschiedenen Ver- bzw. Entschlüsselungsverfahren aktiviert werden.

CSS beruht auf Wissen über Verschlüsselung und Authentifizierung, ist in Software kodiertes Wissen. Hier dient Wissen dazu, etwas - DVD - nicht öffentlich frei zugänglich werden zu lassen, da das entsprechende Produkt entsprechend unseren Wirtschaftsprin-zipien geschützt ist und als Ware genutzt werden kann. Wissen selber ist aber kaum ge-schützt zu halten. Kein Wunder, daß relativ rasch die entsprechende Aufschlüsselungs-software entwickelt wurde, eben DeCSS[5]. DeCSS ist ebenfalls in Software kodiertes Wissen. Darf dieses Wissen nun frei verteilt werden, und darf es vor allem frei genutzt werden?[6] Ist diese Unterscheidung überhaupt sinnvoll, wenn das Wissen, wie CSS entschlüsselt werden kann, öffentlich ist, also ohne weiteres zur Information werden kann? Wie kann bzw. darf verhindert werden, daß dieses Wissen als Information, hier also als Informationsprodukt in Form von DeCSS, auch verwendet wird? Eric Corley war, wie viele andere auch, auf seiner Website 2600.com der Ansicht, daß erstellte Software frei verfügbar sein müsse und hat sie entsprechend bereit gestellt, auf daß DVD frei herunterladbar würde. Die Klage dagegen ließ nicht lange auf sich warten und die Entscheidung darüber auch nicht.

Am 17.8.2000 hat der Richter Lewis A. Kaplan vom U.S. District Court in Manhattan auf eine Klage von 8 Hollywood-Filmstudios gegen Eric Corley das 1998 vom US-Kongreß verabschiedete "Digital Millenium Copyright Act" (DMCA) angewendet und entschieden, daß das Herunterladeangebot für die DeCSS-Software auf der Website 2600.com von Corley gegen das Gesetz verstoße.[7] Das Digital Millenium Copyright Act leistet einen nicht zu unterschätzenden Beitrag um die Neuformulierung des Copyright in den elektronischen Medien; es ist explizit formuliert, daß die Erstellung und der Vertrieb von Software, durch die legale CopyrightAnsprüche unterlaufen werden können, untersagt sei (DMCA, 17 USC §1201). Wir können nicht vertieft die Diskussion führen, inwieweit ein Gesetz, hier das DMCA, aber auch viele andere Bestimmungen, z.B. zum Datenschutz im IuKDG, dem deutschen "Multimediagesetz", einen Verbindlichkeitsstatus haben kann, wenn es beliebig und ohne Hoffnung auf Strafverfolgung unterlaufen werden kann. Hier fasziniert zweifellos immer wieder die Web-Phantasie, mit der Recht ausgehebelt werden kann, sei es nun mit oder ohne explizite Berufung auf ethische Prinzipien (das Recht auf freie Rede und freien Zugriff auf Information sei höher als der individuelle oder institutionelle Schutz geistigen Eigentums) oder sei es durch die Begründung, daß Recht ohnehin nur Sachverhalte der Vergangenheit regele, die den Bedingungen der Gegenwart überhaupt nicht mehr entsprechen, wie z.B. die gegenwärtige Anwendung von Prinzipien für gedruckte Produkte auf digitale.

Richter Kaplan aber hat versucht, das Recht beim Wort zu nehmen und hat mit seiner Entscheidung auch explizit Stellung zu der Debatte genommen, ob Computer Code eine Form der freien Rede ist, die, wie es die Open-Source-Bewegung verlangt, offenzulegen sei, oder ob Code eine Ware wie jede andere ist. Kaplan schreibt: "Computer Code is not purely expressible any more than the assassination of a politicial figure is purely a political statement". Das sehen die Vertreter der Open-Source-Software-Bewegung, zusammen mit den Internet-Bürgerrechtsbewegungen jeder Ausprägung, ganz anders.[8]

Weitergehend hat der Richter mit seiner Entscheidung in die für die Zukunft des Internet zentrale Frage eingegriffen, welches Recht höher zu gewichten sei, das Recht auf freie Rede (Publikationsfreiheit) oder das absolute Recht auf den Schutz geistigen Eigentums. Formal hat sich der Richter aus diesem Streit herausgehalten und hat im Prinzip die Berechtigung beider Positionen anerkannt. Bei konfligierenden Grundsatzpositionen gibt es in demokratischen Gesellschaften, so der Richter in seiner Begründung, nur einen Ausweg: "clashes of competing interests like this are resolved by Congress". Inhaltlich aber hat sich der Richter deutlich auf die Seite derjenigen gestellt, die eine Verschärfung der bisherigen Copyright-Regelungen anstreben. Und dies macht den Sachverhalt, über das spezielle DVD- und CSS-Problem hinaus, für die Frage des Zugriffs auf Wissen generell wichtig.

3. Neuer Fair use oder radikales Digital Rights Management?

Bislang waren, vor allem für Zwecke von Forschung und Ausbildung, Ausnahmen vom Copyright bzw. Urheberrecht gegeben und gesetzlich geregelt. Man darf also z.B. aus publizierten Objekten jeder Art (also auch Filmen) zitieren und Kopien für den eigenen Gebrauch anfertigen. Dieser "fair use" war (und ist noch) die Grundlage des Umgangs mit geistigem Eigentum und ist die Geschäftsgrundlage für den Umgang mit Informationsprodukten - traditionell Bücher und Zeitschriften, z.B. in wissenschaftlichen Bibliotheken. [im Wissenschaftsbereich, speziell für die die Wissenschaft mit solchen Produkten versorgenden Bibliotheken.] Der Staat, so die allgemeine Meinung, hat nicht das geistige Eigentum absolut geschützt, sondern nur für eine begrenzte Zeit und mit der Intention, Anreize zum Schaffen geistiger Produkte zu setzen, durch die die Gesellschaft als Ganzes, durch die Förderung von Wissenschaft und Kunst bzw. des intellektuellen Lebens insgesamt, Nutzen ziehen kann. Das ist zur Zeit noch in den meisten Industrie- und Informationsländern anerkannt, so auch in Deutschland.

Wir erleben aber gegenwärtig einen Umbruch in dem Verständnis von Fair use, wie er sich auch in entsprechenden gesetzgeberischen Initiativen, wie dem DMCA in den USA, niederschlägt. Die Vertreter der amerikanischen Film-, aber auch der allgemeinen Publikations-, Medien- oder Verlagsindustrie, besorgt über zunehmende Piraterie in der Form freien Kopierens, interpretieren das DMCA dahingehend, daß der Kongreß eine radikale Wende im Verständnis von Fair use vorgenommen habe. Ausnahmen vom Copyright seien durch die Verwendung neuer technologischer Kontrollmechanismen nicht mehr sinnvoll, da durch diese jede individuelle Aktion mit digitalen Produkten exakt geregelt werden kann. Sinnvoll seien diese Ausnahmen auch deshalb nicht mehr, weil sie in den neuen elektronischen Medien sich nicht mehr quasi von selbst begrenzen und nicht mehr nur begrenzten "Schaden" anrichten. Von einem digitalen "Original" können beliebig viele und vollständig qualitativ gleiche Kopien erstellt werden. Wissen über Informationsprodukte ist beliebig reproduzierbar. Das ist das neue Benjamin´sche Zeitalter, nicht der Kunst, sondern des Wissens.[9]

Hier können wir eine merkwürdige ideologische Umkehrung der ursprünglichen Prinzipien beobachten. Nach herrschender Meinung und Interpretation der Ursprünge gesetzlicher Regelungen wie Copyright, Urheberrecht in Deutschland, aber auch des Patenschutzes, war der primäre Anlaß für die Regelungen, wie erwähnt, weniger (wenn natürlich auch) der Schutz des privaten individuellen geistigen Eigentums - also des Autors als Urheber des geistigen Produkts oder der Idee -, sondern das Interesse der Gesellschaft insgesamt, Personen und Gruppen bzw. Organisationen in die Lage zu versetzen, neue Produkte oder Ideen zu erschaffen und sie öffentlich werden zu lassen, auf daß die Gesellschaft insgesamt davon Nutzen ziehen kann. Sicherlich spielt auch das bürgerliche Selbstverständnis des Subjekts bzw. Individuums als Träger von Kunst und Wissenschaft eine wichtige Rolle, aber Haupt- und Nebenziel sollten nicht verwechselt bzw. ausgetauscht werden.

Eben das geschieht heute. Copyright, Urheberschaft oder Patente sollen primär und nach Möglichkeit ohne Einschränkung Rechte von Erfindern bzw. Entwicklern schützen. Der individuelle Anspruch wird über das allgemeine Interesse gestellt. Faktisch ist das natürlich ein vorgeschobenes, aber gut darstellbares Argument, für das in der Öffentlichkeit leicht Konsens gefunden werden kann. Faktisch geht es um die Interessen der Publikations- und Medienindustrien, die in der Regel die geschützten Rechte von den Autoren übernehmen und die daraus folgenden finanziellen Einkünfte für sich abschöpfen. Wir wollen das hier nicht im weiteren Umfeld der Unterhaltungsindustrie diskutieren, also auch nicht auf Musik- oder Filmprodukte oder Literatur und Kunst im weiteren Sinne beziehen. Hier spielt der individuelle Autorenbegriff sicherlich eine zentrale Rolle, und für die Autoren besteht wegen ihrer direkten Gewinnbeteiligung ein größeres Interesse an der Beibehaltung oder Verschärfung der Schutzbestimmungen. Wir beschäftigen uns hier eher mit der Frage, inwieweit die Verschärfung der Bestimmungen zum Schutz des geistigen Eigentums bzw. inwieweit der Abbau von Fair use auch auf den Wissenschaftsbereich übergreift, wo das Ziel der allgemeinen gesellschaftlichen Nutzung noch unbestritten ist, wenn auch Wissen zunehmend in den Zusammenhang kommerzieller Nutzung gestellt wird. Es gilt also die Tendenzen im weiteren Bereich der Publikations- und Medienindustrie zu beobachten, um für die bevorstehenden Auseinandersetzungen auch im wissenschaftlichen Publikationsbereich vorbereitet zu sein.

In diesem Umfeld des elektronischen Publizierens, weitgehend zur Sicherung von Copyright-Ansprüchen, aber auch für den sicheren Handel mit elektronischen Objekten allgemein, entsteht - zunächst in den USA, aber sicher auch bald in Deutschland - ein neues Segment des Dokument- bzw. des Content-Management, das in den USA mit Digital Rights Management (DRM) bezeichnet wird. DRM wird durch eine Formulierung von PublishOne, einer der neuen Anbieter von DRM-Technologiediensten, wie folgt definiert:

"Digital Rights Management (DRM) is the industry term used to describe the process of managing access, usage and reproduction of electronic products, such as databases, re-search reports, music, newsletters and publications."[10]

Umfassender noch definieren ASPSecure und InterTrust® Technologies Corporation DRM[11]:

"Digital Rights Management (DRM) ... is a new computing technology that, when distributed over a vast array of computers and devices, consistently protects and manages rights related to digital information and processes, online and offline, wherever such information and processes may occur. Creators, publishers, distributors, service providers, governments and other institutions, and users must have the ability to create and associate rights and rules that persistently apply to digital information and processes, and to modify the rights and rules, if permitted, even after the information is distributed. These rights and rules might represent information regarding ownership, access, payment, promotion, warranty, privacy, and other elements of commerce in information. When these rights and rules are based on a common foundation, they can form a basis for an interoperable global system for digital commerce."

Digital Rights Management ist also aus dem Bedarf (der Software-, Publikations- und Medienindustrie) entstanden, die Rechte aus den bestehenden - und im Prinzip auch auf digitale Produkte zu übertragenden gesetzlichen Copyright- bzw. Urheber-Regelungen tatsächlich geltend zu machen, also das freie Kopieren und/oder Benutzen von an sich geschützten Materialien unterbinden zu können[12]. Das oben diskutierte Content Scramling System ist Teil dieses Digital Rights Management, dort bezogen auf die Nutzung von DVD-Produkten. DRM-Technologie kann aber von allen Personen bzw. Institutionen in Anspruch genommen werden, die an sicheren, transparenten und anrechenbaren Transfer-Prozessen, einschließlich der dabei beteiligten Transaktionen, interessiert sind.

Durch DRM-Verfahren können Dateien jeder Art über das Netz geschickt und nur von denen gelesen werden, die einen Schlüssel dafür bekommen oder erworben haben. Der Neuansatz von Digital Rights Management besteht darin, daß die Dokumente nicht nur während der Übertragung verschlüsselt werden, sondern daß die Regeln zur Benutzung von digitalen Objekten mit den Inhalten auch noch nach der Verteilung und nach der Lösung der Netzverbindung verbunden bleiben. Der Anbieter behält so die Kontrolle über seine Produkte auch nach dem "Verkauf" (es handelt sich also eher um Leasing).

Es gibt unterschiedliche Ausprägungen von DRM-Technologie, aber das Verfahren beruht grundsätzlich darauf, daß der Käufer beim "Einkauf" einer digitalen Ware quasi eine Lizenz erwirbt, durch die festgelegt wird, in welchem Ausmaß er über die erworbene Ware tatsächlich verfügen bzw. diese manipulieren kann. Beliebige Verfeinerungen dieses allgemeinen Ansatzes sind möglich:

  • Die Gültigkeit der Lizenz kann auf eine festzulegende Anzahl an Personen und/oder Rechner und/oder Software begrenzt werden.
  • Die Gültigkeit der Lizenz kann auf eine festzulegende Anzahl an Objekten oder auch Teilen von ihnen begrenzt werden. Die DRM-Technologie kann so z.B. vorsehen, daß ein zu definierender Teil des Objektes frei einsehbar ist, so daß (begrenzt) Browsing-Effekte möglich werden und das Lizenzverfahren erst bei erfolgtem Kauf zum Einsatz kommt.
  • Die Lizenz kann zwischen lesenden, kopierenden oder bearbeitenden Zugriffs- bzw. Bearbeitungsrechten und deren Ausmaß unterscheiden.
  • Die Gültigkeit der Lizenz kann auf ein festzulegendes Zeitsegment oder auf eine bestimmte Anzahl an Lesezugriffen begrenzt werden.
  • Die Praxis des Ausleihens von Informationsobjekten kann durch DRM gesteuert werden: Wenn der Käufer seine Information an einen Dritten weitergeben will, dann muß auch dieser erst einen neuen Schlüssel erwerben. Dieses Verfahren wird Superdistribution genannt.
  • Es kann geregelt werden, ob der ursprüngliche Käufer während der Ausleihphase die Leserechte behält oder nicht (beim klassischen Ausleihverfahren übergibt der Eigentümer ja seine Lesemöglichkeiten), ob die Ausleihzeit begrenzt wird oder die Anzahl der Ausleihmöglichkeiten.
  • Die meisten DRM-Unternehmen übernehmen für die publizierenden Personen bzw. Institutionen auch die Abwicklung der gesamten Transaktionen (Bezahlen etc.).

Sehen wir den Zusammenhang zwischen DRM-Techniken, also Software-Lösungen für den Schutz geistigen Eigentums und gesetzlichen Regelungen wie dem oben erwähnten DMCA, so erkennen wir die Einschlägigkeit für unser Thema des freien Zugangs zum Wissen. Wissenschaftler sehen schon Zeiten auf sich zukommen, wo ihnen für das Zitieren aus einem veröffentlichten Werk, wenn auch nur minimale, aber doch Gebühren berechnet werden. DRM wird es möglich machen, wenn die Informationsprodukte - wovon auszugehen ist - in der Zukunft exklusiv elektronisch verfügbar sein werden. Zumindest im Zeitschriftenbereich sind wir mitten in diesem Prozeß - sowohl der Digitalisierung als auch der flexiblen Abrechnung nach dem Prinzip des "Pricing for information". Nur das (aber dann auch das), was genutzt wird, wird bezahlt. Auch im Buchbereich ist es schon jetzt Realität, daß elektronische Bücher nur dann eingesehen werden können, wenn der Nutzer das dafür passende Betriebssystem und das dazu passende Leseprogramm hat (z.B. Ebooks, die nur mit dem Microsoftware-Reader und entsprechend nur unter Windows oder NT gelesen werden können, und nicht etwa unter Linux). Die Einteilung des Internet in Nutzungszonen - in Zonen für die, die bestimmte und erworbene Paßwörter, Lizenzen und Zertifikate haben, und in Zonen für die, die bestimmte Cookies zulassen oder die bestimmte Software und Rechner haben -, grob also in die Welt der "Information haves" und die der "Have nots", schreitet voran.[13]

Software-Code, DRM-Techniken, greifen als Kontrollmechanismen weitgehend in unser Wertesystem ein, hier in das Zusammenspiel individueller und öffentlicher Rechte und Pflichten, zumal dann, wenn sie durch staatliche Maßnahmen flankierend unterstützt werden. Vielleicht ist letzteres aber auch gar nicht nötig. Lawrence Lessig hat diesen Zusammenhang in vielen Publikationen immer wieder diskutiert (vgl. Anm. 13). In der elektronischen Welt ersetzt Computer-Code zunehmend das bisherige Verfahren der Regelung durch Gesetz. Die CSS-Software - und sie ist ja nur ein Beispiel von vielen, wie Copyright-Ansprüche durch Digital-Rights-Management und andere Techniken absolut durchgesetzt werden können - schafft in der Tat neue Realität und neues Ver-ständnis von Copyright und von Fair use, und zwar effizienter als es jede gesetzliche Regelung leisten kann. Fair use, bislang durch die technologischen Rahmenbedingun-gen begünstigt und sinnvoll gemacht - man kann im traditionellen Medium nicht das individuelle Kopieren oder Zitieren von geschütztem gedruckten Material vollständig kontrollieren -, kann durch Software-Code, zumindest für einen bestimmten Zeitraum (s. Anm. 9), vollständig unterlaufen werden.

4. In Richtung einer neuen Informationspolitik

Es ist offensichtlich, daß das Entstehen und die Entwicklung von Informationsmärkten als kommerzielle Marktplätze in den letzten Jahren im Kontext einer neoliberalen Wirtschaftspolitik durch weitgehende staatliche Maßnahmen, wie gesetzliche Regelungen, aber auch durch entsprechende Förderprogramme, unterstützt wurden. Zu offensichtlich ist die gesamtgesellschaftliche bzw. -volkswirtschaftliche Bedeutung von Information bzw. die Anwendung von Wissen zur Produktion neuer Produkte und zur Einrichtung leistungsfähiger Organisationsformen. Auf der anderen Seite ist es auch offensichtlich, daß die Informationsmärkte als offene Plattformen bzw. Foren des freien öffentlichen Austauschs von Wissen nicht hätten entstehen können, wenn nicht der Staat - wenn auch ursprünglich eher aus militärischen Sicherheitsüberlegungen - der Wissenschaft die Netzinfrastruktur aus öffentlichen Mitteln finanziert hätte, welche die Grundlage des Entstehens der freien Foren war und ist. Letzteres natürlich nicht aus Liebe zur Wissenschaft, sondern aus der berechtigten Erwartung, daß auf längere Sicht nichts für die Prosperität von Wirtschaft und Gesellschaft nützlicher sei, als der freie Umgang mit Wissen in der Wissenschaft. Das Internet, als die heutige technologische Grundlage für die Informationswirtschaft, die auf den Informationsmärkten agiert, wäre weder in seiner Architektur noch gar in seinen Diensten (exemplarisch das World Wide Web) entstanden, wenn es nicht die freien "interesselosen" Initiativen der Forumsteilnehmer gegeben hätte. Innovationen bzw. ihnen zugrundeliegende Inventionen - so ist zu erwarten - entstehen auch heute kaum aus dem Interesse der unmittelbaren Verwertung, sondern aus dem freizügigen, nicht direkt interessegeleiteten Umgang mit Wissen.

Es kann also nicht im Interesse der gesamten Gesellschaft und auch nicht im Interesse der Wirtschaft sein, die private und kommerzielle Verfügung von Wissen zum umfassenden Organisationsprinzip für die Erstellung und den Vertrieb von Wissen bzw. Informationsprodukten zu machen. Man tut gut daran, Marktunterlaufungsstrategien und -maßnahmen, die zunächst für die allgemeine Öffentlichkeit und besonders für die Wirtschaft provozierend aussehen wie z.B. Napster oder DeCSS oder die gesamte Open-Source-Bewegung, daran zu messen, inwieweit sie einen Beitrag dazu leisten, daß der Zugriff zum Wissen offen bleiben kann. Widerstand kann eine Form von Zivilcourage sein. Und der Zugriff auf Wissen ist heute auf vielfältige Weise, über die Verschärfung von Copyright und Urheberrecht bzw. Patentrecht hinaus, bedroht (vgl. Kuhlen 1999, s. Anm. 4). Wir erwähnen nur

  • die in den letzten Jahren fortschreitende Privatisierung von Fachinformationseinrichtungen und -produkten;
  • den Verlust von Anonymität bei der Nutzung von Informationsprodukten durch die im digitalen kommerziellen Medium erforderlichen Mechanismen der Authentifizierung bzw. Identifizierung;
  • die Bedrohung von "Privacy" durch die fortschreitende Aufzeichnung und Auswertung unserer Interaktionsdaten, auch bei der Nutzung der Informationsangebote auf kommerziellen elektronischen Marktplätzen;
  • die Einschränkung des Informationsangebots und der Navigationsfähigkeit durch fortschreitenden Einsatz von Filter- und Abblockverfahren auf der Grundlage oft undurchsichtiger Rating-Verfahren[14];
  • die Einschränkungen unserer Zugriffs-, Schreib- und Kommunikationsrechte (right to read, right to write, right to communicate) durch fehlende informationelle Kompetenz bzw. fehlende informationelle Bildung;
  • die drohenden Qualitätsverluste bei der unkontrollierten unbewerteten Selbstpublikation bzw. -darstellung in den Internetdiensten;
  • die Bedrohung unserer informationellen Autonomie durch fortschreitende Delegation von Informationsarbeit an technische Informationsassistenten, deren Leistung kaum noch eingeschätzt werden kann (in der einfachen Form von Suchmaschinen, in der aufwendigen Form von intelligenten Softwareagenten, die nicht nur unsere Probleme lösen, sondern diese oft erst definieren).[15]

Jeder wird weitere Beispiele für die Bedrohung des freien Umgangs mit Wissen und Information im digitalen Medium finden (sicherlich aber auch viele Beispiele für die Möglichkeit der Erweiterung unseres freien Umgangs mit Wissen und Information). Gehen wir am Ende zu unserem Ausgangsproblem zurück. Wir halten dafür, daß der Staat sich weniger die Interessen der Informationswirtschaft - die stark genug ist, ihre Interessen zu vertreten - zu eigen machen, sondern zur Wahrung des öffentlichen Interesses an einem freien Umgang mit Wissen und Information nach neuen Wegen des Ausgleichs zwischen kommerziellem und öffentlichem Interesse suchen muß. Zum Beispiel ist der Gesetzgeber herausgefordert, für die Entwicklung von kontrollierendem Computer-Code der DRM-Techniken Auflagen zu verlangen, durch die, am Beispiel des Copyright und Urheberrechts, ein neuer Fair use auch bei elektronischen Produkten formuliert und erreicht werden kann.[16]

Angesichts der Mächtigkeit von Computer-Code sollte der Gesetzgeber gegenwärtig auf der Seite derjenigen stehen, die Wissen über Informationsprodukte für individuelle oder öffentliche Zwecke nutzen wollen. Wissen - das ist weiter unbestreitbar - ist frei. Was nutzt das aber, wenn Wissen, wie es ja offensichtlich ist, nur über öffentlich werdende Informationsprodukte genutzt werden kann und wenn diese Informationsprodukte tendenziell vollständig in einen kommerziellen Verwertungszusammenhang gestellt werden? Die Informationsmärkte - das ist die Lektion nach Jahren des Laissez faire - können nicht gänzlich sich selbst überlassen bleiben und dürfen nicht aus den Interessen der Wirtschaft allein definiert werden. Es besteht, im Zusammenspiel der beteiligten Gruppen und Interessen, ein breiter Gestaltungs- und Handlungsbedarf des Staates. Einige Ziele können entsprechend den oben skizzierten Bedrohungen angesprochen werden:

  • Freier (ungehinderter und kostenloser) Zugriff auf Ressourcen des Wissens in der Wissenschaft;
  • Förderung aller Maßnahmen zur Unterstützung von (Direkt-) Publikationsformen aus der Wissenschaft und deren Qualitätssicherung;
  • Förderung kooperativer Formen elektronischer Kommunikation (Foren etc.);
  • Verzicht auf fortschreitende Privatisierung der Fachinformationseinrichtungen;
  • Regelung des Einsatzes von Filter-, Abblock- und Rating-Techniken nach dem Prinzip der informationellen Selbstbestimmung;
  • Sicherung von "Privacy" und Anonymität beim Zugriff auf Wissen;
  • Festlegung der Grenzen von "Digital Rights Management";
  • Formulierung eines neuen Fair use in elektronischen Räumen für elektronische Produkte;
  • Ausbildungsziel auf allen Ebenen: Schaffen informationeller Kompetenz.

Die Diskussion über die Informationspolitik der nächsten Jahre wird kooperativ zu führen sein, wenn denn ein Konsens über die Fragen des Umgangs mit Wissen und Information erzielt werden soll[17]. Dies ist eine der zentralen Herausforderungen an gegenwärtige Wissens- und Informationsgesellschaften.

Fußnoten

  • [1] Der Text beruht auf dem gleichlautenden Einleitungsvortrag der Tagung "Wem gehört das Wissen? Geistiges Ei-gentum in Zeiten des Internet". 20./21. Oktober 2000. Heinrich-Böll-Stiftung, Berlin. Der Vortrag wurde aus Powerpoint-Folien gehalten; diese sind unter www.nethics.net abrufbar.
  • [2] WIPO als eine von vier bestimmten Schiedsgerichten: The World Intellectual Property Organization; National Ar-bitration Forum in Minneapolis; Disputes.org/eResolutions Consortium in Amherst, Mass. und Montreal; C.P.R. In-stitute for Dispute Resolutions in New York
  • [3] Alle Zitate: Frankfurter Allgemeine Zeitung 17.10.2000, Nr. 241, S. 49
  • [4] Wir wollen keine terminologische Grundsatzdiskussion führen, nur kurz zum Verständnis der hier elementaren Be-griffe von Wissen und Information: Aus informationswissenschaftlicher Sicht gehen wir davon aus, daß Wissen ein auf kognitive Strukturen bezogenes Konzept ist. Wissen ist die zu einem bestimmten Zeitpunkt durch Anwendung bestimmter Verfahren (Erfahrung, Experimente, Logik, Kommunikation) gewonnene und als gültig angesehene Menge der Aussagen über Objekte und Sachverhalte der Welt, wobei das Ausmaß der reklamierten Gültigkeit in der Bandbreite von "Wahrheit" (gültig nach dem Stand der Wissenschaft) bis hin zur offensichtlichen Lüge bestehen kann. Information hingegen steht orthogonal dazu und sagt entsprechend nichts über den Wahrheitswert des zugrun-deliegenden Wissens aus. Information wird aus bestehendem Wissen erarbeitet. Wissen wird zur Information nur durch den Bezug auf einen aktuellen Handlungszusammenhang (Information ist Wissen in Aktion). Dies macht den pragmatischen Charakter von Information aus, während Wissen, nicht notwendigerweise auf den Nutzungskontext bezogen, semantisch bestimmt ist. Wissen wird öffentlich über Informationsprodukte und -dienstleistungen. Kom-merziell gehandelt wird entsprechend nicht Wissen, sondern gehandelt werden Informationsprodukte. Konsequent spricht man daher auch von Informationsmärkten, nicht von Wissensmärkten. Weiterführende Literatur: R. Kuhlen: Informationsmarkt. Chancen und Risiken der Kommerzialisierung von Wissen. UVK Konstanz 1995; R. Kuhlen: Die Konsequenzen von Informationsassistenten. Was bedeutet informationelle Autonomie oder wie kann Vertrauen in elektronische Dienste in offenen Informationsmärkten gesichert werden? Suhrkamp: Frankfurt a. Main 1999. stw 1443; W.G. Stock: Informationswirtschaft. Management externer Informationen. Oldenbourg: München; Wien 2000.
  • [5] Es ist nicht unwesentlich, sich zu erinnern, wie es zu der Auseinandersetzung um DVD gekommen ist. Verschiede-ne Gruppen der Open-Source-Betriebssystem-Software LINUX hatten sich darum bemüht, DVD-Produkte auch für LINUX lauffähig zu machen. Eine Gruppe (LSDVD) hatte sich daran gemacht, eine lizensierte DVD-Version zu er-stellen, für deren Nutzung ein geringes Entgelt zu bezahlen sein sollte, während eine andere Gruppe (LiViD) an der ursprünglichen Open-Source-Idee festhalten und eine frei zugängliche DVD-Abspielsoftware für LINUX entwickeln wollte. Ziel beider Gruppen war also keineswegs DVD-Piraterie, sondern DVD-Nutzung für LINUX zu ermöglichen. Diese LINUX-Arbeiten hat dann die norwegische Gruppe "Master of Reverse Engineering" (MoRE) aufgegriffen. Sie hat in der offiziellen Software des DVD-Systems eine Lücke entdeckt, durch die verschlüsselte DVD-Filme auf-geschlossen werden können. MoRE hat dann weiterhin den geheimen CSS-Algorithmus aufgedeckt und veröffent-licht. Dadurch wurde auch deutlich, daß die DVD-Software beträchtliche Mängel hat, was die Open-Source-Bewegung u.a. darauf zurückführt, daß die Software nicht offen in Fachkreisen diskutiert und entsprechend verbes-sert werden konnte. Die Bereitstellung von DeCSS war also nur ein logischer Schritt. Schlechte Software kann und soll - so ja auch das Ethos der Hacker-Bewegung - durch bessere Software unterlaufen werden.
  • [6] Vergleichbare Fragen wurden in der zurückliegenden Kryptographie-Debatte gestellt. Bis Ende der 90er Jahre war die Nutzung starker Kryptographie auch mit Berufung auf das Waffengesetz in den USA verboten, so daß kryptogra-phische Hard- und Software unter die Regelungen von AECA (The Arms Export Control Act) bzw. von ITAR (Inter-national Traffic in Arms Regulation) subsumiert und Kryptographie-Exportverbote erlassen werden konnten, vor allem mit Blick auf (damals) starke Kryptographie (oberhalb 40 bits). Gegen den Entwickler von PGP (Pretty Good Privacy), Phil Zimmermann, der PGP, auf der Basis des RSA-Algorithmus und des Public-key-Ansatzes entwickelt und zur freien Verfügung ins Netz gestellt hatte, waren lange Zeit verschiedene Gerichtsverfahren anhängig. Erst 1995 wurde der politische und Verwertungsstreit u.a. dadurch beendet, daß sich eine öffentlich anerkannte Institution, nämlich das M.I.T. bereit erklärte, für PGP eine neue Software-Lösung vorzulegen. Das geschah dann auch in der Zusammenarbeit von Zimmermann und anderen Experten vom M.I.T. Das M.I.T. sah die öffentliche Verantwortung der Wissenschaft, kryptographische Verfahren einer breiten Öffentlichkeit offen zu halten, und engagierte sich entsprechend. Und schließlich sah sich auch die US-Regierung 1998/99 durch gemeinsamen Druck der Informationswirtschaft und der Internet-Bürgerrechtsbewegungen - eine in den USA nicht seltene Koalition - veranlaßt, die Beschränkungen auf Kryptographie aufzugeben. Was als kriminell angesehen war - das Unterlaufen von Kryptographie-Bestimmungen durch frei verfügbare Software -, kann zuweilen durch die Praxis in den elektronischen Informationsräumen legalisiert werden. Strafandrohungen müssen nicht sofort zur Resignation führen, auch gegen sie kann erfolgreich angegangen werden. Auch die Geltung von DMCA muß nicht bleiben. Naturrechte und -gesetze gibt es in den elektronischen Informationsräumen nicht (vgl. Anm. 8).
  • [7] Entsprechend darf Corley auf seiner Website nicht mehr das Herunterladen von DeCSS ermöglichen und auch keine direkten Links auf Sites setzen, die das gestatten. Corley hilft sich durch einen Verweis auf "Disney´s search engine" (!!!), bei der durch Eingabe von DeCSS einige tausend Sites nachgewiesen werden, durch die DeCSS erhältlich ist. Fraglich, ob auch das schon illegal ist, ebenso wie der Verweis auf Mirror sites, die die ursprüngliche 2600.com-Site zugriffsfähig halten.
  • [8] Es ist zu erwarten, daß die jetzt unterlegene 2600.com-Corley-Partei (und mit ihr die immer stärker werdende Open-Source-Bewegung und die Internet-Bewegungen wie Electronic Frontier Foundation) in Berufung gehen wird und daß der Supreme Court in den USA darüber wird befinden müssen. In der Vergangenheit haben Internet-Bürgerrechtsbewegungen häufig genug vor dem Supreme Court als letzte Instanz Recht bekommen, allerdings mei-stens dann, wenn ihre Interessen konform (wenn auch aus unterschiedlichen Gründen) mit den Interessen der Infor-mationswirtschaft waren, so z.B. bei der endgültigen Ablehnung des von der Clinton-Administration eingebrachten und vom Kongreß verabschiedeten Communications Decency Act (CDA), durch das Inhalte von Internet-Angeboten bewertet und kontrolliert werden sollten, oder bei der früheren Ablehnung der staatlich verordneten Clipper-Kryptographie-Software. Bei dem DVD-Problem sind die Interessen der Hollywood-Industrie und die Interessen der Internet-Basisbewegungen allerdings konträr.
  • [9] Wir wagen nicht die hier angesprochenen Fragen grundlegend oder erschöpfend zu diskutieren. Sie werden aber un-sere Kultur von Wissen und Information entscheidend verändern. Die beliebige Verfügbarkeit von Wissen über digi-tal dargestellte Information(sprodukte) läßt vom Prinzip her den Anspruch auf privaten Besitz bzw. private Nutzungs-rechte als obsolet erscheinen. Sowohl der Autoren- als auch der Korrespondenzbegriff des geistigen Eigentums sind in Abhängigkeit von den speziellen, durch die Entwicklung des Buchdrucks mit beweglichen Lettern geprägten me-dialen Rahmenbedingungen für die Produktion und Verteilung von Wissen bzw. Informationsprodukten zu sehen. Diese Rahmenbedingungen sind heute nicht mehr gegeben. (Zum Wandel des Autorenbegriffs vgl. Stephan Werner: Eine historisch-systematische Analyse des Autorenbegriffs und seine Rekonstruktion oder Auflösung im Kontext neuer Präsentations- und Kommunikationsformen. Diplomarbeit Informationswissenschaft. Universität Konstanz, August 1999.)
    Geschützt werden kann der Anspruch auf Wissen bzw. digital repräsentierte Information nur über Software, und jede Software kann durch andere Software reformuliert, aber auch unterlaufen werden. Es scheint sich eine merkwürdige Spirale zu entwickeln, bei der jeweils die Vertreter der Marktinteressen bzw. die Vertreter der öffentlichen Interessen für eine bestimmte, vermutlich immer kürzer werdende Zeitspanne die Nase vorne haben, also entweder den Schutz der Rechte sichern oder diesen Schutz unterlaufen. Im Sinne unserer Unterscheidung der beiden Informationsmärkte, der kommerziellen Marktplätze des Handels mit Informationsprodukten und der öffentlichen Foren des Wissensaus-tauschs (vgl. Kuhlen 1995, s. Anm. 4), könnte man sogar vermuten, daß das Problem des geistigen Eigentums im Wettstreit dieser beiden Marktprinzipien, entsprechend des jeweiligen medialen und Software-Standes, immer von selber zu einer aktuellen Lösung kommt (also nicht der staatlichen Einwirkung bedarf). Die Forumspessimisten wür-den allerdings sagen, daß sich das kommerzielle Interessengewicht auf Dauer durchsetzen wird (zumal dann, wenn es von Seiten des Staates unterstützt wird). So Lessigs Annahme. Die Forumsoptimisten - so wohl noch Müller-Maguhn - gehen davon aus, daß die Kreativität im offenen Informationsraum des Internet immer dafür sorgen wird, daß die rechtlichen und kommerziellen Festschreibungen sich auflösen. Die Marktplatzpessimisten sehen durch die Forum-saktivitäten die gesamte Informationswirtschaft und damit die dadurch weitgehend betroffene Volkswirtschaft ge-fährdet. Die Marktplatzoptimisten sehen für die Warenwirtschaft auch bei Informationsprodukten keine Grenzen und gehen selbstbewußt davon aus, daß über kurz oder lang Forumsaktivisten in den Sog der wirtschaftlichen Attraktivität geraten und für die kommerzielle Verwertung von Wissen zur Verfügung stehen werden. Sieht man diese sich ver-mutlich immer rascher drehende Spirale allerdings als ein zuweilen eher albernes und zudem kostspieliges Geschäft an, so muß ein Konsens darüber gefunden werden, wie denn mit Wissen und Information in der Informations- oder Wissensgesellschaft umzugehen ist.
  • [10] PublishOne: http://www.publish1.com/solutions/whatisdrm.htm
  • [11] Vgl. http://www.intertrust.com/ und http://www.aspsecure.com/about/drm.htm
  • [12] DRM-Technologie kommt zunehmend auch bei der Übertragung sensibler Daten zum Einsatz, wie z.B. in der Te-lemedizin. Datensätze über Patienten müssen entsprechend gesetzlicher Vorschriften (z.B. in den USA durch Healthcare Insurance Portability and Accountability Act (HIPAA) von 1996) dauerhaft, also auch nach dem Down-loading und dem Disconnect, geschützt bleiben. Die bloße verschlüsselte Übertragung reicht nicht. DRM hat zum Ziel, daß die übertragenen Daten nur denen zugänglich sind, die dafür durch Schlüssel oder Lizenz autorisiert sind.
  • [13] Auf das Zoning geht ausführlich Lessig ein: L. Lessig: Code and other laws of cyberspace. Basic Books (Perseus Books Group) New York, NY, 1999
  • [14] Vgl. R. Kuhlen (2000a). Ambivalenz von Filter-, Abblock- und Rating-Verfahren. In: Telekommunikationsjahr-buch 2000. Global@home. Kubicek, H. et al. (ed.); Heidelberg: Hüthig-Verlag, 371-384
  • [15] Vgl. R. Kuhlen: Die Konsequenzen von Informationsassistenten. Was bedeutet informationelle Autonomie oder wie kann Vertrauen in elektronische Dienste in offenen Informationsmärkten gesichert werden? Suhrkamp: Frankfurt a. Main 1999. stw 1443
  • [16] Vgl. R. Kuhlen (2000b). Ende oder neue Chancen für Fair use. NETHICS-Forum, Datum: 2000, http://www.nethics.net/nethics/de/brisant/brisant.html
  • [17] Ein erster Ansatz dazu sind die Diskussionen im sogenannten Tauss-Kreis um eine neue Fachinformationspolitik, die vom Bundestagsabgeordneten Jörg Tauss angestoßen wurden und in ein erstes Eckwerte-Papier gemündet sind. Grundzüge des Tauss-Papiers sind dargestellt und weiter ausgeführt in R. Kuhlen: Fachinformation und Fachkommunikation in der Informationsgesellschaft. Grundzüge einer neuen Fachinformationspolitik in der Bundesrepublik Deutschland. NETHICS-Forum, Datum: 2000, http://www.nethics. net/nethics/de/brisant/brisant.html. (auch in: Festschrift für Norbert Henrichs. Band 32 der "Schriften der Universitäts- und Landesbibliothek Düsseldorf" 2000)

Rainer Kuhlen: Wissen als Eigentum? Wie kann der freie Zugang zu den Ressourcen des Wissens in globalen Informationsräumen gesichert werden?
Beitrag zur Tagung "Wem gehört das Wissen?", Heinrich-Böll-Stiftung, 10/2000


NACH OBEN # ZURÜCK #  # TEXT ALS PDF-DATEI


WWW.WISSENSGESELLSCHAFT.ORG # HEINRICH-BÖLL-STIFTUNG # 2001