[Wiki Startseite]WikiPublikationen/OpenAccessExtended

Ask23: Ask23Wiki > WikiPublikationen > OpenAccessExtended || NeuesteAenderungen | Einstellungen

Version 6

Open Access Extended

Vortragsmanuskript zur Veranstaltung 10 Jahre Archiv k23, Ulf Treger

Der Fokus meines Vortrags ist die Verfügbarkeit von »Wissen« (und Informationen) in elektronischen Medien. Im vorgehenden Beitrag von Ulrike Mahlmann wurde die Möglichkeiten für Autorinnen und Autoren vorgestellt, ihre Werke relativ freizügig zu veröffentlichen, ich möchte hiermit die Perspektive der Einrichtungen und Projekte, die Inhalte anbieten hinzufügen.

Mit dem Internet wurde in den vergangenen zehn Jahren eine Vielzahl von Versprechen und Überhöhungen verknüpft. Auch wenn längst nicht alle davon eingelöst wurden (wie das Versprechen eines Goldrausch-artigen »wirtschaftlichen Erfolgs«, wie er rund um den DotCom-Hype 1999/2000 imaginiert wurde), so stellen heute internetbasierte Hypermedien einen wichtigen, und dabei sehr dynamischen Bereich medialer Kommunikation dar -- lediglich die Zuschreibungen haben sich deutlich relativiert. Die Entwicklung und Verbreitung des Internets geht trotz gedrosselter Erwartungshaltungen unvermindert weiter. Zu beobachten sind zum einen Verbesserungen und Verfeinerungen hinsichtlich der spezifischen Eigenschaften Hypertext sowie der bi- und multi-direktionalen Kommunikation. Die Anwendung von Netzmedien entwickelt sich zunehmend von einem Imitat/Nachbau herkömmlicher Medien (also auf der Ebene der Websites von Katalog, Zeitung oder Visitenkarte, Imagebroschüre) zu einem eigenständigen Medium weiter (wie vielleicht Blogs, Filesharing, Wikis), auch auf der Ebenen der vermittelnden Metaphern. Zum anderen hat bereits eine, bereits früher abzeichnende Verschmelzung mit anderen Medien wie (Mobil-)Telefonie, Fernsehen begonnen. Insbesondere durch eine zunehmende Mobilisierung und Miniaturisierung wird künftig die internetbasierte Kommunikation immer weitere Teile des physikalischen Raum durchdringen oder beeinflussen und künftig noch weitergehende Effekte und Veränderung in Kommunikation, Wahrnehmung und Mediengebrauch hervorrufen.

Heutzutage sind vor allem drei Aspekte bei der Internet-basierten Kommunikation von Bedeutung: Das Netz als Plattform für die synchrone und asynchrone Kommunikation, mit eMail, Chat- und Messengersystemen, Foren und den Schwarzen Brettern des Usenet, bis hin zu neueren Entwicklung wie VoIP (oder auch Internettelefonie genannt); das Netz als Basis für soziale Prozesse, also Phänomenen wie Selbstorganisation, Kollaboration, soziale Netzwerke, die auch für die gemeinschaftliche Produktion von Software, Musik und anderen Kulturproduktionen genutzt werden; sowie das Netz als Veröffentlichungsmedium und Wissenspeicher, in dem mit einfachen Mitteln und geringen Kosten (also ohne Ausgaben für Reproduktion und Weiterverteilung), dezentral verfügbare Informationen publiziert werden können.


Gedächtnisprozesse

Besonders die beiden letzteren Aspekte haben zu einer veränderten »Verfügbarkeit von Kulturwissen« beitragen. Im Gegensatz zu herkömmlichen Methoden des Speicherns, den »Archiven«, werden im Internet als riesige Ansammlung von Informationen, nicht mehr nur statische »Gedächtnissobjekte« gespeichert, vielmehr entstehen hier »Gedächtnisseprozesse« in deren Verlauf Inhalt, Zusammensetzung und Kontext einer steten Veränderung unterliegen. Wolfgang Ernst beschreibt dies in seinem Buch »Das Rumoren der Archive«: »Jenseits der traditionellen Vorstellungen des Archivs als Container oder black box, zeichnet sich die dynamische Konzeption komplexer Systeme aus Speichern, Menschen und Organisationen ab, im ständigen Spiel von De- und Rekontextualisierung«. (Wolfgang Ernst: Das Rumoren der Archive, 2002, ISBN 3-88396-176-0 ) Mit der Eigenschaft als dynamischer oder auch »flüssiger« Wissenspeicher möchte ich mich in diesem Vortrag eingehender beschäftigen: Denn angesichts der Veränderungen durch internetbasierte Kommunikation auf Medien und Mediengebrauch, sind eine Reihe von Problemstellungen entstanden, so die Frage nach Verfügbarkeit, Zugang, Bewertung und Gebrauch von Informationen, die über dieses Medium verfügbar gemachten werden.

Ein Stichwort, das in diesem Kontext angeführt wird, ist »Digital Divide« oder auch «Content Divide«, also die Kluft zwischen allen, die ungehinderten Zugang zu Internettechnologien und die darüber verfügbare Inhalte haben und solchen, die diesen Zugang nicht haben. Der Anspruch auf eine allgemeine Chancengleichheit führt zu der Frage, wer unter welchen gesellschaftlichen, ökonomischen wie technischen Bedingungen Zugang zu Informationen hat, und wer nicht, und im weiteren auch, mit welchen Intentionen Informationen veröffentlicht werden und welche nicht. Diese Fragen sind so basal wie brisant, wäre doch nach den prinzipiellen technischen Eigenschaften digitaler Kommunikation der Zugang zum Wissen einfacher und allgemeiner, als in allen Epochen der Mediengeschichte zuvor.

Eine Antwort auf diese Frage nach der Zugänglichkeit von Wissen wird im Bereich von Wissenschaft und Forschung versucht. Dieser Ansatz läßt sich bei der Idee des »Open Access«, des »offenen Zugangs« finden, den ich hier hier kurz umreißen möchte.


Open Access

Die Idee des offenen Zugangs wird in verschiedenen Erklärungen und Initiativen propagiert, so in der Budapest Open Access Initiative, der »Berliner Erklärung über offenen Zugang zu wissenschaftlichen Wissen« oder der »Wiener Erklärung: 10 Thesen zur Informationsfreiheit« Die Berliner Open Access Erklärung wurde 2003 von den großen bundesdeutschen Wissenschaftsorganisationen verfasst (so von der Deutschen Forschungsgemeinschaft, der Max-Plank-Gesellschaft, dem Wissenschaftsrat und der Hochschulrektorenkonferenz) und definiert als eine dem Open Access Gedanken folgende Praxis die freie Verfügbarkeit von Werken in elektronischen Publikations- und Archivsystemen, sowie die Erlaubnis zur freien Weitergabe und Veränderung der veröffentlichten Werke. So soll eine möglichst große Basis frei verfügbaren Wissens entstehen: »Zur Verwirklichung der Vision einer umfassenden und zugänglichen Wissensrepräsentation muss das künftige Web nachhaltig, interaktiv und transparent sein. Inhalte und Software müssen dazu frei verfügbar und kompatibel sein.« Berliner Erklärung

Ein Auslöser für diese Initiativen ist die sogenannte »Zeitschriftenkrise (WikiPedia)«. Diese Krise betrifft das Veröffentlichungswesen insbesondere in den Naturwissenschaften, dass traditionell auf kommerzielle Zeitschriftenverlage basiert und zunehmend als nicht finanzierbarer Kostenfaktor und Hemmnis für den freien Zugriff auf Fachveröffentlichung begriffen wird. Durch zwei Methoden, nämlich der Selbstveröffentlichung (des Self-Archiving) durch Wissenschaftler in Publikationsservern sowie der Gründung von Open-Access-Journals, sollen freie und kostengünstige Infrastrukturen entstehen und nebenbei der Kostenfaktor der teueren Fachzeitschriften reduziert werden. Dementsprechend sind die Naturwissenschaften bereits seit Jahren federführend in Entwicklung und Betrieb von Veröffentlichungsystemen im Netz.

Ein zentraler Aspekt des Open Access ist also die Frage nach der langfristigen und freien Verfügbarkeit von nicht nur wissenschaftlichen sondern – je nach Lesart – auch aller anderen Arten kultureller Produktion im elektronischen Zeitalter. Und dies betrifft insbesondere solchen Wissens, dessen Produktion – wie es von Fürsprechern der Open Access Idee gerne angeführt wird – zum größten Teil von öffentlichen Steuermitteln bezahlt wurde (Harold Varmus zit. nach Mruck, Mey: »Open Access«, Forum Wissenschaft, 2005). Es wäre deshalb absurd, gar verwerflich, diese nicht, oder ausschließlich gegen Gebühren oder über andere Hemmschwellen zugänglich zu machen. Damit einhergehend sind die nationalen Urheberrechtsgesetze – den Wiener Thesen zur Informationsfreiheit zufolge – »überarbeitungsbedürftig«, um einen verloren gegangenen Ausgleich der Interessen von »UrheberInnen, VerwerterInnen und der Allgemeinheit« wieder herzustellen. Ein Verhältnis, welches nicht durch die veränderten Bedingungen durch elektronische Kommunikation beeinflusst wird, sondern sich auch verstärkt zum Vorteil der Verwertern vorschoben hat. In der Praxis soll eine Open Access Veröffentlichung nicht im Widerspruch zur einer honorierten Veröffentlichung stehen, sondern immer dann Anwendung finden, wenn der Autor entweder kein Honorar erhält, oder vor der Veröffentlichung als so genanntes »Preprint« oder aber, wenn nach der Erstveröffentlichung eine gewisse, nicht zu großzügig bemessene Zeit vergangen ist.

In Folge der Erklärung vor 2 1⁄2 Jahren ist hierzulande nur eine bescheidene Anzahl von Unternehmungen öffentlich wahrnehmbar, um die Open Access Idee mit Leben zu füllen. Ein Ansatz geht von DINI (der Deutschen Initiative für Netzwerkinformation, ein Zusammenschluss von Bibliotheken und Medienzentren von Hochschulen) aus, die mithilfe einer »Zertifizierung« von Publikationsservern, institutionelle Inhalte-Anbieter wie Hochschulbibliotheken und akademische Medieneinrichtungen für die Einhaltung konzeptioneller und technischer Grundlagen des »Open Access« gewinnen will. (Das Archiv- und Publikationssystem ask23 hat sich kürzlich erfolgreich um ein solches Zertifikat bemüht, was ein Anlass für die heutige Veranstaltung ist). Das Problem ist auch, dass außerhalb der Gruppe der Naturwissenschaftler die Idee wenig bekannt ist oder gar in die Praxis umgesetzt wird. So wird in den Geisteswissenschaften nur jede 20. Veröffentlichung im Internet veröffentlicht (vgl. heise news ), ganz zu schweigen von dem praktisch nicht messbaren Anteil von Veröffentlichungen nach den Prinzipien des Open Access.

Kritisiert wird an der Berliner Erklärung vor allem das Fehlen einer konkreten Empfehlung für ein bestehendes oder gar die Entwicklung eines eigenen Lizenzmodells (vgl. ifrOSS: »Open Content und Open Access«) Mit Bezugnahme auf diese Ansätze wäre zu erörtern, wie es um ihre Wirksamkeit bestellt ist, vor allem was darüber hinaus unter einem freien Zugang verstanden werden könnte.


Problematiken

In diesem Kontext sind einige Problematiken augenfällig, über deren Auswirkungen eine breitere Diskussion wünschenswert wäre:

Zum einen das Urheberrecht, mit der schon erwähnten Kritik, dass sich hier eine deutliche Verschiebung in der Intention ergeben hat, von dem Focus auf Autorenrechten hin zu den Rechten der Verwertungswirtschaft. (Ob bei der Entwicklung des Urheberrechts die Intention wirklich auf die Rechte von Autoren lag, oder ob hier nicht schon bereits die Verwertungsträger die eigentlichen Bevorteilten sein sollten, sei an dieser Stelle dahingestellt). Nach Lev Manovich beruht das Urheberrecht (bzw. das Copyright im angelsächischen Raum) grundsätzlich auf der Mitteilung, was man nicht mit Werken anderer machen darf – und nicht, wie es bspw. durch Creative Commons versucht wird, durch die positivere Botschaft, was mit einem Werk gemacht werden darf (Lev Manovich: "Black Box - White Cube, 2005, ISBN 3883961973).

Damit verbunden ist eine andere, bedenkliche Entwicklung: Elementare Eigenschaften von digitalen Daten sind bekanntlicht ihre verlustfreie »Kopierkeit« (oder genauer die Möglichkeit, beliebig viele Originale erzeugen zu können) sowie die einfache Verteilbarkeit dieser Daten über Zeit und Raum hinweg. Offensichtlich gibt es vielfache Bestrebungen diese Grundeigenschaften künstlich und oft mühevoll einzuschränken, um so digitalen Daten – als theoretisch unbegrenzt verfügbare Ressource – durch Verknappung und Zugangsbeschränkung eine bessere »Warenförmigkeit« zu verleihen. Als Stichworte seien hier technische Maßnahmen wie Digital Rights Management oder juridische wie Verschärfungen des Urheberrechts auf nationalen und internationalen Ebenen (das sich dadurch immer mehr zu einem »Handelsrecht« zugunsten einer industriellen Vermarktbarkeit entwickelt) genannt. Zudem werden durch technische und aufwendige Eindämmungsversuche digitale oder digitalisierte Werke wie Musik und Filme technisch soweit verändert, dass sie für die Konsumenten nur noch unter beschränkten Bedingungen (mit eingeschränkten Funktionalitäten, durch spezielle Wiedergabe-Software oder die Beschränkung auf bestimmte Systemumgebungen) benutzbar sind. Das führt zu drastischen Einschränkungen in der Freiheit der Benutzung, ungefähr so, also ab man sein gekauftes Buch nur mit einer speziellen Brille einer bestimmten Optikerkette lesen könnte. Es ist zu bezweifeln ob solche Maßnahmen das eigentliche Problem, nämlich dass sich klassische Vermarktungswege schlecht mit den neuen elektronischen Medien vertragen, nicht lösen können.

Die Schrankenregelung ist hierzulande im Übrigen einer der wenigen Ausnahmen für eine genehmigungsfreie Nutzung von Werken, die durch das Urheberrecht geschützt sind. Diese Nutzung ist nur einem eng definierten Rahmen und im begrenzten Umfang für Lehre und Forschung erlaubt. Der Fortbestand dieser Ausnahmeregelung im Paragraphen §52a ist allerdings nicht gesichert: In der aktuellen Fassung des Urheberrechtsgesetz ist dieser Abschnitt nach harten Auseinandersetzung nur mit einer zeitlich begrenzten Gültigkeitsdauer aufgenommen worden (bis Ende 2006). Deshalb steht diese Regelung in diesem Jahr erneut zur Disposition, und es ist ungewiss ob diese Regelung erhalten bleibt. Dieser Umstand ist ein weiterer Grund über offene Inhalte auch im akademischen Kontext zu diskutieren, da diese Regelung bis dato für eine relativ freizügige Benutzung geschützter Werke im Kontext von Forschung und Lehre erlaubt.

Bastard Pop - RIAA: "Recording Industries Are Archaic"

Ein weiteres Feld, dass es zu verhandeln gilt, ist das Autorenmodell. Hierbei ist vor allem die Frage interessant, unter welchen Bedingungen Autorenschaft bzw. Kulturproduktion im Allgemeinen funktioniert. Wie sie inbesondere durch ihren sozialen und kulturellen Kontext beeinflusst werden, und welche Bedeutung der Zugriff auf Wissen zukommt, um wiederum eigenes Wissen und Kulturproduktionen erzeugen zu können. Frei nach Roland Barthes ist schließlich jeder Text (und damit im weiteren Sinn jedes kulturelle Produkt) „ein Gewebe von Zitaten aus unzähligen Stätten der Kultur“. Ohne diesen wichtigen Komplex hier ausführlicher behandeln zu können, so ist doch festzustellen, dass das Modell der Autorenschaft im elektronischen Zeitalter einen Bedeutungswandel erfährt und sich das Bild eines vermeintlich autonom agierenden Künstlers oder Autors weiter zersetzt. Dagegen finden kollaborative Arbeitsprozesse in digitalen, vernetzten Medien eine hervorragende Grundlage. Eine interessante Rolle kommt hierbei der elektronischen Musik zu, von Hip Hop über Elektro, Grime bis Bastard Pop. Hier wird mit den Methoden des Remix, Sampling oder Mash-Ups gearbeitet, die Entstehung völlig neuer Werke unter direkter zuhilfenahme bestehender Werke ist längst allgemein als legitime Kulturpraxis anerkannt. Eine bewußte Überspitzung findet im Bootlegging oder »Bastard Pop« statt, wo ohne viel Umstände aus zwei bis drei unterschiedlichen Musikstücken relativ brachial eine neue Version zusammengeschweißt wird. Den Produzenten ist es dabei völlig bewußt, dass ihre Methoden gängigen Regeln des Copyrights oder Urheberrechts widersprechen. Lev Manovich stellt in diesem Zusammenhang fest, dass in vielen anderen Bereichen, wie Film, Design, Grafik, Remix und Sampling zur täglichen Praxis gehören, dies aber in der Regel verheimlicht wird und „es keine geeigneten Begriffe gibt, die dem Remixen in der Musik entsprechend würden und diese Praktiken beschreiben könnten“ (Lev Manovich: "Black Box - White Cube, 2005, ISBN 3883961973). Hier wäre also nötig, einen Shift der Kulturtechniken unter elektronischen Vorzeichen anzuerkennen und zu bewerten. Eine solche Neubewertung könnte dann auch eine Antwort auf die landläufige These entwickeln, die besagt, dass nur durch Verknappung und Zugriffsbeschränkung die Ergebnisse schöpferischer Arbeit gesichert werden können.

Aus meiner eigenen Praxis, bei der Entwicklung von künstlerischen Projekten und Kulturproduktionen, kann ich feststellen, dass diese Projekte ohne die Möglichkeit breit und niedrigschwellig, zielstrebig oder assoziativ auf Informationen zuzugreifen (um den Hintergrund der eigenen Auseinandersetzung) füllen zu können, nicht möglich oder mit deutlich größeren Aufwand verbunden wären. Der Zugriff auf verfügbare digitale Informationen, beispielsweise mit Hilfe des größten bestehenden „Open Access Systems“, der Suchmaschine »Google«, entspricht auch der heute gängigen Praxis vieler Studierender.

Schließlich der Hinweis auf das Problem der »Walled Gardens«, der umzäunten Gärten: Darunter sind Softwareprojekte zu Verstehen, die aufgrund fehlender Kompatibilität, aufgrund von Datenstrukturen, die im schlechtesten Falle nur mit ganz bestimmten Programmen einzelner Firmen lesbar sind, nach außen hermetische Systeme darstellen. Projekte, die sich als solche geschlossenen Systeme aufstellen, erschweren oder verhindern nicht nur den Zugang zu ihnen. Sie geben sich auch in äußere Abhängigkeiten, in dem sich auf intransparente Datenformate oder individuelle Normierungen beziehen. Nach dem Verschwinden einer Firma (Liquidation, Übernahme oder Insolvenz), und damit ihrer Produkte, können solche Projekte mittelfristig nicht mehr nutzbar werden oder müssen mit großen Aufwand auf andere Plattformen übertragen werden. So wird im e-Learning Bereich häufig mit properitären, hermetischen Systemen gearbeitet, die für e-Learning Kurse erstellten Inhalte sind darin geradezu eingeschlossen, räumlich und zeitlich begrenzt. Der Aufwand für ihre Erstellung oder Aufbereitung steht dazu in keinem vernünftigen Verhältnis. Für Digitale Wissenssammlungen , die langfristig und frei verfügbar gemacht werden sollen, gilt es, aber genau diese Probleme und Abhängigkeiten zu vermeiden.

Opus Creative Commons


Open Source, Free Software und die Idee des Open Content

Die Idee eines Freien Zugangs und der Freien Inhalte ist besonders durch Erfolg und Bedeutung der Freien Software Bewegung inspiriert worden. Dabei wurde anfangs bezweifelt, dass sich das Open-Source-Konzept der kollaborativen Produktion von Programmiercode auf Textproduktionen, multimediale und andere visuelle Werke übertragen lassen. Sicherlich ist die Autorenschaft (und vielleicht auch die sogenannte »Schöpfungshöhe«) bei Codezeilen eines Programms anders einzuordnen, als bei Essays, Fotografien oder Zeichnungen. Aber Beispiele wie Wikipedia und andere auf Wiki-Software basierende Wissensysteme, zeigen, dass es durchaus möglich ist, sogenanntes »geistiges Eigentum« kollaborativ zu erstellen. Auch experimentelle und künstlerische Projekte wie die OPUS-Plattform der indischen Künstlergruppe Raqs Media Collective oder die Social Software »Nine« der Gruppe Mongrel sind entsprechende Beispiele für eine exemplarische Annährung an diese Produktionspraxen.


Der erweiterte offene Zugang

TouchGraph GoogleBrowser? (Java)

Mit Blick auf die Konzepte der Freien Software-Bewegung, wie ließe sich die Idee eines offenen, freien Zugangs zu Wissen und Informationen mit Leben füllen und ausbauen? Folgende Elemente können dabei eine Rolle spielen:

1) Auf der Ebene der technischen Grundlagen die stringente Verwendung von Offenen Standards, Datenformaten und Metadaten, wie sie insbesondere durch das World Wide Web Konsortium vorgeschlagen werden, sowie die Errichtung von offenen Schnittstellen, um die Daten über System- und Softwaregrenzen hinweg austauschen und kombinieren zu können. Ein anderes, triviales Beispiel, aber keineswegs eine Selbstverständlichkeit ist die Möglichkeit der Durchsuchbarkeit von Publikationsystemen durch Suchmaschinen.

del.icio.us

2) Erprobung und Weiterentwicklung von Netztechnologien, beispielhaft dazu zwei Ansätze: Die Verknüpfung und Rekombination von Informationen, also die Kombination von verschiedenen Informationsquellen und Datendiensten und somit die Anreichung des eigenen Informationsangebots; die Informationsstrukturierung und -anreicherung durch Anwenderfeedback. Eine interessante Entwicklung in diesem Zusammenhang sind Tags oder »Folksonomies« (also Taxonomien oder Kategorisierungen, die durch die Anwender definiert werden, wörtlich »Klassifizierung durch Leute«). Diese Klassifizierungen ergeben bei ausreichender Breite der Benuztung eine erstaunlich gute Qualität und erlaubt den AnwenderInnen die Zuordnung und das Auffinden von Informationen.

Citebase Search, Bsp. Alan Turing

Ein anderes Beispiel aus dem wissenschaftlichen Bereiche sind automatische, sich selbst erzeugende Referenzsysteme, welche Quellennachweise einer wissenschaftlichen Arbeit automatisch auswerten, und so Rückverweise sichtbar machen, also die Frage zu beantowrten, wer in welchem Kontext sich ein anderes Werk bezieht.

3) Open Content – offene Nutzungslizenzen mit dem Ziel der freien Verfügbarkeit. Damit ist nicht nur die Veröffentlichung auf einer Website gemeint, sondern die Kombination mit einer offenen Nutzungslizenz (Creative Commons, Free Documentation Licence) sowie damit einhergehend die Selbstverpflichtung von Inhalteanbietern, besonders den Archiv- und Publikationsystemen, die von ihnen veröffentlichten Inhalte offen und langfristig verfügbar zu halten. Daneben: Neue Konzepte für das Urheberrecht, wie beispielsweise der Vorschlag den urherrechtlichen Schutz eines Werkes nach einem gewissen, überschaubaren Zeitraum, zur allgemeinen Benutzung freizugeben.

4) Ein zentrales Element wäre die Offenheit in der Intention, also das Prinzip der Offenheit bei der die Ausrichtung der Anlage/Konzeption beim Aufbau von Wissensystemen, Archiven und Publikationsplattformen zu berücksichtigen – ich habe vorhin mit den »walled gardens« ein Negativbeispiel erläutert. Anstatt also hermetische „Kurse“ zu „designen“, ist vielmehr die Erstellung einer kombinierbaren und kontextualisierbaren Matrix erstrebenswert, deren Inhalte auch über den unmittelbaren Kontext, über Raum und Zeit zur Verfügung stehen und die sich mit anderen Wissensystemen rekombinieren lassen. Eine solche grundlegende Intention betrifft natürlich auch das Veröffentlichen von Werken selber und, siehe oben, deren Verknüpfung mit entsprechenden Lizenzen.

5) Ein andere das Experimentieren mit und Erfinden von Schnittstellen, Navigationsmodellen und alternativen Datendarstellungen – also die Frage nach der Repräsentation von Daten und ihren Relationen, sowie die Reflektion über Aussagen und Setzungen die durch Repräsentationen, Metaphern und Schnittstellen getroffen werden. Ein Beispiel ist das von Ulf Freyhoff, u.a. entwickelte System Imagespace.

6) Schließlich flankierende Maßnahmen zur Unterstützung und Ausbau offener Datendiensten: Um eine gewisse Unabhängigkeit von Veränderungen in der Unternehmenspolitik einiger weniger Firmen (Google, Yahoo, ...) abhängig zu sein, wäre der Aufbau von freien Suchmaschinen sinnvoll.

Dieser Set aus Maßnahmen ließe sich sicherlich weiter verfeinern oder erweitern, stellt an sich aber eine Grundlage für eine erweiterte Praxis des offenen Zugangs dar.

Abschließend ein vereinfachtes Beispiel aus dem Hochschul-Alltag für die Anwendung der Open Access Idee: Ein Projekt, Seminar oder Workshop könnte also unter Anwendung vorhandener Methoden wie folgt verfahren: Zu Beginn stünde eine Recherche unter Nutzung geeigneter und einfacher Werkzeuge und Plattformen an, welche Informationen zum Thema eines Seminars zur freien Verfügung stehen, diese würden über eine Projektwebseite referenziert und für die Seminararbeit eingesetzt. Informationen, die noch fehlen, müssten für diese Sammlung ergänzt werden, bei Copyright-geschützten Werken unter Beachtung der Schrankenregelung. Und schließlich würden alle Informationen (Daten, Definitionen, Texte, etc.), die im Rahmen des Seminarverlaufs selbst entstehen, unter einer geeigneten offenen Lizenz in einen Pool freier Informationen eingespeist werden. Jede Nutzung der öffentlichen Wissensbasen würde durch solche Vorgehensweisen nicht nur die eigene Praxis bereichern, sondern im Gegenzug auch eine Erweiterung dieser Basen bewirken, die so gesammelten bzw. veröffentlichten Informationen künftig für andere Kontexte verfügbar sein (von nachfolgenden Seminaren bis zu völlig anderen Kontexten, die über eine gewisse Überschneidung inhaltlicher Interessen verfügen).

Nun wäre die Frage legitim, ob es wirklich sinnvoll ist, »alles mögliche« zu veröffentlichen. Natürlich ist »Masse« an sich kein besonders gutes Konzept. Zum einen sind wir aber weit davon entfernt, diesem Problem gegenüber zu stehen. Wenn es dann mal soweit sollte – über Hypertextmedien wird auch gerne in einer Gehirn-Metapher gesprochen – wird das Vergessen eine interessante Funktion werden. Von Bedeutung sind in diesem Zusammenhang auch synergetische Ansätze, die vermeiden helfen, dass gleichförmige/redundante Informationen an vielen verschiedenen Stellen angehäuft werden. Mit diesen Bedingungen könnte eine langfristige Perspektive, oder wie es heute so schön genannt wird, einer »nachhaltigen« Kultur des freien Zugangs zu Wissens und Informationen entwickelt und gefördert werden, von dem nicht nur alle beteiligten Akteure sowie die Öffentlichkeit als Ganzes profitieren würden.


Ask23: Ask23Wiki > WikiPublikationen > OpenAccessExtended || NeuesteAenderungen | Einstellungen
Diese Seite ist schreibgeschützt | Zeige andere Versionen dieser Seite | Zeige die aktuelle Version dieser Seite | Durchsuche MetaWiki
Geändert June 29, 2006 6:38 pm von (protokolliert).hfbk.net (Unterschied zur Vorversion)
Suche:
Wiki des archivsystem ak23