von Gregor Halfmann
Zunächst ein Versuch in größtmöglicher Kürze Vilèm Flussers Genese des heutigen Gebrauchs von Buchstaben und Zahlen nachzuvollziehen: Erst ab dem 15. Jahrhundert haben Zahlen als eigenständiges System der Codierung eine vom reinen Buchstabenalphabet getrennte Rolle angenommen. Denn erst seit Descartes setzte sich laut Flusser die Einsicht durch, dass die Natur mit Zahlen besser beschreibbar ist als mit Buchstaben.1) Diese Einsicht fiel mit der Erfindung des Buchdrucks zusammen. War bis dahin die Fähigkeit zu lesen und zu schreiben ein Können weniger Gelehrter und damit ein alphanumerischer — denn aus Buchstaben und Zahlen bestehender — Geheimcode, verbreitet sich mit dem gedruckten Wort die Fähigkeit, rein alphabetische Texte zu lesen. Der neue Geheimcode einer neuen, privilegierten Klasse ist der rein numerische Code, der sich zunächst in den Naturwissenschaften als Codierungssystem des Wissens durchsetzt. Mit der Entwicklung der Integral- und Differentialrechnung erreicht er bis zum 19. Jahrhundert eine Komplexität, die ihn zu einem für normale Bürger unlesbaren Geheimcode machen, der die Begebenheiten der Natur aber nahezu perfekt beschreiben kann. Diese Präzision hat jedoch den Preis, dass Menschen mit dem Zahlencode allein die komplexen Probleme nicht mehr rechnen können. Erst die Erfindung elektronischer Rechenmaschinen erlauben die Codierung und Ausführung mathematischer Operationen basierend auf einem digitalen Zahlensystem.2) Wer diese Art der Programmierung von Maschinen beherrscht, zählt zu der Elite, die mit dem algorithmischen Geheimcode die in den Naturwissenschaften bestimmende Methode der Erkenntnis und Analyse kontrolliert. Die Anwendung weitet sich jedoch aus und betrifft nunmehr „Alles, was früher Wissenschaft, Technik, Politik und Kunst hieß“.3)
Zur Erläuterung: Die Wissenschaft basiert auf Modellen und Simulationen, Technik ebenso; die Politik fällt Entscheidungen basierend auf wirtschaftlichen oder sozialwissenschaftlichen Daten und Prognosen; zur Kunst zählen nunmehr auch „alternative numerisch generierte Phänomene“4) und in der Folge von Markov hat die algorithmische Codierung auch die Literatur erreicht. Das bedeutet nicht, dass sich Kultur (und die Natur übrigens auch nicht) 1:1 in einen Code gießen lässt. Dem ist gerade nicht so, weshalb die numerischen Codierungen ja immer komplexer werden mussten, um die Simulation immer besser werden zu lassen, d.h. die Simulationen der Kontinuität der Natur immer weiter annähern zu lassen und Möglichkeit der Unterschiedung zwischen Sein und Schein möglichst aufzuheben.
Nicht notwendigerweise sind die den Geheimcode beherrschenden Gruppen tatsächlich jene, die politische Macht besitzen. Die heutige Gruppe von Programmierern hilft laut Flusser technische Bilder zu erzeugen, mit denen der Output der Algorithmen der Masse erklärt werden kann. Wenn Macht wie von Michel Foucault vor allem als produktive Beziehung verstanden wird und nicht gleichgesetzt wird mit restriktiven oder gesetzgebenden Staaten und Justiz, leuchtet ein, warum die den jeweiligen Geheimcode beherrschende Elite Macht besitzt. Foucault schlägt vor: „Machtbeziehungen aufsuchen, wo sie am verborgensten sind; ihnen bis in die ökonomischen Infrastrukturen nachgehen; sie unter ihren nicht nur staatlichen, sondern infra- oder para-staatlichen Formen verfolgen; ihr materielles Spiel rekonstruieren.“5)
Einen Versuch in diese Richtung unternimmt Friedrich Kittler, wenn er in Aufschreibesysteme das materielle Spiel rekonstruiert, das um 1800 bzw. um 1900 das Schreiben und Lesen von Texten bedingt hat. Anhand von Kittlers Historisierung der Schreib- und Lesetätigkeit als Kulturtechnik, einschließlich ihrer Praktiken des Erlernens, Auswählens und Produzierens von Texten, lässt sich auch Flussers Abfolge der Geheimcodes noch einmal nachvollziehen, vielleicht sogar präzisieren6): Noch um 1800 wurde Bildung als Konzept entworfen, an dessen Anfang das Erlernen der Lesefähigkeit naturalisiert wurde und als dessen Spitze die Philosophie galt. Bildung und Entwicklung bedeuten in diesem Modell vor allem die Fähigkeit mit Texten, d.h. mit dem Alphabet umgehen zu können, auch wenn der Zahlencode bereits eine starke Rolle eingenommen hat.7) Bis 1900 schrumpft jedoch die Bedeutung der Philosophie in den Universitäten; die Naturwissenschaften, die ihre mathematischen, auf dem numerischen Geheimcode basierenden Methoden in dieser Zeit auf den Menschen (Psychophysik, Psychoanalyse) und damit auch auf die Techniken des Lesens und Schreibens ausweiten, gelten nun als höchste Stufe der Bildung.
Foucaults Machtanalysen nehmen vor allem Institutionen und ihre Praktiken in den Fokus; dabei werden „Regularitäten des Diskurses als denkbare Regeln behandelt“, wie Kittler schreibt.8) Bei seiner Analyse der Lese- und Schreibtechniken geht Kittler selbstverständlich auch auf Institutionen wie die Schule und die Universität ein. Doch seine Analyse ist um technisch-materielle Aspekte erweitert, die ebenso die Regularitäten des Diskurses bestimmen. Die Wichtigkeit von technischen Schwellen wird auch in Flussers Analyse deutlich, laut der die Erfindungen des Buchdrucks und der Rechenmaschine zur Durchsetzung eines neuen Geheimcodes der Machtelite beitrugen. Ebenso wie andere diskursive Praktiken (z.B. der Äußerung, der Erkenntnis, der Disziplinierung) sind technische Medien als produktive Komponenten von Machtbeziehungen auch im Bezug auf elementare Kulturtechniken wie Lesen und Schreiben von grundlegender Bedeutung.