ICS Dr. G. Roscher GmbH

Informationsprozesse

Home

Products

Projects

Publications

ICS and more


Informationsprozesse in technischen Systemen -

Modelle und Methoden zur Erforschung des menschlichen Denkens


Dr.-Ing., Dipl.-Math. Günther Roscher 1

I C S Dr. G. Roscher GmbH

Am Kirchberg 6, D - 39326 Klein Ammensleben,

Tel.: +49 39 202/52 12-6, Fax: -8, E-Mail: webmaster@ICSRoscher.de


Das ist eine leicht überarbeitete Version, die eine Weiterführung der Arbeiten zur Dissertation B unter dem Titel:

Rechnerunterstützung – Neugestaltung von Informationsprozessen mit qualitativem Erkenntnisgewinn

darstellt.


Inhalt Seite


Kurzreferat 1

1. Informationsprozesse erzeugen Information 3

2. Rechnerunterstützte technische Vorbereitung (RTV) 4

3. Rechnerunterstützung bei psychophysiologischen Untersuchungen 6

3.1. Methoden der rechnerunterstützten Auswertung des EEG 7

3.2. Die neue Strategie psychophysiologischer Untersuchungen 8

3.2.1. Methodisches Vorgehen 8

3.2.2. Das Konzept der virtuellen Quellen 9

3.2.3. Das "sichtbare" Denken, das EEG als mögliche Zustandsbeschreibung des Gehirns 9

3.3. Technische Realisierung 10

3.4. Anwendungen der Methode der virtuellen Quellen 10

4. Die Stufen der Kommunikation 11

5. Qualitative Entwicklung der Informationsprozesse 13

6. Rechnerunterstützung – 14

Neugestaltung von Informationsprozessen mit qualitativem Erkenntnisgewinn 14

CATI (Computer Aided Trust Internet) - das sichere Internet 14

Literaturverzeichnis: 16


Kurzreferat

Am Beispiel der rechnergestützten technischen Vorbereitung wird die Bedeutung der Sprachen zur Kommunikation zwischen Mensch und Rechner, zur Vermittlung des Wissens an den Rechner dargestellt. Im Rechner wird das Modell zum Vorausdenken neuer Erzeugnisse und ihrer Herstellung realisiert. Für die psychophysiologischen Untersuchungen wird durch die Echtzeitanalyse des EEG mit Hilfe eines leistungsfähigen Multiprozessorsystems und durch ein innovatives Systemmodell ein neuer Zugang zur Erforschung der Informationsprozesse im Menschen entwickelt. So werden neue Einblicke in die Erzeugung von Information gewonnen.


Engineers using languages to transfer the knowledge in computers by integrated CAD/CAM-processes, for modeling the designing and manufacturing of products. Powerful multiprocessor systems can analyze and recognize complex signals (EEG) in real-time and were used in psychophysiological tests to interpret the EEG as possible description of the state of the brain. In these ways technical systems can support the modeling and give new insights in the creation of information.


Informationsprozesse in technischen Systemen -

Modelle und Methoden zur Erforschung des menschlichen Denkens


1. Informationsprozesse erzeugen Information

Nicht nur die materialistischen Philosophen hatten in der Vergangenheit erhebliche Probleme, den Informationsbegriff richtig einzuordnen. "Der Informationsbegriff ist auch gegenwärtig noch umstritten. Wir können deshalb nur allgemein festhalten, dass Information eine durch ihre Funktion bestimmte spezifische Form der Widerspiegelung als allgemeiner Eigenschaft der Materie ist." /27, S. 610/

Wiener sagt dazu: "Information is information, not matter or energy." /78/ ("Information ist Information, weder Materie noch Energie." /27/). An dieser Aussage entzündeten sich in der Vergangenheit die Diskussionen und trennten sich die Welten. Was Wiener ausdrücken will ist nach meiner jetzigen Kenntnis, dass Information eine eigenständige philosophische Kategorie ist, die der Materie, richtiger Masse und Energie diametral gegenübersteht. Der Begriff ‚Informationsprozess’ ist dagegen weitgehend klar und wird auch von den materialistischen Philosophen akzeptiert.

Laut Definition nach Laux werden bei einen Informationsprozess "die vier Grundoperationen: Informationserfassung (E), Informationsverarbeitung (V), Informationsspeicherung (S) und Informationsweiterleitung (W) unterschieden,..." /38/.

Betrachten wir Informationsprozesse unter dem Aspekt der Realisierung durch technische Systeme, so stellt sich sofort die Frage, ob eine solche Betrachtung zulässig ist. Kann in technischen Systemen Information erzeugt werden oder ist diese Fähigkeit ausschließlich Lebewesen vorbehalten?

Diese Frage berührt sehr stark die Methoden und Forschungen des Bereiches der ‚Künstlichen Intelligenz’. Durch sie soll der Nachweis über die Fähigkeiten technischer Systeme erbracht werden. Gleichzeitig stößt diese Betrachtung auf Kritik. Sind menschliche und künstliche Intelligenz vergleichbar? Ist die Verwendung des gemeinsamen Begriffes Intelligenz statthaft. Dem steht entgegen, dass der Begriff Intelligenz durch menschliche Intelligenz belegt ist, wir jedoch bisher keine wissenschaftlich ausreichende Erklärung auch dieses Begriffes gefunden haben.

Historisch bedeutsam für den Vergleich von menschlicher mit künstlicher Intelligenz ist der Turing-Test und die genannten Probleme sollen durch einen Anti-Turing-Test verdeutlicht werden:

Bei der Untersuchung der Realisierung von Informationsprozessen am Menschen im Rahmen psychophysiologischer Untersuchungen zeigten sich die bereits genannten Probleme, zumal der messtechnische Zugang zu diesen Prozessen außerordentlich schwierig ist. Einfacher ist das zweifellos an Tieren, denen jedoch die Sprache als wesentliches Mittel zur Kommunikation und damit auch zur Darstellung der Informationsprozesse weitgehend fehlt. Überschaubar und beinahe schlüssig werden diese Prozesse an Einzellern.

Hoppe schreibt dazu: "Leben begann mit dem ersten Strang, der sich selbst replizieren und mutieren konnte und dadurch der Selektion unterworfen war. Wie soll man Leben definieren? Mit einer Ausnahme scheint es willkürlich, irgendeinem der bisher beschriebenen Schritte als Grenze zwischen belebt und unbelebt zu betrachten, und dasselbe gilt für alle Stufen, die noch beschrieben werden sollen: Die Ausnahme bildet der allererste Schritt, das erste Auftauchen von Systemen, die sich selbst replizieren und die mutieren können, und die dadurch einer Selektion unterworfen sind. Dieser letzte Schritt ist der einzige, der zum Entstehen einer neuen Eigenschaft der Materie führt, während alle späteren Schritte graduelle Verbesserungen dieser neuen Eigenschaft sind. Diese Eigenschaft, die vorher auch nicht andeutungsweise vorhanden war, manifestiert sich mit der Existenz von Systemen, die sich vervielfältigen, mutieren und selektiert werden können, die also Apparate darstellen, die man als lernfähig beschreiben kann, als Systeme, die beginnen, Information, also eine sinnvolle Botschaft zu tragen, deren Inhalt in dem Maß wächst, wie der Lernprozess voranschreitet. Nach diesem Umschwung folgt eine Vielzahl von kleinen Verbesserungen. Jeder Schritt in diesem Lernprozess benötigt viele Generationen. Obwohl diese Definition des Urlebens grotesk erscheinen mag, dürfte sie doch die einzige sein, die logisch völlig klar ist.“ /28, S. 866/.

Informationsprozesse sind in der hier betrachteten Form vor dem ersten Auftreten von Leben nicht relevant, da keine Systeme die Voraussetzungen haben, derartige Funktionen auszuführen. Vor der Entwicklung des Lebens bestand die objektive Realität aus Masse und Energie, die sich in Raum und Zeit veränderte. Es gab vielfältige Wechselwirkungen zwischen den materiellen Systemen, aber keine Informationsprozesse, die ein zielgerichtetes Handeln der Systeme bewirkten. Erst mit dem Entstehen von Leben beginnt die Fähigkeit, zielgerichtet zu handeln und Informationsprozesse auf diesem Niveau zu realisieren, die damit gleichzeitig das wesentliche Kriterium für das Leben eines materiellen Systems sein kann. Sehr deutlich wird diese Fähigkeit in einem sehr praktisch orientierten Beispiel, das V. Peukert ausführt: "Die biologische Eliminierung von P-Verbindungen aus Abwasser ist ... eng mit dem Bakterium Acinetobacter spec. verbunden. Unter anaeroben Bedingungen setzen diese Bakterien Ortho-Phosphat aus den in Form von Volutingranula gespeicherten Polyphosphaten frei. Bei aeroben Bedingungen werden P-Verbindungen in verstärktem Maße wieder aufgenommen (Polyphosphat Überkompensation)" /52, S 327/. Diese Einzeller sind in der Lage, den Sauerstoffgehalt ihrer Umwelt zu erkennen und ihren Stoffwechsel entsprechend einzustellen, d.h. zu entscheiden und zielgerichtete Handlungen auszuführen. Bei dieser Entscheidung handelt es sich um eine elementare Entscheidung, obwohl der Erkennungsprozess außerordentlich kompliziert und unscharf, ausschließlich mit biochemischen Mechanismen erklärbar, jedoch noch nicht vollständig erforscht ist.

Der Turing-Test aus der Sicht dieser Bakterien, den ich hier Anti-Turing-Test nenne, lautet, dass Lebewesen dann so intelligent sind wie die genannten Einzeller, wenn sie in der Lage sind, diesen Informationsprozess in nicht unterscheidbarer Weise zu realisieren.

Ein Mensch ist nicht in der Lage, den Sauerstoffgehalt des Abwassers mit seinen natürlichen Sinnen zu bestimmen. Er ist aus der Sicht der Bakterien folglich weniger intelligent. Es wird deutlich, dass die Fragestellung des Turing-Tests egozentrisch ist. Der Mensch ist allerdings in der Lage, technische Systeme zu entwickeln, die in der Lage sind, diese Funktion d. h. diese Informationsprozesse wesentlich besser zu realisieren. Dieses Beispiel verdeutlicht auch die Rolle technischer Systeme, die das Leistungsvermögen des Menschen durchaus weit übertreffen können.

Information wird in einem Informationsprozess erzeugt und kann - im Gegensatz zu Masse und Energie - wieder verschwinden. Information ist "... the power to direct what is done "/30/.


2. Rechnerunterstützte technische Vorbereitung (RTV)

Mit der Entwicklung des ersten Beispiels, der Lösung RTV zur Rechnergestützten Technischen Vorbereitung, wurde bereits frühzeitig, Ende der sechziger Jahre begonnen. Dem Rechner wurde das mathematisch-technische Modell zur Erarbeitung der technischen Dokumentation mit Hilfe von Sprachen vermittelt und in Interaktion zwischen Nutzer und Rechner das herzustellende Erzeugnis und der dazu notwendige technologische Prozess soweit beschrieben, dass die technische Dokumentation durch den Rechner erstellt werden konnte. Das System bestand aus dem Eingabesystem (E), dem Dateisystem (D), dem Verarbeitungssystem (V) und dem Ausgabesystem (A). Mit diesem System lassen sich laut Definition nach Laux Informationsprozesse realisieren.

Der Begriff Informationsprozess lässt sich am gewählten technischen Beispiel von RTV sehr gut erklären. Die Rechnerunterstützung für die technische Vorbereitung erfordert es, dass eine Vielzahl von Daten an den Rechner vermittelt werden. Die Gestaltung der Kommunikation zwischen Mensch und Rechner stellt das entscheidende Mittel bei der Realisierung derartiger Lösungen dar. Diese Kommunikation ist deshalb so zu gestalten, dass sie unter der Ausnutzung der Möglichkeiten der Rechentechnik optimal auf die Fähigkeiten und Bedürfnisse der beteiligten Menschen zugeschnitten ist.

Für den Menschen ist die natürliche Sprache optimal angepasst, da sie sich in einem lang dauernden evolutionären Prozess herausgebildet hat, der außerordentlich eng verbunden ist mit der Entwicklung des Denkens und der Arbeit. Deshalb wurde von Beginn der Entwicklung von RTV die Strategie verfolgt, die künstlichen Sprachen zur Kommunikation mit dem Rechner weitgehend an die natürliche Sprache anzulehnen und damit auch die hervorragenden Fähigkeiten des Menschen zur Abstraktion und Begriffsbildung zu nutzen. Nach Thiel wollen wir "unter Sprache jegliche Systeme von Zeichen verstehen, welche Modulationsformen der Träger von Gedanken sind. (Fußnote: Diese Auffassung von Sprache ist insofern ein wenig zu weit, als so primitive Zeichensysteme wie die drei Farbzeichen der Verkehrsregelung, bei der jedes Elementarzeichen unmittelbar auch Bedeutungsträger ist, mit den komplizierteren Zeichensystemen von der Art der Umgangssprache gleichsetzt." /71 S. 113/. Die Möglichkeiten der Rechentechnik und der Softwaretechnologie gestatteten es bereits zum Beginn der Entwicklung von RTV, ein verallgemeinertes Konzept zur Gestaltung derartiger künstlicher Sprachen - das Allgemeines Sprachkonzept - , eine Metasprache zur Vereinbarung dieser Sprachen und ein Programm zur Erzeugung des erforderlichen Übersetzers aus der metasprachlichen Beschreibung zu entwickeln. Damit wurde die Einheit von Sprache, Sprachbeschreibung und Implementation erreicht /55/.

Auf dieser Grundlage wurden eine große Anzahl von Sprachen und Übersetzern für die Forschung, für die Lehre und für betriebliche Anwender realisiert (generierfähiges Metasystem).

Aus der vielfachen Anwendung der Rationalisierungslösung entspringt eine neue Qualität. Die im Rechner gespeicherten, in den Betrieben erprobten Daten und Programme repräsentieren gesellschaftliche Erkenntnisse. Weitere Anwender können sie mit Hilfe des Rechners nutzen, ohne den Inhalt bis ins letzte Detail selbst verstanden zu haben und können auf diese Weise schneller Anwenderlösungen entwickeln. Die Organisation dieser Weitergabe der gesellschaftlichen Erkenntnisse ist ein entscheidendes Anliegen der Gestaltung der technologischen Grundsatzlösung und hat als prinzipielle Lösung derartiger Problemstellungen Beispielcharakter. Der besondere Vorteil liegt in der weitgehend kostenfreien, beliebig häufig realisierbaren Vervielfältigung der Information.

Das Vermitteln von Wissen über einen Bereich mit Hilfe des Rechners wird in den letzten Jahren im Rahmen der Forschung zur Künstlichen Intelligenz mit der Entwicklung von Expertensystemen verstärkt betrieben. "The goal of an expert system project is to write a program that achieves a high level of performance on problems that are difficult enough to require significant human expertise for their solution." /17, S.91/. Die Systeme zur rechnergestützten technischen Vorbereitung stellen in diesem Sinne (nicht unbedingt im Sinne der KI, jedoch mit breiterer Wirkung) Expertensysteme dar und dienen zum Speichern und Bereitstellen von Wissen über dieses Aufgabengebiet. Sie erfordern mit Sicherheit eine spezifische Ausprägung, denn das Anwendungsgebiet ist spezifisch und das Wissen außerordentlich umfangreich. Dazu gehören die erstellten technischen Dokumente, in der Hauptsache die Zeichnungen, Stücklisten und Arbeitsplanstammkarten, die in der Datenbank der technischen Dokumentation gespeichert werden und die erforderlichen mathematischen Modelle zu ihrer rechnergestützten Erstellung. "...especially as important to the practice of a field is heuristic knowledge - knowledge that constitutes the rules of expertise, the rules of good practice, the judgmental rules of the field, the rules of plausible reasoning." /17, S. 91/. Gerade die Vermittlung dieses, oftmals außerordentlich betriebsspezifischen Wissens, das in den Köpfen der profilierten Ingenieure vorliegt, muss für die rechnergestützte technische Vorbereitung erschlossen werden. Hierin liegt in erster Linie die Verantwortung der betrieblichen Entwickler. Ihre Wirksamkeit ist jedoch in starkem Maße vom Niveau des Rechnerzugangs abhängig und stellt damit hohe Anforderungen an die bereitgestellten Methoden.

Die Forschungen zur Künstlichen Intelligenz haben als einen Gegenstand die Probleme der Nutzung der natürlichen Sprachen zur Kommunikation mit dem Rechner. Die Kommunikation mit Expertensystemen soll als Zielstellung ebenfalls in der natürlichen Sprache erfolgen /77/. Die außerordentlich komplizierten Probleme, die damit im Zusammenhang stehen, den Rechnern diese Fähigkeiten zu vermitteln, sind aus der Literatur bekannt und nur langfristig, schrittweise lösbar.

Die Entwicklung der künstlichen Sprachen, insbesondere der zur Kommunikation zwischen Mensch und Rechner hat sich außerordentlich progressiv vollzogen und erhält ständig neue Impulse. Dabei ist die bei der Entwicklung von RTV verfolgte Strategie zur weitgehenden Anlehnung der künstlichen Sprachen zur Kommunikation mit dem Rechner an die natürlichen Sprachen richtig und wurde in der langfristigen Entwicklung bestätigt. Die Bereitstellung der Methoden zur Vereinbarung von Sprachen mit Hilfe einer Metasprache und die Generierung der Übersetzer aus dieser Vereinbarung durch und für den Anwender haben dazu geführt, dass eine Vielzahl von Sprachen vereinbart und genutzt wurden. "Eines steht fest und ist empirisch konstatierbar: Es wächst vor allem die Vielfalt der mathematischen Sprachen. ... Wenn auch die Vielfalt der Sprachen nicht in erster Linie abhängig ist von der Vielfalt der konkreten Arbeit, so ist doch die Vielfalt der Sprachen eine Funktion der vielfältigen, beschleunigten Umwälzung der konkreten Arbeit, des rascheren Eindringens in die Natur der Dinge." /71, S. 118/

Es ist positiv zu vermerken, dass mit der Entwicklung der Methoden zur Vereinbarung von Sprachen und ihrer Implementierung auch Methoden zur rechnergestützten Analyse der Sprachvereinbarungen entwickelt und genutzt wurden. Dadurch wird die Vielfalt der Sprachen auf das notwendige Maß beschränkt, ohne den Weg für neue Anwendungsfälle (z. B. Moduldefinitionssprache) zu versperren. Es wird deutlich, dass die an das Problem angepasste Sprache zur Kommunikation, besonders aber zur Darstellung und Vermittlung des Wissens des Menschen an den Rechner, das entscheidende Mittel für die Weiterentwicklung auf diesem Gebiet ist. Diese Sprachen "müssen so gestaltet sein, dass sie mit der Entwicklung der Produktivkräfte Schritt halten können und selbst Impulse auf deren Entwicklung geben. Sie müssen dem dialektischen Prinzip von Kontinuität und Dynamik entsprechen." /55/.

Beispielhaft sind die dafür im Menschen selbst realisierten Informationsprozesse:

"Nach Piaget verändert sich die Art, in der jemand Objekte und Ereignisse repräsentiert - die internen Strukturen oder Schemata - systematisch im Laufe der Entwicklung. Würden die Strukturen sich nicht verändern, fände keine Entwicklung statt, denn es könnte keinen Zuwachs an Wissen geben."/46, S. 211-212/. Eine derartig dynamische Organisation des Wissens muss ohne Zweifel auch für die Wissensvermittlung und -repräsentation für den Rechner angestrebt werden, wenn wir solche anspruchsvollen Systemlösungen realisieren wollen, die den Menschen beim Vorausdenken neuer Erzeugnisse und ihrer Herstellung unterstützen. Um diese Probleme in dem erforderlichen Niveau angehen zu können, ist es hilfreich, diese Prozesse im Menschen selbst genauer zu untersuchen.

3. Rechnerunterstützung bei psychophysiologischen Untersuchungen

Die Verbindung der Methoden der Psychologie mit denen der Physiologie ist ein wesentlicher Zugang zur Erforschung der Informationsprozesse im Menschen. Dabei waren die Erwartungen besonders an das Elektroenzephalogramm (EEG) sehr hoch. W. Schulte (1964) schreibt über Hans Berger, den Entdecker des menschlichen Elektroenzephalogramms: "Während all dieser Zeit ließ ihn der Gedanke nicht los, ob man dem Ziel, die materiellen Begleiterscheinungen seelischen Geschehens zu objektivieren, durch den Nachweis bioelektrischer Ströme näherkommen könne." Die hohen Erwartungen wurden jedoch mit den ersten Ergebnissen nicht erfüllt. "Eine Korrelation zwischen Veränderungen im EEG und Hirnfunktionen besteht in wirklich eindeutiger Weise nur im Falle verhältnismäßig grober funktioneller Umstellungen (z. B. Augen öffnen und schließen, Einschlafen) oder pathologischen Prozessen (Stoffwechselstörungen, herdförmige Läsionen, Epilepsien). Kriterien spezifischer Art hinsichtlich der Funktionsmechanismen der Informationsverarbeitung, maßgebend für das menschliche Verhalten und für die Projektion in das Bewusstsein, enthält das EEG nicht." /44, S. 459/

Die Anwendung der Rechentechnik zur Auswertung der Potentialveränderungen gestattete es in der Folgezeit, insbesondere durch die Mittelung der auf mehrere gleichartige Reize oder Reizantworten bezogenen Signale des Zentralnervensystems (ZNS), die ereigniskorrelierten Potentiale (ERP) herauszuarbeiten. Bei dieser Methode werden die Hintergrundaktivitäten, das EEG, als Störsignal betrachtet, die bezogen auf den Reiz oder die Reizantwort zufälligen Charakter haben. Diese Methode gestattet es, Reaktionen des ZNS auf eingehende Reize unterschiedlicher Sinnesmodalitäten, deren Verarbeitung oder das Generieren motorischer Reaktionen zu untersuchen und weitere Aufschlüsse über die Funktionen des ZNS zu gewinnen. Unterstützend wirkt die Analyse weiterer Signale wie z. B. Elektrokardiogramm (EKG), Atmung, Lidschlag und Hautleitwert, die in indirekter Weise Verhaltensänderungen repräsentieren sowie der Leistungsparameter wie z. B. Reaktionszeit, Erkennungs-, Gedächtnis- und Lernleistung. Dabei kann die Rechentechnik in vielfältiger Weise zur Unterstützung der Durchführung und Auswertung dieser Tests eingesetzt werden bzw. ermöglicht erstmals derartige Untersuchungen.

Es ist zu vermerken, dass mit fortschreitender technischer Entwicklung der Erforschung des menschlichen EEG und seiner funktionellen Bedeutung neue Wege erschlossen werden konnten. Meilensteine dieser Entwicklung waren in der Vergangenheit die Bereitstellung immer leistungsfähigerer Verstärker zur letztendlich vielkanaligen Ableitung des EEG sowie die Anwendung der Rechentechnik zur Unterstützung der Analyse. Das betrifft sowohl die quantitative Bewertung des EEG durch spektralanalytische Verfahren (FFT), die Anwendung neuer Verfahren der farbgrafischen Darstellung (EEG-mapping) als auch die Ermittlung ereigniskorrelierter Potentiale (averaging).

Trotz dieser Fortschritte muss eingeschätzt werden, dass wir von der Erkennung funktioneller Zusammenhänge noch weit entfernt sind. Gerade deshalb sind die Entwicklungen auf diesem Gebiet zu forcieren, um auf diesem außerordentlich sensiblen Gebiet schneller voranzukommen.


3.1. Methoden der rechnerunterstützten Auswertung des EEG

Bei psychophysiologische Untersuchungen werden psychologische Tests von erfahrenen Psychologen und Ärzten durchgeführt, welche die Reaktionen, Entscheidungen und Aussagen der Personen durch Nutzung des Werkzeugs Sprache bereits weitgehend evaluieren können. Die Anwendung der technischen Mittel, Signalaufnehmer, Verstärker, Wandler und besonders der leistungsfähigen Rechentechnik, die, ausgestattet mit entsprechenden Programmen zur Versuchsablaufsteuerung und zur Auswertung der Reaktionen und Signale, einen weiteren Zugang zur Untersuchung der Realisierung von Informationsprozesse darstellt.

Die Vorteile, die diese technischen Mittel bieten sind:



- gegenüber dem Menschen extrem verkürzte Erkennungs- und Reaktionszeit,

- Speicherung riesiger, formalisierter Datenbestände, die ständig im Zugriff sind und den umfassenden Vergleich der neuen mit bereits gespeicherten und ausgewerteten Daten gestatten,

- umfassende Methoden zur Auswertung der erfassten Signale und Reaktionen,

- eine Vielzahl von Programmen zur flexiblen Versuchsablaufsteuerung in Abhängigkeit von den bisher erzielten Ergebnissen, um spezifische Bereiche zu untersuchen.


Stehen in vielen psychophysiologischen Labors die Untersuchung der Reaktionen, der Herzfrequenz und des Hautleitwertes als "leicht" zu interpretierende Parameter im Vordergrund des Interesses, stellt das EEG, das vielkanalig abgeleitet wird, eine Herausforderung an die Methoden der Signalverarbeitung dar, die mit den jetzt verfügbaren technischen Mitteln angenommen werden kann.

Die bisher bekannten Methoden, insbesondere die Methode der ereigniskorrelierten Potentiale, das EEG-mapping und die Methoden zur Lokalisation der Generatoren des EEG werden unter der Einbeziehung leistungsfähiger Rechentechnik genutzt, um eine neue Strategie psychophysiologischer Untersuchungen zu entwickeln.


3.2. Die neue Strategie psychophysiologischer Untersuchungen

Auswertungen der Literatur und eigene Forschungsarbeiten auf dem Gebiet der ereigniskorrelierten Potentiale (ERP), insbesondere die Untersuchung zur Erkennung dieser Potentiale im EEG ohne averaging, haben gezeigt, dass es einen unmittelbaren Zusammenhang zwischen dem Entstehen der ERP und dem Zustand der untersuchten Person gibt. Die Bewertung und Beschreibung des Zustandes kann mit den herkömmlichen Mitteln der Psychologie erfolgen.

Ein erfahrener Psychologe bzw. Arzt ist in der Lage, einen Patienten in einem Gespräch subjektiv sehr genau zu bewerten. Psychologische Tests, die heute auch rechnerunterstützt angeboten werden, können eine solche subjektive Bewertung noch untermauern. Dabei ist es durchaus sinnvoll, dass der Untersuchende das Verhalten des Patienten während des Tests weiterhin beobachtet, den Test entsprechend der Anforderungen und erzielten Ergebnisse variiert und seine subjektive Bewertung präzisiert.

Noch aussagefähigere Ergebnisse können erzielt werden, wenn gleichzeitig Messungen relevanter Parameter wie Herz- und Atemfrequenz, Hautleitwert, Lidschlag und insbesondere das EEG abgeleitet, sofort ausgewertet und die für die Bewertung wesentlichen Größen sofort angezeigt werden.

Das EEG erfordert jedoch eine, über die Analyse des Einzelsignals hinausgehende Betrachtung. Die Potentiale, die an den einzelnen Elektroden abgeleitet werden, sind Ausdruck der im Gehirn stattfindenden Erregungs- und Entladungsprozesse einer Vielzahl von Neuronen und anderer, an diesen Prozessen beteiligter Strukturen. Diese Prozesse haben eine räumlich-zeitliche Dynamik und tragen infolge der Vielzahl der beteiligten Strukturen stochastischen Charakter, stellen jedoch kein Rauschen dar sondern haben mit hoher Wahrscheinlichkeit funktionalen Charakter. Werden die Potentiale mit einer hinreichend großen Zahl von EEG-Elektroden abgeleitet, so repräsentiert der Zusammenhang, der zwischen diesen abgeleiteten Signalen besteht, die räumlich-zeitliche Struktur des zugrundeliegenden Prozesses. Die Erfassung dieser räumlich-zeitlichen Struktur der elektrischen Erscheinungen ist von entscheidender Bedeutung für die Analyse des EEG. Diese neue Ebene der Erkennung der räumlich-zeitlichen Muster, die auf der Einzelsignalanalyse aufbaut, tritt bei dieser Betrachtung in den Vordergrund. Diese Ebene beinhaltet die Erkennung des räumlich-zeitlichen Verlaufes der Prozesse, die das EEG erzeugen durch ein Rechnersystem in Echtzeit. Das führt dazu, dass alle drei Komponenten


1. subjektive Bewertung,

2. psychologischer Test und

3. physiologische Messung


gemeinsam das Ergebnis liefern. Die erforderliche technische Unterstützung ist so zu gestalten, dass sie in diese Zielstellung eingepasst ist und die erforderlichen Ergebnisse auf Anforderung bereitstellt.


3.2.1. Methodisches Vorgehen

Ausgangspunkt war die Zielvorstellung, ein System zu entwickeln, das die psychophysiologischen Experimente unterstützt, die abgeleiteten Signale und Reaktionen schritthaltend analysiert, dem Psychologen oder Arzt in der Weise präsentiert, dass eine einfache Erkennung neben der Beobachtung des Patienten möglich ist und die erforderliche Versuchsablaufsteuerung in flexibler Form realisiert. Die Methode des EEG-mapping bietet sich an, ist jedoch für eine Darstellung vor allem für die schritthaltende visuelle Erkennung zu aufwendig. Anders verhält es sich mit der Lokalisation der Generatoren der Potentiale. Die Darstellung ist relativ einfach und auch schnell zu erkennen. Dafür sind die Algorithmen zur approximativen Ermittlung der Lokalisation so aufwendig, dass eine schritthaltende Berechnung mit hinreichend kurzer Latenz insbesondere für das EEG nicht möglich ist.

Die Lösung und das ist die Grundidee der neuen Strategie, liegt in der Vereinfachung des Modells!


Everything should be made as simple as possible, but not simpler.“


Dieser Ausspruch wird Albert Einstein zugesprochen!


In der ersten Näherung ist es nicht erforderlich, die genaue Lokalisation zu ermitteln:

1. kann der Untersuchende in der Kürze der Darbietung die genaue Lokalisation nicht bewerten.

2. ist die genaue Lokalisation nicht zwingend erforderlich, wenn die Dynamik, d. h. der räumlich-zeitliche Verlauf der Potentiale erkannt und bewertet werden soll.

3. können erkannte und für die Bewertung relevante Ereignisse, z.B. peaks, die einen pathologischen Prozess charakterisieren, beim Abschluss der Untersuchung mit genaueren Methoden untersucht werden, sofern eine genaue Lokalisation erforderlich ist. Entscheidend ist, dass sie während der Sitzung erkannt, identifiziert und gespeichert worden sind.

4. bei der Erkennung derartiger Ereignisse im EEG ist die kurze Erkennungszeit entscheidend, wenn in Abhängigkeit von einem derartigen Ereignis ein Reiz ausgelöst werden soll, um eine genauere Bewertung der ERP zu erhalten (EEG-getriggerte Reizgabe).


3.2.2. Das Konzept der virtuellen Quellen

Das neue, patentierte Verfahren /58, DD 294 630/ ermöglicht die Echtzeitverarbeitung komplexer Signale, die Mustererkennung und näherungsweise Lokalisation der Erregung sowie der Präsentation der Ergebnisse mit minimalem Zeitverzug. Dabei werden mit Methoden der Informatik und Logik menschliche Erkennungsleistungen nachgebildet und durch die hohe Leistung der Parallelrechentechnik die Erkennungszeit des Menschen um ein mehrfaches unterboten. Das Rechnersystem erkennt aufgrund des ständigen Vergleiches mit vorgegebenen Mustern die therapierelevanten Merkmale und liefert bereits wenige Millisekunden nach der Messung eine Formulierung seiner Analyse.

Es wird deutlich, dass das Modell der Lokalisation der Generatoren zu statisch ist, um derartig dynamische Prozesse zu erfassen und durch das Rechnersystem schritthaltend zu erkennen. Es wird auch deutlich, dass die Mustererkennung auf der Signalebene zurücktritt hinter die Erkennung der räumlich-zeitlichen Struktur der Ausbreitung des EEG, wie sie nach der hier kurz dargestellten Methode der virtuellen Quellen in der zweiten Ebene realisiert wird.


3.2.3. Das "sichtbare" Denken, das EEG als mögliche Zustandsbeschreibung des Gehirns

Das Versuchsprotokoll wird durch den Versuchsleiter mit möglichst kurzen und prägnanten Bezeichnungen, in einer der natürlichen Sprache, also dem Allgemeinen Sprachkonzept entsprechenden Sprache in den Rechner eingegeben und gestattet die formale (straffe und präzise) Beschreibung des Versuchsprotokolls. Die formale Beschreibung sichert, dass der Rechner in der Lage ist, die eingegebenen Daten zu erkennen, zu interpretieren und den Zusammenhang zu den abgeleiteten Signalen und Reaktionen herzustellen. Das ist besonders deshalb sinnvoll und effektiv, da der Mensch eine wesentlich längere Reaktionszeit hat als das speziell für die schnelle Erkennung entwickelte Rechnersystem.

Die Auswertung der subjektiven Bewertung des Versuchsleiters durch den Rechner ist jedoch wesentlichster Bestandteil der Strategie, damit die Erfahrungen des Menschen für die Bewertung und die Herstellung des Zusammenhanges zwischen Verhalten und EEG wirksam werden.

Dazu kommt auch, dass der Versuchsleiter durch geschickte Befragung des Patienten Verhaltensweisen genauer einschätzen kann und diese Einschätzung für spätere Auswertungen zur Verfügung stehen sollten. Tonband- und Videoaufzeichnungen mit der Möglichkeit der Herstellung des Zusammenhanges mit den im Rechner gespeicherten Daten stellen dafür ein wesentliches Hilfsmittel dar.

Für komplizierte und umfangreiche Bewertungen kann ein Multiusersystem eingesetzt werden, das es gestattet, dass sowohl der Patient als auch mehrere Gutachter Zugang zum Rechnersystem haben und mehrere unabhängige, subjektive Bewertungen des Verhaltens sowie die arbeitsteilige Bewertung der durch den Rechner schritthaltend dargebotenen Auswertungen abgesichert werden kann.

Für die neue Strategie der psychophysiologischen Untersuchungen ist besonders die zustandsgetriggerte Reizgabe charakteristisch. Das bedeutet zum einen, dass die subjektive Bewertung des Versuchsleiter berücksichtigt wird und zum anderen die schritthaltende Auswertung der abgeleiteten Signale, um in Abhängigkeit davon einen Reiz auszulösen.

Der Versuchsleiter kann dem Rechner mit Hilfe der formalen Sprache mitteilen, unter welchen Bedingungen (z. B. virtuelle Quelle bzw. Folgen virtueller Quellen in definierten Arealen) und mit welcher Latenz der Reiz ausgelöst werden soll. Die Situation, in welcher der Reiz mit einer definierten Latenz gesetzt werden soll, wird Erkennungssituation und die zugehörige Beschreibung Erkennungssituationsbeschreibung genannt. Diese Beschreibung muss vor der Reizgabe erfolgen, da nur der Rechner die erforderliche kurze Erkennungs- und Reaktionszeit besitzt.

Der Rechner unterstützt die Beschreibung der Erkennungssituation, indem er dem Versuchsleiter auf Anforderung im bereits abgelaufenen Prozess aufgetretene herausragende Ereignisse (z. B. virtuelle Quellen einer bestimmten Größe und Lokalisation) zur Entscheidung anbietet. Die Auswahl von Erkennungssituationen durch den Rechner kann durch den Versuchsleiter ebenfalls beeinflusst werden, indem er z. B. ausgewählte Areale vorgibt, für die auftretende virtuelle Quellen bzw. Folgen virtueller Quellen durch den Rechner gespeichert und auf Anforderung angeboten werden.



3.3. Technische Realisierung

Die technische Ausrüstung eines psychophysiologischen Labors besteht im wesentlichen aus den Signalaufnehmern (EEG-Gerät, Verstärker, Reaktionstasten usw.), der Rechentechnik zur Ablaufsteuerung und Auswertung sowie den rechnergesteuerten Stimulatoren. Kernstück der Rechentechnik ist ein Multiprozessorsystem aus Transputern, an das mehrere PC zur Kommunikation mit dem Versuchsleiter und der Versuchsperson angeschlossen sind.

Die Entscheidung, das Multiprozessorsystem durch ein Transputersystem zu realisieren ist dadurch begründet, dass die Transputer neben der guten Leistungsparameter (integrierte Gleitkommaarithmetikeinheit, 4 Gigabyte Adressraum) durch vier schnelle Linkverbindungen ausgezeichnet sind, über die bereits durch die Hardware eine hervorragende und schnelle Kommunikation zwischen den Prozessoren realisiert werden kann. Dadurch kann zum einen die Leistung an beliebiger Stelle bei Notwendigkeit erweitert werden, und zum anderen ist die zugrundeliegende Philosophie der kommunizierenden Prozesse aus der Sicht der Realisierung von Informationsprozessen bestechend. Sie verspricht, bei konsequenter Weiterentwicklung, eine progressive Alternative zu den jetzt verbreiteten Rechnern mit Busstruktur darzustellen, mit der Systeme verteilter Intelligenz mit höchster Leistungsfähigkeit für breite Anwendungsbereiche entwickelt werden können. Für die weitere Steigerung der Rechenleistung können Spezialprozessoren in das System eingebunden werden wie z. B. Signalprozessoren für die erste Ebene der Signalverarbeitung, leistungsfähige Arithmetikprozessoren oder Fuzzyprozessoren zur Verbesserung der Charakteristik des Systems insbesondere zur Mustererkennung. Heute steht diese Technologie auf höchstem Niveau zur Verfügung und wir können einen Rechner mit multicore Prozessor im Supermarkt kaufen.


3.4. Anwendungen der Methode der virtuellen Quellen

Den Schwerpunkt der bisherigen Betrachtungen und des Gerätesystems bilden zweifellos psychophysiologische Untersuchungen. Das hat seine Ursachen sowohl darin, dass dieser Forschungsbereich für die klinischen Anwendungen einen bestimmten Vorlauf hinsichtlich der Erforschung der Funktionen des Signaleingangs, der Verarbeitung, des Gedächtnisabrufs und der Generierung motorischer Reaktionen geschaffen hat.

Die Erforschung der Zusammenhänge zwischen Verhalten und EEG wird jedoch in Zukunft an Stellenwert gewinnen. So werden bereits Therapieerfolge in der Behandlung von Patienten durch die Applikation von Lichtreizen mit einer Frequenz des alpha-Rhythmus berichtet /69/. Die Mechanismen, die diesen Effekt bewirken, sind weitestgehend unbekannt, erfordern jedoch dringlich einer Klärung.

Diese Konsequenz resultiert auch daraus, dass in verstärktem Maße derartige Behandlungen, extreme optische und akustische Stimulation in definierten, dem EEG entsprechenden Rhythmen, mit Erfolg als Anti-Stress-Training angewendet werden. Diese Methode kann durchaus zukünftig an Bedeutung gewinnen. Denkbar ist auch ihr Einsatz als Alternative zu den Drogen. Das erfordert jedoch, die Wirkungsmechanismen zu erforschen, um die erzielten Erfolge wissenschaftlich fundiert zu begründen und eventuell vorhandene, jedoch noch nicht erkannte Nebeneffekte und Konsequenzen zu erkennen.

Die Methode der virtuellen Quellen mit der Option der zustandsgetriggerten Reizgabe bietet sehr gute Voraussetzungen, die Wirkungsmechanismen aufzuklären und eine neue Form der Therapie zu entwickeln.

Die klinische Anwendung zur Unterstützung der Diagnose und Therapie von Erkrankungen des ZNS stehen jedoch im Vordergrund der Anwendungen. Störungen des ZNS, die durch herausragende EEG-Aktivitäten z. B. bei Epilepsien oder durch den Ausfall von Hirnstrukturen, z. B. bei Durchblutungsstörungen oder Verdrängungsprozessen charakterisiert sind, werden durch diese Methode sofort sichtbar, die virtuelle Quelle der Störung, insbesondere jedoch die Dynamik der Auswirkung der Störung oder Regeneration als Therapieerfolg näherungsweise angezeigt. Wesentlich ist dabei, dass derartige Erscheinungen unter spezifischer Belastung (psychologische Tests, physische Belastung) untersucht werden können und die Auswirkungen unmittelbar beobachtet und einer detaillierten Auswertung zugänglich gemacht werden können.

Der entscheidende Vorteil der Echtzeitanalyse des EEG nach der Methode der virtuellen Quellen ist darin zu sehen, dass der Versuchsleiter sowohl die vom Rechner schritthaltend präsentierten Ergebnisdaten als auch die Versuchsperson sehen und mit ihr kommunizieren und somit beides bewerten kann. Die durch den Rechner schritthaltend aufbereiteten und dargebotenen Ergebnisse lassen eine ständige Verbesserung der Bewertung der Versuchsperson, ihres Verhaltens und ihrer Verhaltensänderungen durch den Versuchsleiter zu. Die Fixierung dieser Einschätzung im Zusammenhang mit den abgeleiteten Versuchsdaten ist jedoch dann erforderlich. Deshalb muss diese Beschreibung während des Versuches auf einem hohen Abstraktionsniveau, d. h. mit Hilfe einer Sprache erfolgen. Die Entwicklung der Sprache und ihre rechentechnische Realisierung kann und muss durch den Fachmann, hier durch den Versuchsleiter selbst durchgeführt werden und auf seine spezifischen Anwendungsbedingungen zugeschnitten sein. Der Rechner kann die sprachliche Beschreibung während des Versuches verarbeiten, den Zusammenhang mit den abgeleiteten Messdaten herstellen und für weitere Analysen speichern. Die Entwicklung der Sprachen erfolgt auf der Grundlage des Allgemeinen Sprachkonzeptes, d.h. auf der Grundlage der natürlichen Sprache und der im Rahmen der Entwicklung von RTV bereitgestellten Methoden und Programme.

Diese neue Methode stellt einen weiteren Zugang zur Erforschung der Informationsprozesse im Menschen und insbesondere ihre Störungen und deren Auswirkungen dar.

Die im vorhergehenden Abschnitt dargestellte Entwicklung für das Aufgabengebiet der technischen Vorbereitung der Produktion kann für die Entwicklung derartiger Sprachen als beispielhaft angesehen werden. Erforderlich sind in analoger Weise Hilfsmittel zur Vereinbarung und Implementation fachspezifischer Sprachen zur Darstellung des Wissens. Für die Rechentechnik steht ein Metasystem zur Verfügung, das durch die Nutzer entwickelten Fachsprachen an die jeweiligen Bedingungen angepasst werden kann und das auf Anforderung der Nutzer ständig weiterentwickelt wird.


4. Die Stufen der Kommunikation

Die Kommunikation zwischen Mensch und Rechner wurde an den vorgehenden zwei Beispielen dargestellt. Um die Rolle der Rechentechnik zu bewerten, soll die Entwicklung der Kommunikation des Menschen mit seiner Umwelt betrachtet werden. In den weiteren Ausführungen werden Stufen der Kommunikation kurz betrachtet. Die Stufen der Kommunikation bauen aufeinander auf und bedingen einander. Die niederen Stufen werden in den höheren mit genutzt.

Die nullte Stufe beinhaltet noch keine Kommunikation, sondern charakterisiert die unmittelbare Auseinandersetzung mit der Umwelt. Signale aus der Umwelt werden aufgenommen, gespeichert, verarbeitet und auf dieser Grundlage zielgerichtete Handlungen ausgelöst. Die Aufnahme der Signale, ihre Speicherung und Verarbeitung sowie die Auslösung der Handlung sind als Informationsprozess definiert.

Durch das Zusammenwirken der Menschen in der Gesellschaft und in der Auseinandersetzung mit der Umwelt entwickelte sich die Sprache als Mittel zur Kommunikation (erste Stufe). Sie dient dem gesellschaftlichen Zusammenwirken der Menschen und der Vermittlung von Erkenntnissen und Erfahrungen. Diese Stufe der Kommunikation wird auch von hochentwickelten Tieren erreicht, die in Gruppen zusammenleben und zum Teil sprachliche Äußerungen zur Verständigung verwenden können /49/.

Die Entwicklung und die Anwendung der gesprochenen Sprache hat wesentlich zur Entwicklung des menschlichen Denkens beigetragen. "Die für die menschliche Arbeit charakteristische Zielgerichtetheit des Handelns bildet den Grundzug der menschlichen Bewusstheit, die prinzipiell seine Tätigkeit von dem unbewussten und 'instinktiven' Verhalten der Tiere unterscheidet." /59, S. 173/

Die zweite Stufe der Kommunikation, die Schrift, wurde durch den Menschen aus Anfängen, dem Fixieren einfacher Zeichen und Bilder, von Ikonen, bis zur heutigen Form entwickelt. Er kann damit Erkenntnisse und Erfahrungen dauerhaft fixieren und weitergeben.

Die Sprache, gesprochen oder geschrieben, ist für den Menschen ein universelles Mittel zum Ausdrücken und Vermitteln von Gedanken und Ideen über die objektive Realität, aber auch über Empfindungen und Gefühle. Eine weitere, stärker quantitative Entwicklung stellt die Erfindung des Buchdrucks dar. Weitere, moderne Mittel der Kommunikation mit ihren Aufzeichnungs- und Wiedergabemöglichkeiten vervollkommnen diese Stufe der Kommunikation.

Eine neue, dritte Stufe der Kommunikation wird mit der Entwicklung der Rechentechnik erreicht. Die Kommunikation zwischen Menschen und Rechner vollzieht sich auf der Basis von Sprachen. Diese waren in der ersten Phase zugeschnitten auf die für den Rechner unmittelbar interpretierbare Form (Maschinensprache) und wurden bis zu dem heute erreichten Niveau entwickelt, das der natürlichen Sprache des Menschen weitgehend angepasst ist. Die Kommunikation zwischen dem Menschen und dem Rechner dient zum einen der Vermittlung von Kenntnissen des Menschen an den Rechner z. B. bei der Entwicklung des Modells des betrachteten Prozesses und zum anderen der Nutzung des Rechners zur Erzielung anwendbarer Ergebnisse.

Diese Prozesse lassen sich am Beispiel der rechnergestützten technischen Vorbereitung gut nachvollziehen. Der entscheidende Effekt besteht in der Belehrung des Rechners, in der Vermittlung der Kenntnisse und Erfahrungen der Ingenieure und Wissenschaftler an den Rechner mit Hilfe von Sprachen.

Ein weiterer Prozess kommt hinzu, wenn wir die Erkennung der gesprochenen Sprache durch den Rechner und die Bildverarbeitung betrachten. Hier wird der Rechner schrittweise in die Lage versetzt, Signale der objektiven Realität aufzunehmen, zu verarbeiten und entsprechend der in ihm realisierten Modelle auch zu interpretieren. Ein Beispiel dafür stellt die Anwendung der Rechner für die schritthaltende Analyse biologischer Signale dar.

Ist der Mensch bei der Erkennung der natürlichen Sprache und der Bildverarbeitung dem Rechner im allgemeinen weit überlegen, werden bei der schritthaltenden Verarbeitung so komplexer Signale wie des EEG's mit Unterstützung des Rechners neue Wege der Erkenntnis möglich.

Eine weitere Komponente kommt hinzu. Sie wurde bei der Darstellung der Interaktion des Versuchsleiters mit dem Rechner bei der Durchführung psychophysiologischer Versuche dargestellt und besteht in der Herstellung der Übereinstimmung zwischen der subjektiven Bewertung der Versuchsperson durch den Versuchsleiter mit den durch den Rechner ermittelten, verarbeiteten und interpretierten Messwerten sowie der gemeinsamen Speicherung der subjektiven Bewertung und der Messwerte im Rechner. Ein wesentlicher Gedanke der rechnergestützten Arbeit besteht folglich darin, dass (noch) nicht oder (noch) nicht wirtschaftlich modellierbare Teile der Methode in der Interaktion zwischen Mensch und Rechner gelöst werden und auf diese Weise ein verwertbares, vollständiges Ergebnis erzielt wird. Das Einbringen von Erfahrungen in der Interaktion und die Bewertung der Ergebnisse durch den Menschen legt auch eindeutig die Verantwortung für die Anwendung der Rechner und für die erzielten Ergebnisse in seine Hand.


5. Qualitative Entwicklung der Informationsprozesse

Betrachten wir die Stufen der Kommunikation, so erhebt sich die Frage: Wann begann diese Fähigkeit, die als Informationsprozess bezeichnet wird und die die vier Grundfunktionen Eingabe, Speicherung, Verarbeitung und Ausgabe beinhaltet?

Erst mit dem Entstehen des ersten Lebens begann die Fähigkeit, Reize aufzunehmen und zielgerichtete Reaktionen zu erzeugen. Diese Reaktionen sind von außen betrachtet nicht immer determiniert, sondern auch abhängig vom inneren Zustand des Lebewesens. So können bereits kleinste Veränderungen der Reize oder des inneren Zustandes (Heisenbergsche Unschärferelation) völlig veränderte Reaktionen hervorrufen, wie auch Reize Veränderungen des inneren Zustandes bewirken können. Das Reiz-Reaktions-Verhalten lebender Systeme ist von außen betrachtet nicht zwingend kausal. So können Lebewesen auch ohne äußere Reize allein durch Veränderungen des inneren Zustandes Handlungen ausführen (z. B. Nahrungssuche und -aufnahme bei Hunger).

Einzeller sind in der Lage, definierte Signale ihrer Umwelt zu erkennen und sich entsprechend einzustellen, d. h. zu entscheiden und zielgerichtete Handlungen auszuführen. Bei dieser Entscheidung handelt es sich häufig um eine elementare Entscheidung mit dem Informationsgehalt von einem Bit, obwohl der Informationsprozess außerordentlich kompliziert, unscharf und auch heute noch nicht vollständig geklärt, jedoch ausschließlich mit physikalischen und biochemischen Mechanismen erklärbar ist. Mit der Entwicklung der Lebewesen bildete sich die Fähigkeit aus, auf andere Lebewesen zielgerichtet einzuwirken. Aus der einfachen Beziehung Reiz - Reaktion wurde die erste Stufe der Kommunikation als Reaktion - Reiz - Beziehung und mithin die erste Sprache entwickelt (Körpersprache).

Durch das Zusammenwirken der Menschen in der Gesellschaft und in der Auseinandersetzung mit der Umwelt entwickelte sich die Sprache. "'Die Sprache ist so alt wie das Bewusstsein - die Sprache ist das praktische, auch für andere Menschen existierende, also auch für mich selbst erst existierende wirklich Bewusstsein...' /45, S. 30/. Dieser Satz ist eindeutig: Es gibt kein Denken ohne Sprache, es gibt kein Denken ohne Übertragung der einzelnen Gedanken in die Gesellschaft und ohne Rückübertragung zum Individuum." /71, S. 93/.

Somit ist auch der Ausgangspunkt für jedes Modell ideell, d.h. das Ergebnis eines Informationsprozesses, gleich ob es nachfolgend materiell realisiert wird oder symbolisch bleibt und die Sprache ist das erkennbare Modell des Denkens.

Eine neue Qualität der Informationsprozesse und der Modellbildung wird mit der Entwicklung der Rechentechnik erreicht. Die Kommunikation zwischen Menschen und Rechner vollzieht sich auf der Basis von Sprachen, wird zwar materiell getragen, ist jedoch ausschließlich ideell. Die verwendeten Sprachen waren in der ersten Phase der Rechnernutzung zugeschnitten auf die für den Rechner unmittelbar interpretierbare Form (Maschinensprache) und wurden bis zu dem heute erreichten Niveau entwickelt, das der natürlichen Sprache des Menschen weitgehend angepasst ist. Der Bereich der numerischen Berechnungen wurde ergänzt um die Bereiche der Textverarbeitung, insbesondere der natürlichsprachlichen Texte und der schrittweisen Erkennung der gesprochenen Sprache, der graphischen Datenverarbeitung und der Bildverarbeitung, die im Erkennen und begrifflichen Zuordnen der erkannten Objekte mündet. Die Kommunikation zwischen Mensch und Rechner dient zum einen der Vermittlung von Kenntnissen des Menschen an den Rechner z. B. bei der Entwicklung des Modells des betrachteten Prozesses und zum anderen der Nutzung des Rechners zur Erzielung anwendbarer Ergebnisse. "Die katalytische Wirkung von Rechentechnik und Informatik gegenüber Erkenntnistätigkeiten resultiert vor allem daraus, dass in Algorithmen, Programmen und Programmpaketen, in Programmiersprachen und Nutzungstechniken Wissen und Erfahrungen ganzer Kollektive von Forschern verschiedenster Disziplinen niedergelegt sind. Die Wirkung der Computertechnik ist Ergebnis der Vergesellschaftung von Erkenntnistätigkeiten und sie vergesellschaftet Erkenntnistätigkeiten." /66, S. 616/

Der entscheidende Effekt besteht in der Belehrung des Rechners, in der Vermittlung der Kenntnisse und Erfahrungen an den Rechner und die angenähert aufwandsfreie Weitergabe dieses durch den Rechner wirksam werdenden Wissens.

Es soll hier die Tatsache herausgearbeitet werden, dass es dem Menschen vorbehalten blieb, technischen Systemen die Fähigkeit zur Realisierung von Informationsprozessen zu vermitteln. Diese Fähigkeit wurde bereits mit mechanischen Mitteln erreicht, hat jedoch mit der Entwicklung der Rechentechnik an Deutlichkeit gewonnen, weil sie in den letzten vierzig Jahren in bisher ungekanntem Maße wirksam geworden ist.

Diese neue Qualität wird dadurch deutlich, dass Sprachen zur Kommunikation mit dieser Technik, zur Vermittlung und zur Aktivierung von Wissen genutzt werden. Diese Entwicklung und die ihr innewohnenden Potenzen in dem hier genannten Maße am Beispiel zu erkennen, zu verallgemeinern und zur Wirkung zu bringen ist das Anliegen dieser Arbeit.


6. Rechnerunterstützung – Neugestaltung von Informationsprozessen mit qualitativem Erkenntnisgewinn

Die vorliegende Publikation wurde mit leichten Veränderungen aus der Publikation „Das sichtbare Denken – Modelle und Modellhaftigkeit in der Philosophie und den Wissenschaften /Maas 1993/ entwickelt und beruht auf den Erkenntnissen der Dissertation (B) /57/ vom 30. 9. 1990.


Klaus Glashoff, Hamburg

schreibt unter dem itel:

Gottfried Wilhelm Leibniz – die Utopie der Denkmaschine

http://s371741603.online.de/glashoffnet/logicglashoffnet/Texte/GottfriedWilhelmLeibniz6.pdf


Leibniz’ Vorstellung war es, alle Wissenschaften in einer einheitlichen noch zu erfindenden Universalsprache zu formalisieren, um so die Lösung aller wissenschaftlichen Probleme auf den mechanischen, algorithmischen Umgang mit Symbolen reduzieren zu können.

Im April 1679 war er ganz sicher, dass er diese Idee verwirklichen könnte. In einem Brief an seinen Arbeitgeber, Herzog Johann Friedrich von Braunschweig, schreibt er:

'Wenn Gott Eurer Hochfürstl. Durchlaucht noch den Gedanken eingäbe, mir lediglich zu bewilligen, daß die 1200 Taler, die festzusetzen Ihr die Güte hattet, zu einer Dauerrente würden, so wäre ich ebenso glücklich wie Raymund Lull, und vielleicht mit größerem Recht. [....]

Denn meine Erfindung umfasst

- den Gebrauch der gesamten Vernunft,

- einen Richter für alle Streitfälle,

- einen Erklärer der Begriffe,

- eine Waage für die Wahrscheinlichkeiten,

- einen Kompass, der uns über den Ozean der Erfahrungen leitet,

- ein Inventar der Dinge,

- eine Tabelle der Gedanken,

- ein Mikroskop zum Erforschen der vorliegenden Dinge,

- ein Teleskop zum Erraten der fernen,

- einen generellen Calculus,

- eine unschädliche Magie,

- eine nicht- chimärische Kabbala,

- eine Schrift, die jedermann in seiner Sprache liest;

- und sogar eine Sprache, die man in nur wenigen Wochen erlernen kann und die bald in der ganzen Welt Geltung haben wird. Und die überall, wo sie hinkommt, die wahre Religion mit sich bringt.'

Wir leben in einer Zeit, in der das in diesem Brief so angepriesene 'Leibniz-Programm' in vieler Hinsicht Realität geworden ist: Die Sprachen der modernen formalen Logiken, die Formeln der modernen Mathematik und die Programmiersprachen für moderne Computer können in manchen Aspekten als die Realisierung dieses Programms bezeichnet werden.“

(Strukturierung und Hervorhebung durch den Verfasser Dr. G. Roscher)


Unsere Sprachen können uns dazu führen, gemeinsam eine neue Gesellschaft zu entwickeln.



6.1 Japan: Society 5.0

https://www.japan.go.jp/abenomics/_userdata/abenomics/pdf/society_5.0.pdf

By taking advantage of these unique factors, Japan will overcome social challenges such as a decrease in the productive-age population, aging of local communities and energy and environmental issues ahead of other nations. We will realize a vibrant economic society by improving productivity and creating new markets. By doing this Japan will play a key role in expanding the new Society 5.0 model to the world.

Society 5.0 will change the world


Japan hat offensichtlich die Bedeutung richtig erkannt.


Bei uns wird es Digitalisierung genannt.

Welch ein Unfug!

Das ist jedoch Strategie der Verantwortlichen.

Sie möchten es gern ein wenig klein und niedlich!

Da digitalisieren wir eben ein wenig.

Die Industrie, die Verwaltung, …“

http://www.icsroscher.de/Innovation/B90_Gruene.htm



Welchen Vorteil hat es für unser Land, die EU und unsere ganze Gesellschaft, wenn wir


CATI (Computer Aided Trust Internet) - das sichere Internet

http://www.icsroscher.de/Innovation/Innovation.htm


gemeinsam kreativ und schöpferisch umsetzen?


Ich möchte diese Sprachen nach Leibniz „Lingua Universalis“ [LU] nennen.

https://de.wikipedia.org/wiki/Universalsprache


Ich definiere:


Alle unsere natürlichen Sprachen sind

Leibniz Lingua Universalis!



Es war bereits mit der Entwicklung der Computertechnologie und der ersten Programmiersprachen erkennbar, dass die natürliche Sprache optimal auf den Menschen zugeschnitten ist und zumindest einige der bisher entwickelten Sprachen zur Kommunikation mit den Rechnern (Programmiersprachen, Datenbanksprachen usw.) auf der natürlichen Sprache aufgebaut wurden.

Dadurch wurde die natürliche Sprache in qualifizierter Form erweitert.

Dieser Weg wurde und wird durch uns konsequent weiter beschritten. Dazu gehören das Allgemeine Sprachkonzept [Common Language Concept CLC], die Metasprache SYX zur Vereinbarungen von Sprachen, einen generierfähigen Sprachcompiler und eine Vielzahl von Sprachen und Anwendungen, die durch die Anwender selbst auf der Grundlage des CLC mit Hilfe von SYX vereinbart und gestaltet wurden.

Dadurch wurde die natürliche Sprache in qualifizierter Form erweitert.

Einige einfache Beispiele sollen das erläutern:

1. Beispiel: RTV vom Ende der 1960ger Jahre:

Zylinder Durchmesser 200, Laenge 20”

Das war und ist klar und verständlich für die Ingenieure und für den Rechner, obwohl wir damals noch Einschränkungen wie z. B. ä – ae aufgrund der technischen Bedingungen akzeptieren mussten!

Die Entwicklung der Sprachtechnologie schreitet unaufhaltsam voran: CMU-Sphinx, NLTK, …. Compiler und Interpreter sind als Open Source verfügbar und – dank GitHub – einfach im Zugriff!

2. Beispiel: Die Rechner verstehen heute:

Alexa, öffne die Tür!”

In der Rede zum Tag der Einheit 2017 sagt der Bundespräsident

http://www.bundespraesident.de/SharedDocs/Reden/DE/Frank-Walter-Steinmeier/Reden/2017/10/171003-TdDE-Rede-Mainz.html

"Wir müssen uns ehrlich machen"

Und er bezieht sich selbst mit ein und er ist wie viele andere Verantwortlich einbezogen!

http://www.icsroscher.de/Innovation/Partner.htm

Sprache und Internet machen es möglich!

Das Ziel von CATI ist die Entwicklung eines sicheren Internets, das dem Nutzer entgegentritt wie ein vertrauter Mensch, mit dem er sich vertrauensvoll mit Hilfe natürlichen Sprache verständigen kann.

 - CATI ist sicher!!!

- CATI ist freiwillig und basisdemokratisch organisiert.

- Der Nutzer ist der Entwickler der Sprachen zur Nutzer-Rechner-Kommunikation.

- Alle Viren, Trojaner und andere Bedrohungen werden durch den Provider - also den qualifizierten & organisierten Fachmann - abgefangen, bevor sie den Nutzer erreichen (Es kann nicht sein, dass ich als Nutzer von meinem Provider eine E-Mail bekomme mit der Aufforderung, einen angegebenen, verminten  Link zu aktivieren, um meine E-Mail Adresse genau bei diesem Provider freizuschalten).

Die Entwicklung von CATI beinhaltet die Spracherkennung und wird bis zum Sprachverstehen und zum Erkennen des Sprechers entwickelt. Vorhandene Programmiersprachen werden so in Richtung der natürlichen Sprachen weiterentwickelt, dass jeder Nutzer die Rechner in seiner natürlichen Sprache programmieren kann.

Kernpunkt von CATI ist Leibniz „Lingua Universalis“ und beinhaltet alle natürlichen Sprachen.

Erste Anwendungen wurden erstmals bei der Entwicklung von Systemen zum intelligenten Patientenmonitoring (BrainScope, HeartScope & PhysioCord) entwickelt. Diese Systeme stellen in diesem Sinne erste Anwendungen von CATI dar.

Mit dem basisdemokratisch organisierten CATI kommen wir auch zu einer neuen Qualität der Demokratie und der Gesellschaft und, wenn wir Udo Lindenbergs Song und Immanuel Kants genialer Idee folgen zum

ewigen Frieden!!!

Literaturverzeichnis:

1. Arnold, G., Grießbach, G., Kaleta, B.: Implementation of adaptive algorithms for EEG pattern recognition on transputer-aided computers. First International Hans-Berger-Congress, Jena 1991, 21.

2. Achimowicz, J., Zajc, J.: Verfahren und Einheit zur Anzeige der elektrischen Aktivität des Gehirns. Patentschrift DE 37 34 829, 14.10 1987.

3. Basar, E.: EEG brain dynamics: relation between EEG and brain evoked potentials. Elsevir, Amsterdam 1980.

4. Basar, E. (Ed.): Dynamics of sensory and cognitive processing by the brain. Springer-Verlag Berlin 1988.

5. Beyer, P., Steinbach, J.: Messwerterfassung und Informationsverdichtung von EEG-Signalen. radio fernsehen elektronik, Berlin 38 (1989) 12, 768-770.

6. Buchner, H., Ludwig, I., Scherg, M., Berg, P.: Erkennung und Korrektur von Artefakten in Multikanal-Ableitungen evozierter Potentiale: Neue Aspekte der Dipolquellenanalyse. Vortrag, 36. Jahrestagung Deutsche EEG-Gesellschaft, Celle 1991.

7. Chamoun, N. G.: Cerebral biopotential analysis system and method. US Patent 4,907,597, 13, March 1990.

8. Cohen, D. E., Cuffin, N.: Demonstration of usefull differences between magnetoencephalogram and electroencephalogram. Electroenceph. clin. Neurophysiol., 56 (1983), 36-51.

9. Coles, M. G. H., Donchin, E., Porges, S. W.: Psychophysiology, Systems, Processes and Applications. Elsevier, Amsterdam, Oxford 1986.

10. Davis, P. A.: Effects of acoustic stimuli on the waking human brain. J. Neurophysiol., Vol 2 (1939), 494.

11. Dawson, G. D.: Cerebral responses to electrical stimulation of peripheral nerve in man. J. Neurol. Neurosur. Psych., Vol 10 (1947), 134-147.

12. Dierks, T., Engelhardt, W., Maurer, K.: Dipolquellenberechnung von EEG-Hintergrundaktivität mittels FFT-Approximation und AEP-P300 vor und nach Gabe von Benzodiazepin und deren Antagonisten. Vortrag, 36. Jahrestagung Deutsche EEG-Gesellschaft, Celle 1991.

13. Eigen, M.: Selforgansization of matter and the evoilution of biological macromolecules. Naturwissenschaften 58 (1971), 465-523.

14. Entwicklerkollektiv RTV: RTV - Rechnergestützte technologischen Vorbereitung. VEB Datenverarbeitungszentrum Magdeburg; VEB Werkzeugmaschinenkombinat "7. Oktober" Berlin. Broschüre zur ZMMM, Magdeburg 1978.

15. ESONE-Committee: CAMAC - A modular instrumentation system for data handling. EUR 4100e 1972.

16. ESONE-Committee: Multiple controllers in a CAMAC-crate. EUR 6500e.

17. Feigenbaum, E. A.: Knowledge engineering. The applied side of artifical intelligence. In: Pagels, H. R. (Ed.): Computer culture. The scientific intellectual, and social impact of the computer. Annals of the New York Academy of Sciences. Vol 426, 1984, S. 91-107.

18. Gevins, A. S.: Analysis of the electromagnetic signals of the human brain: milestones, obstacles and goals. IEEE Transactions on biomedical engineering, BME-31, (1984), 833-850.

19. Gevins, A.S., Morgan, N., Bressler, S., Doyle, J., Cutillo, B.: Improved ERP estimation via statistical pattern classification. Electoenceph. clin. Neurophyiol., 64 (1986), 177-186.

20. Gevins, A. S., Remond, A. (Eds.): Methods of analysis of brain electrical and magnetic signals. Handbook of Electroencephalography and clinical Neurophysiology, Revised Series, Vol. 1. Elsevier Amsterdam 1987.

21. Gevins, A. S., Morgan, N. H., Greer, D. S.: Brain wave source network location scanning method and system. US Patent 4,736,751 12, April 1988.

22. Giard, M. H., Perrin, F.: Scalp potential and current density mapping: interest for analysis of long-latency auditory ERPs. In: Boelhouwer, A. J. W., Brunia, D. H. M. (Eds.): Proceedings of the first european psychophysiology conference , Tilburg 1991, 27.

23. Goldberg, P., Samson-Dollfus, D.: A time domain analysis method applied to the recognition of EEG rhythms. In: Dolce, G., Künkel, H. (Eds.): CEAN-Computerized EEG analysis. Fischer, Stuttgart 1975, 19-26.

24. Griesbach, G., Rother, M., Witte, H.: Application of adaptive algorithms in EEG analysis. First International Hans-Berger-Congress, Jena 1991, 28.

25. Hanappi, G.: There is no homunculus. A critique of A.I. fundamentals. In: Trappl R. (Ed.): Cybernetics und Systems '88, Kluwer Academic Publishers 1988, 965-972.

26. Hinrichs, H.: Vorteile und Fehlermöglichkeiten bei der digitalen EEG-Erfassung. Vortrag, 36. Jahrestagung Deutsche EEG-Gesellschaft, Celle 1991.

27. Hörz, H., Löther, R., Woogast, S. (Eds.): Philosophie und Naturwissenschaften. Wörterbuch zu den philosophischen Fragen der Naturwissenschaften. Dietz Verlag Berlin 1978.

28. Hoppe, W., Lehmann, W., Markl, H., Ziegler, H.: Biophysik. Springer Verlag Berlin, Heidelberg, New York 1982.

29. Hugdahl, K., Nordby, H., Hammerborg, D., Vaksdal, A., Stormark, D. M.: ERP and topographical mapping indices of covert visual attention: The Posner prepset paradigm. In: Boelhouwer, A. J. W., Brunia, D. H. M. (Eds.): Proceedings of the first european psychophysiology conference , Tilburg 1991, 17.

30. Jacob, F.: The logic of life: a history of heredity. Pantheon, New York 1973.

31. Jervis, B. W., Nichols, M. J., Johnson, T. E., Allen, E., Hudson, N. R.: A fundamental investigation of the composition of auditory evoked potentials. IEEE Transactions on biomedical engineering, BME-30, (1983), 43-50.

32. John, E. R., Ruchkin, D., Vidal, J: Measurement of event related potentials. In: Callaway, E., Tueting, P., Koslow, S. (Eds.): Event-related brain potentials in Man. Academic Press New York 1978, 83-138.

33. John, E. R., Prichep, L. S., Fridman, ., Easton, P.: Neurometrics: computer - assisted differential diagnosis of brain dysfunctions. Science 239 (1988), 162 - 169.

34. Kaleta, B., Arnold, G., Grießbach, G.: Using transputer-aided computers for EEG preprocessing. First International Hans-Berger-Congress, Jena 1991, 31.

35. Kevanishvili, Z. S., von Specht, H.: Human slow auditory evoked potentials during natural and drug-induced sleep. Electroenceph. clin. Neurophysiol., 47 (1979), 280-288.

36. Kohonen, T.: Clustering, taxonomy, and topological maps of patterns. Proceedings of the 6th International Conference on Pattern Recognition 1982.

37. Krajca, V., Petranek, S.: "Wave-Finder": a new system of an automatic processing of long-term EEG recordings. First International Hans-Berger-Congress, Jena 1991, 33.

38. Laux, G. (Ed.): Lexikon der Kybernetik. Akademie-Verlag Berlin 1981.

39. Lehmann, D., Ozaki, H. Pal, I.: EEG alpha map series: brain micro-states by space-oriented adaptive segmentation. Electroenceph. clin, Neurophysiol., 67 (1987), 270-288.

40. Lehmann, D.: EEG fild maps and mentation: towards the "atoms of thought". First International Hans-Berger-Congress, Jena 1991.

41. Lemme, H.: "Landkarten" vom menschlichen Gehirn. Elektronik 20/30.9.1988, 15-16.

42. Liebscher, H.: Ist Künstliche Intelligenz möglich? Deutsche Zeitschrift für Philosophie. 35 (1987), 1, 21-30.

43. Lopes da Silva, F. H., Strom von Leeuwen, W., Remond, A. (eds.): Clinical applications of computer analysis of EEG and other neurophysiological signals. Handbook of Electroencephalography and Clinical Neurophysiology. Vol. 2, Elsevier Amsterdam, New York, Oxford 1986.

44. Lullies, H., Trincker, D.: Taschenbuch der Physiologie, Bd. III/2. Animalische Physiologie III. Zentralnervensystem II und Sinnesorgane. Gustav Fischer Verlag Jena 1977.

45. Marx, K., Engels, F.: Werke, Bd. 39 Berlin 1969.

46. Mayer, R. E.: Denken und Problemlösen. Eine Einführung in menschliches Denken und Lernen. Springer-Verlag Berlin, Heidelberg, New York 1979.

47. von der Malsburg, C.: Synaptic plasticity as basis of brain organization. In: Changeux, J.-P., Konishi, M. (Eds.): The neural and molecular bases of learning. Dahlem Konferenzen 8.-12. 12. 85 Berlin. Life Sciences Research Report 38. John Wiley & Sons limited 1987, 411-432.

48. Miszczak, J., Achimowicz, J., Hajc, J.: Verfahren und Einheit zur Anzeige der elektrischen Aktivität des Gehirns. Offenlegungsschrift DE 37 34 829 A1, 11.5.1988.

49. Panow, J.: Die Geburt der Sprache. Verlag MIR Moskau, Urania-Verlag Leipzig,Jena, Berlin 1985

50. Pantev, C.: Neuromagnetic source localization using auditory evoked fields: possibilities and limitations. In: Boelhouwer, A. J. W., Brunia, D. H. M. (Eds.): Proceedings of the first european psychophysiology conference , Tilburg 1991, 26.

51. Park, K. S., Min, B. G., Lee, C. W.: Analysis of visual evoked potentials using the time locus of potential distribution centre. Medical & Biological Engineering & computing 24 (1986), 169-173.

52. Peukert, V., Röske, I., Uhlmann, D.: Stand und Entwicklungstendenzen der biologischen Phosphatelimination aus Abwasser mit Belebtschlamm. Acta hydrochim. hydrobiol. 14 (1986), 4, 325-333.

53. Rappelsberger, P.: Die neue EEG-Technik. Vortrag, 36. Jahrestagung Deutsche EEG-Gesellschaft, Celle 1991.

54. Remond, A., Lesevre, N.: Variations in average visual evoked potentials as a function of the alpha rythm phase ("Autostimulation"). In Cobb, W., Morocutti, C.: The evoced potentials. Electroenceph. clin, Neurophysil., Elsevier, Amsterdam, Suppl. 26 (1967), 43-52.

55. Roscher, G.: Gestaltung von Eingabesystemen für die rechnergestützte Erarbeitung der technologischen Unterlagen. Diss. A. Technische Hochschule "Otto von Guericke" Magdeburg 1975.

56. Roscher, G., Roth, N.: Methodological demands and technical requirements for an effective control of psychophysilogical experiments. In: Kneppo, P., Horsky, I., Kreliöe, I. (Eds.): Proceedings of the 4th IMEKO Conference "Advances in Biomedical Measurements", Bratislava 1987, 294, 294-301.

57. Roscher, G.: Rechnerunterstützte Arbeit - Neugestaltung von Informationsprozessen mit qualitativem Erkenntnisgewinn, dargestellt an Beispielen der technischen Produktionsvorbereitung bzw. der Durchführung psychophysiologischer Untersuchungen. Dissertation (B), Magdeburg, 30. 9. 1989.

58. Roscher, G.: Verfahren und Schaltungsanordnung zur schritthaltenden Analyse der elektrischen Aktivitäten es Gehirns. Patentschrift DD 294 630, 23.5.1990.

59. Rubinstein, S. L.: Grundlagen der allgemeinen Psychologie. Volk und Wissen, Berlin 1984.

60. Scherg, M., Von Cramon, D.: Evoked dipole source potentials of the human auditory cortex. Electorenceph. clin. Neurophysiol. 65 (1986), 344-360.

61. Schneider, M., Gevin, P.: Une methode de localisation des dipoles cerebraux. Electroenceph. clin. Neurophysiol. 28 (1970), 69-78.

62. Schuttpelz, P.: Der Mensch-Maschine-Dialog im Blickwinkel der Ethik. Deutsche Zeitschrift für Philosophie 36 (1988), 9, 797-806.

63. Shannon, C. E.: Programming a computer for playing chess. Philosophical Magazin 41 (1950), 256-275.

64. Steeger, G. H., Herrmann, O., Spreng, M.: Some improvements in the measurement of variable latency acoustically evoked potentials in human EEG. IEEE Transactions on biomedical engineering, BME-30,(1983), 295-303.

65. Steinbuch, K.: Automat und Mensch. Springer-Verlag Berlin, Göttingen, Heidelberg 1961.

66. Striebing, L. Zänker, K.: Copmputer und Bergesellschaftung geistiger Tätigkeiten. Deutsche Zeitschrift für Philosophie. 35 (1987), 7, 614-623.

67. Striebing, L., Zänker, K.: Mit Kopf und Computer. Dietz Verlag Berlin 1987.

68. Strobl, F. T., Cohen, D. E.: Real-time EEG spectral analyzer. US Patent 4,579,125, 1, April 1986.

69. Takigawa, M.: Light rhythm therapy for depression and data prcessing of its effects by directed coherence and eeg print. 2nd European CIANS Conference Magdeburg, 1987

70. Thatcher, R., John, E.: Functional Neuroscience. Vol. 1. Foundations of cognitive processes. Erlbaum, Hillsdale, New York 1977.

71. Thiel, R.: Mathematik - Sprache - Dialektik. Akademie-Verlag Berlin 1975.

72. Ursul, A. D.: Information - Eine philosophische Studie. Berlin 1970.

73. Vaughan, H. G.: The neural origins of human event-related Potentials. In: Bodis-Wollner, I. (Ed.): Evoked potentials. Annals of the New York Academy of Sciences, Vol. 388, 1982, 125-138.

74. Völz, H.: Information I + II. Akademie-Verlag Berlin 1982.

75. Walter, U., Jacobi, P., Kähler, U.: Möglichkeiten und Eigenschaften des digitalen EEG's und seiner papierlosen Registrierung. Vortrag, 36. Jahrestagung Deutsche EEG-Gesellschaft, Celle 1991.

76. Watanabe, Y., Sakai, Y.: A graphic method for estimating equivalent dipoe of localizes EEG discharge. IEEE Transactions on biomedical engineering, BME-31, (1984), 435-439.

77. Wernecke, W., Horlacher, E., Strauss, M., Erben, A., Fehrle, T.: Keastone - Ein wissenbasiertes System mit natürlichsprachlicher Dialogkomponente. Informatik Forsch . Entw. (1988), 3, 153-163.

78. Wiener, N.: Kybernetik. Regelung und Nachrichtenübertragung in Lebewesen und in der Maschine. Econ-Verlag Düsseldorf, Wien 1983.

79. Wood, C., Wolpaw, J. R.: Scalp distribution of human auditory evoked potentials, II. Evidence for overlapping sources and involvment of auditory cortex. Electroenceph. clin. Neurophysio., 54 (1982), 25-38.

80. Yakush, S. A., Willey, T. J., Park, T. C., Maeda, G.: Multiprocessor architecture for rapid EEG frequency analysis. IEEE Transactions on biomedical engineering, BME-29, (1982), 55-56.

    1. Zänker, K., Teichmann, W. (Eds.): Mensch - Technik - Beziehung unter den Bedingungen der wissenschaftlich-technschen Revolution im Sozialismus. Deutsche Zeitschrift für Philosophie. 36 (1988), 10, 925-953.

Home

Products

Projects

Publications

ICS and more

 

1Nach dem Studium der Informatik und Mathematik 1975 Promotion A als Dr.-Ing. mit einer Arbeit zur Entwicklung von Sprachen und generierfähigen Übersetzern für die rechnerunterstützte technische Vorbereitung. Seit 1984 wissenschaftliche Arbeit in der Hirnforschung mit dem Schwerpunkt der Methoden- und Strategieentwicklung zur Durchführung psychophysiologischer Experimente. 1989 Promotion B zum Problemkreis ‚Informationsprozesse und rechnerunterstützte Arbeit’, seit 1992 Aufbau der Firma ICS Dr. G. Roscher GmbH zur Entwicklung und Anwendung leistungsfähiger Rechentechnik.