Brief an meine Tochter – 2017-05-25

Mai 28, 2017

Betreff: SrrTrains – die ganze Geschichte – aus heutiger Sicht

Liebe C.!

Begonnen hat die ganze Geschichte damit, dass ich

a) im Zuge meiner Diplomarbeit (1993 – 1997) draufgekommen bin, dass man mit Hilfe von GPS Uhren hochgenau synchronisieren kann
b) eine Fernsehdokumentation über die F-117A (den ersten Tarnkappenbomber „Night Hawk“) gesehen habe

Beides zusammengenommen war ich dann der Meinung, dass sowohl GPS als auch TCP/IP (das Internet) nur deswegen erfunden worden sind, damit der Tarnkappenbomber fliegen kann (technische Details kann ich Dir gerne erklären, im Prinzip geht es um „bistatisches RADAR“).

Also hatte der Tarnkappenbomber (der in meiner Phantasie mit der Metapher „Darth Vader“ gleichgesetzt wird) zwei Kinder, nämlich GPS (Leia) und TCP/IP (Luke). Das ist natürlich nur eine Metapher.

Weil mir niemand bestätigen oder widerlegen konnte, ob ich recht habe, war das eine sehr anstrengende Zeit – Du musst Dir vorstellen, Du hast etwas Grundlegendes entdeckt, aber niemand bestätigt oder widerlegt es, alle gehen aber davon aus, dass Du verrückt bist, insbesondere Deine Frau.

Nun kam ich dahinter, dass Darth Vader noch ein drittes Kind gehabt haben könnte: was wäre, wenn die 3D Graphik auch ein Kind der Tarnkappentechnologie wäre? Technische Details auf Nachfrage.

Das führte im Jahr 2000/2002 zur Erfindungsmeldung DIGITS. Siemens hat mir diese Erfindung dann freigegeben. Da Siemens nicht wusste, wie man damit Geld machen soll, haben sie mir die Verantwortung umgehängt. Damals gab’s noch kein Google Earth, aber wie ich später nachgelesen habe, war es bereits in Entwicklung.

Ausserdem bekam ich den Hinweis, dass ich nicht immer nur an die F-117A denken soll, sondern auch an Drohnen (und Roboter).

Dann habe ich die „Zifferngeschichte“ (Geschichte von DIGITS) geschrieben.

Im Jahr 2005 (Einstein’s Jahr!) war die Ideenfindung für die Idee DIGITS abgeschlossen, das ich immer noch mit mir herumtrage.

Im Jahr 2007 habe ich mein erstes Blog begonnen, weil ich gefühlt habe, dass ich über diese Idee veröffentlichen MUSS (Web 2.0 kam mir damals zu Hilfe).

Dann habe ich die Zifferngeschichte veröffentlicht und begonnen die Erzählung (genau genommen die „Drehbuchskizzen“) „Das dritte Kind“ zu schreiben.

Bei Siemens habe ich 2007 die Idee „SIMULRR“ abgegeben, die zu Ostern 2008 freigegeben worden ist (auch hier wollte Siemens nicht die Verantwortung übernehmen).

Zu Ostern 2008 habe ich mit dem X3D Hobby begonnen – zuerst mit einem Rollercoaster Projekt.

Frühling 2009 war ich sicher, dass man X3D für die virtuelle Modelleisenbahn verwenden kann und habe mit dem „SrrTrains v0.01“ Projekt begonnen.

März 2010 musste ich die Firma wechseln (das hat sich schon 2009 abgezeichnet). März 2010 war auch die „erste LAN Party“ des SrrTrains v0.01 Projekts.

Dann kam noch die Idee dazu, die „unteren Schichten“ von SrrTrains „zu begraben“ (eine Schicht tiefer zu legen) – das ist SMUOS – und es kam die Idee dazu, die virtuelle Multiuser Szene mit der „real reality“ zu verbinden (SMS = Simple Multiuser Scene).

Das Blog erstersein.wordpress.com wurde von zweitersein.wordpress.com abgelöst, als ich begann, den zweiten Teil des „dritten Kindes“ zu schreiben. Das dritte und letzte Blog heisst jetzt letztersein.wordpress.com.

Es gibt eine Master-Page, das ist die „Page der ignatio-franziskanischen Revolutionsassistenten“, die ich halb im Scherz und halb ernsthaft gegründet habe

https://letztersein.wordpress.com/die-projekte/

Ein paar inoffizielle Dinge findet man auf http://members.chello.at/christoph.valentin

Jetzt aber ein großes Danke, dass Du diese E-Mail zuverlässig aufheben wirst, und stress Dich nicht beim Lesen, Du hast alle Zeit der Welt 🙂

Bussi
Papa


Metaphernwelten

März 13, 2017

Wie Ihr wisst, war ich in meiner Zifferngeschichte und in meinem Werk „Das dritte Kind“ auf der Suche nach Metaphern, um über Dinge zu schreiben, über die man eigentlich nicht schreiben sollte.

Auf der Meta Ebene habe ich jetzt ein wenig Ordnung gemacht um die doch sehr konfusen Paper auf der Drehbuchseite dann demnächst durch ein besseres Papier zu ersetzen.

Mit diesem kleinen Paper möchte ich meinen Lesern folgende Gedankengänge näherbringen.

  1. die Architektur einer SMS (Simple Multiuser Scene / Simple Multiuser Session)
  2. diverse Analogien, um diese Architektur in Metaphern und Allegorien verstecken zu können
  3. ist Religion nicht nur eine Ansammlung von Metaphern, die es uns ermöglicht über Dinge zu reden, über die man sonst nicht reden könnte?
  4. Sind Metaphern nicht ohnehin notwendig, damit man über das Leben reden kann, ohne daran zu verzweifeln?
  5. Wenn wir unsere Phantasie nicht hätten, dann könnten wir gleich einpacken

Und hier das Paper: Meta Gedanken zum dritten Kind

Meint
Euer Christoph


Wie wirklich ist die Wirklichkeit?

Januar 3, 2015

In letzter Zeit werden immer wieder einige neue Begriffe verwendet, so zum Beispiel „virtual reality“, „augmented reality“ und „mixed reality“.

Was hat man sich darunter vorzustellen?

Unter einer „virtual reality“ kann man sich ja noch einiges vorstellen.

Im althergebrachten Fall ist es eine „virtual reality“, wenn ich ein Buch lese. Durch das Lesen „versetze“ ich mich selbst in eine „andere“ Wirklichkeit, in eine Wirklichkeit, die nicht „wirklich“ existiert, sondern nur „virtuell“.

Das heisst nicht, dass diese Wirklichkeit unschärfer sein muss.

Über die Gedankengänge eines James T. Kirk, der nur virtuell existiert, ist mehr bekannt, als über die Gedankengänge von Napoleon, der real existiert hat.

Die heutige Computertechnik ermöglicht es uns, virtuelle Welten zu erstellen, die es möglich machen, sich in diese Welt zu versetzen, ohne allzu viel Phantasie aufwenden zu müssen, da die Simulationen schon sehr realitätsnah sind. Wir sprechen von photorealistischer 3D-Graphik.

Der Begriff der „augmented reality“ ist eindeutig im militärischen Bereich entstanden. Denken wir nur an ein HUD (heads up display), welches einem Piloten in einem Kampfflugzeug diverse Informationen in sein Sichtfeld einblendet, die es ihm ermöglichen, das Gesehene und Gehörte besser und einfacher zu interpretieren.

Bei der „augmented reality“ lebe ich also nach wie vor in der „echten“ Realität, die Computertechnik „verbessert“ diese Realität aber dahingehend, dass ich Dinge wahrnehmen kann, die ich ohne Computertechnik nicht wahrnehmen könnte.

Mit der „mixed reality“ hatte ich immer schon Verständnisschwierigkeiten. Ich konnte mir darunter nichts genaues vorstellen.

Dann kam ich dahinter: mit „mixed reality“ kann man verschiedene Dinge meinen. Einerseits ist der Übergang von „augmented reality“ zu „mixed reality“ ein fließender. Denn die „augmented reality“ hilft mir, reale „Entitäten“ besser zu erkennen, während die „mixed reality“ neue, virtuelle, Entitäten sozusagen „zur Wirklichkeit hinzufügen kann“.

Andererseits kann mit „mixed reality“ gemeint sein, dass man zwei oder mehr „Wirklichkeiten“ gleichzeitig „bewohnt“.

All das habe ich versucht, in der „Beschreibung des konzeptionellen Protokolls C3P (Collaborative 3D Profile)“ zu berücksichtigen.


1. Modes of Operation of C3P

Personal scene instances are inhabited by users.

Each user can inhabit more than one personal scene instance and he can additionally inhabit the reality.

The scene instances synchronize each other via the connectivity platform.

C3P connects the connectivity platform with the scene instances, in a star environment.

sysarch1

Legend:
PSI……..Personal Scene Instance
SCSI…….Server/Controller Scene Instance
ITR……..Interface To Reality
POI……..Point of Interest/Point of Interaction
C3P……..Collaborative 3D Profile

1.1. Virtual/Augmented Reality

1.1.1. Singleuser VR Mode (w/wo interception of trajectory)

In SVR mode, a multiuser session consists of one and only one personal scene instance, which may have been downloaded from a WWW server.

The scene instance virtually represents an interactive, animated scene, which may be a snapshot representation of a subset of the reality.

If the user is not restricted to a pure virtual environment (e.g. some holo-deck like installation), i.e. if the user inhabits reality, then the scene instance may augment this reality.

1.1.2. Multiuser VR Mode (w/wo interception of trajectories)

In MVR mode, a multiuser session consists of several or many personal scene instances, allowing the users to virtually collaborate in a virtual scene, which may have been downloaded from a WWW server.

The scene instances virtually represent an interactive, animated scene, which may be a snapshot representation of a subset of the reality.

The users are able to communicate with each other, using e.g. chat, voice chat, avatar gestures etc.

If the users are not restricted to pure virtual environments (e.g. some holo-deck like installations), i.e. if the users inhabit reality, then the scene instances may augment these realities.

1.2. Mixed Reality Mode (w/wo interception of trajectories)

In MR mode, a multiuser session consists of one, several or many personal scene instances and a server/controller scene instance, allowing the users to collaborate in a scene, which has been downloaded from the WWW server.

The personal scene instances virtually represent an interactive, animated scene, which is a representation of a subset of the reality.

The server/controller scene instance connects the multiuser session with the reality via points of interest/points of interaction. It must be clear that the subset of the reality and the representations of the subset of the reality in the scene instances might not be 100% aligned. This is due to the fact that not everything (every state, every shape, every collateral entity of the subset of the reality, etc.) can be modeled in the representation 100% correctly, nor can it be kept synchronous with the reality in a 100% correct manner.

Hence the reality will often be equalized with a model of the reality. The model of the reality is downloaded via http from the WWW server.

Points of Interaction are entities, that allow bi-directional data exchange between personal scene instances and the reality.

Points of Interest are entities, that allow uni-directional data exchange from the reality to personal scene instances.

The users are able to communicate with each other, using e.g. chat, voice chat, gestures etc.

If the users are not restricted to pure virtual environments (e.g. some holo-deck like installations), i.e. if the users inhabit reality, then the scene instances may augment these realities.

Users, who inhabit reality, may influence the reality directly and hence indirectly impact the representation of the reality within the scene.

1.3. Operating Modes of POIs and Views of Users

Each user may have a different view to the scene. It’s even possible, that a user has more than one view to the scene (this may e.g. happen, when he inhabits more than one personal scene instance).

  1. 3rd person view – such a user will not have the possibility to influence the scene, but he can be connected to the sensors of a POI
  2. pilot view – such a user has the possibility to influence the reality via a POI (he is the pilot of the POI)
  3. real view – the user inhabits the subset of the reality and can interact with the scene without the help of the CP

Each POI operates in one of the following operating modes at a given time

  1. AC/DC Modes
    1. Autonomous Mode/Connected
      the POI may be connected to a pilot, but his influence to the POI is limited
      the sensors of the POI can additionally be connected to 3rd person views
    2. Disconnected Mode
      the POI is not connected to the ITR
  2. Connected Mode
    the POI is controlled by a pilot *)
    the sensors of the POI can additionally be connected to 3rd person views

*) the connection between POI and pilot should be designed in a way, so that a possible outage of the ITR does not influence the controllability of the POI.


Entscheidung für Plan B – Das dritte Kind

Oktober 17, 2014

Liebe Leserinnen und Leser

Wie Ihr wisst, habe ich mich im Rahmen der Erzählung „Das dritte Kind“ mit den technischen Ideen DIGITS und SMUOS/C3P auseinandergesetzt.

Ich habe das so gelöst, dass die erste Hauptfigur – Conrad Peter – eine Allegorie für SMUOS/C3P darstellt und die zweite Hauptfigur – Otto – eine solche für DIGITS.

Der dritte Teil der Erzählung, der sich hauptsächlich mit DIGITS beschäftigt, ist nur im Sinne von einzelnen Fragmenten fertig, aber ich habe jetzt beschlossen, dass ICH mit der Sache fertig bin.

Die letzte Entscheidung, die noch gefällt werden musste, war die für einen der beiden Schlüsse a) oder b).

a) Conrad Peter und Otto sterben den Heldentod und werden in bayerischer Erde begraben
b) Conrad Peter und Otto sterben den Heldentod und nach einer Feuerbestattung wird ihre Asche dem gnädigen Herbstwind übergeben.

Da habe ich mich jetzt sozusagen für „Plan B“ entschieden und überlasse die Asche dem Wind.

Hier nochmal die einzelnen Dokumente:

Lg
Euer Christoph


Ideen zu haben – Die „echte“ Realität

September 5, 2014

Liebe Leserinnen und Leser

Jetzt hatte ich Euch ja berichtet, dass ich mit meinem Hobby – Projekt SrrTrains v0.01 tatsächlich aufgehört hatte und dass ich auch die zugehörigen Blogs gelöscht hatte.

Weiters hatte ich hier versprochen, dass ich weitere Artikel zur technischen Fragestellung des Projektes schreiben werde.

Was hiermit geschieht.

Jetzt haben wir klargestellt, dass der „Collaboration Server“ (CS) N Instanzen der Simplen Multiuser Szene (SMS) miteinander verbindet, damit alle N User „gemeinsam“ in „derselben“ virtuellen Realität „leben“ können (diese sozusagen „bewohnen“).

Weiters haben wir festgestellt, dass wir im Zuge der Standardisierung auch gewisse Vorgaben über den Inhalt der Szene machen müssen. Wir hatten festgelegt, dass die Szene aus Modulen, Modellen und MIDAS Objekten bestehen soll.

Eine neue, sehr interessante, Frage besteht nun darin, ob man eine SMS nicht mit der „wirklichen“ Realität verbinden kann, die dann eben nicht von Avataren, sondern von Robotern „bewohnt“ wird.

Müßte man nicht bloß die „wirkliche“ Realität als „N+1“-te Instanz in die „virtuelle“ Realität einbinden und diese miteinander synchronisieren?

Z.B.: 2 Leute sitzen im Hobby-Raum vor der „echten“ Modellbahnanlage, weitere 5 Leute können mitspielen, indem sie vor ihrem PC zu Hause sitzen und am Eisenbahnspiel in einer „rein virtuellen“ Umgebung mitspielen.

Gute Frage und eine interessante Aufgabe wäre das.

Meint

Euer Christoph


Die Welt ist nicht genug

Juli 26, 2014

Wenn man bedenkt, dass unsere Positionierungssysteme – GPS, GLONASS, GALILEO und wie sie alle heissen – immer noch die Koordinaten relativ zur guten alten Mutter Erde messen, dann muss man eigentlich statuieren: das geozentrische Zeitalter ist noch nicht überwunden.

Vielleicht wird jetzt die Bewegung „Get your ass to the Mars“ etwas an diesem Grundproblem ändern, aber ich möchte heute eigentlich über ein anderes Thema reden.

Denn mir ist es ein Anliegen, immer wieder darauf hinzuweisen, dass die Darstellung von Positionen und Geschwindigkeiten in GPS, GLONASS, GALILEO u. dgl. eng verwandt ist mit der Darstellung von Positionen und Geschwindigkeiten in virtuellen Welten.

Da kommen dann gleich wieder die alten Assoziationen mit gewissen Flugzeugen, Drohnen, Distributed Interactive Simulation und Network Sensor, die Ihr von mir ja zur genüge kennt.

Ich will Euch auch gar nicht mit Details quälen, ich will nur einen Aspekt anreissen. In meinem Hobby-Projekt SrrTrains/SMUOS hatte ich mich auch mit dem Begriff der „Moving Modules“ beschäftigt.

Was wäre jetzt, wenn man die Position eines Roboters, der in einem Eisenbahnwaggon sitzt, nicht relativ zur Erde angibt, sondern relativ zum Eisenbahnwaggon?

Das würde doch manches vereinfachen.

Letzten Endes würde es dazu führen, dass man von GPS („globales“ Positionierungssystem) zu einem UPS („universales“ Positionierungssystem) kommt, das wäre „irgendetwas“ hierarchisches, wo sich zum Beispiel ein Eisenbahnwaggon als Teil einer Eisenbahnlinie als Teil eines Landes als Teil eines Kontinents als Teil der Erde als Teil des Sonnensystems als Teil der Milchstrasse als Teil des Universums herausstellen würde, eben UPS.

Meint
Euer Christoph


Neue Geo TLDs / Distributed Internet Geographic Information Transmission Service

März 15, 2014

Jetzt bin ich über einen Artikel auf der Futurezone auf ein Thema gestossen, das gerade ich fast übersehen hätte. Scheint ein Wink des Schicksals zu sein, dass ich mit meinem Hobby endgültig aufhören sollte (altes Thema 🙂 ).

Hier der Artikel
http://futurezone.at/digital-life/wien-wien-ab-sofort-mit-eigener-domainendung/54.169.036

und nach Googeln noch ein wichtiger Artikel auf ots.at:
http://www.ots.at/presseaussendung/OTS_20131028_OTS0135/vertragsunterzeichnung-fuer-wien-als-weltweit-erste-geo-community-tld

und ein Wikipedia Eintrag
http://en.wikipedia.org/wiki/GeoTLD.

sowie der originale „DIGITS“-Link
https://simulrr.svn.sourceforge.net/svnroot/simulrr/concepts/src/Digits/

Aber warum interessiert mich dieses Thema? Na gut, die mich kennen, wissen es längst: es geht um DIGITS (distributed internet geographic information transmission service), also eine Idee, geographische Infrastruktur in einem hierarchischen System von Geo-Servern abzulegen.

Dabei würde ein 3-dimensionales, interaktives, animiertes Abbild der Erde in verschiedenen Hierarchiestufen abgelegt.

Je nachdem, welche Szene man darstellen möchte (ob zum Beispiel ein Flugsimulator oder eine Navigationssoftware für Fussgänger vorliegt), würde man in einer unterschiedlichen Hierarchiestufe in das System einsteigen (das entspräche dem sogenannten LoD – Level of Detail).

Ein Flugsimulator, dessen virtueller User sich gerade in Wien befindet, würde also z.B. die Server

  1. wien.austria.earth.solarsystem.ourgalaxy.universe,
  2. austria.earth.solarsystem.ourgalaxy.universe,
  3. earth.solarsystem.ourgalaxy.universe,
  4. solarsystem.ourgalaxy.universe,
  5. ourgalaxy.universe und
  6. universe

durchlaufen, während eine Anwendung, die eine Navigation von Währing nach Ottakring darstellt, folgende Server abfragen würde:

  1. waehring.wien.austria.earth.solarsystem.ourgalaxy.universe,
  2. hernals.wien.austria.earth.solarsystem.ourgalaxy.universe,
  3. ottakring.wien.austria.earth.solarsystem.ourgalaxy.universe,
  4. wien.austria.earth.solarsystem.ourgalaxy.universe,
  5. austria.earth.solarsystem.ourgalaxy.universe,
  6. earth.solarsystem.ourgalaxy.universe,
  7. solarsystem.ourgalaxy.universe,
  8. ourgalaxy.universe und
  9. universe

Dabei wäre der „höchste“ Server für das gesamte Universum „zuständig“, enthielte aber „keine Geo-Daten“, während die „niedrigsten“ Server nur für je einen „kleinen Bereich“ „zuständig“ wären, aber am meisten Details enthielten.

Jetzt frage ich mich: kann man die Ansätze für Geo TLDs bereits als Ansatz in diese Richtung interpretieren?

Meint
Euer Christoph