Brief an meine Tochter – 2017-05-25

Mai 28, 2017

Betreff: SrrTrains – die ganze Geschichte – aus heutiger Sicht

Liebe C.!

Begonnen hat die ganze Geschichte damit, dass ich

a) im Zuge meiner Diplomarbeit (1993 – 1997) draufgekommen bin, dass man mit Hilfe von GPS Uhren hochgenau synchronisieren kann
b) eine Fernsehdokumentation über die F-117A (den ersten Tarnkappenbomber „Night Hawk“) gesehen habe

Beides zusammengenommen war ich dann der Meinung, dass sowohl GPS als auch TCP/IP (das Internet) nur deswegen erfunden worden sind, damit der Tarnkappenbomber fliegen kann (technische Details kann ich Dir gerne erklären, im Prinzip geht es um „bistatisches RADAR“).

Also hatte der Tarnkappenbomber (der in meiner Phantasie mit der Metapher „Darth Vader“ gleichgesetzt wird) zwei Kinder, nämlich GPS (Leia) und TCP/IP (Luke). Das ist natürlich nur eine Metapher.

Weil mir niemand bestätigen oder widerlegen konnte, ob ich recht habe, war das eine sehr anstrengende Zeit – Du musst Dir vorstellen, Du hast etwas Grundlegendes entdeckt, aber niemand bestätigt oder widerlegt es, alle gehen aber davon aus, dass Du verrückt bist, insbesondere Deine Frau.

Nun kam ich dahinter, dass Darth Vader noch ein drittes Kind gehabt haben könnte: was wäre, wenn die 3D Graphik auch ein Kind der Tarnkappentechnologie wäre? Technische Details auf Nachfrage.

Das führte im Jahr 2000/2002 zur Erfindungsmeldung DIGITS. Siemens hat mir diese Erfindung dann freigegeben. Da Siemens nicht wusste, wie man damit Geld machen soll, haben sie mir die Verantwortung umgehängt. Damals gab’s noch kein Google Earth, aber wie ich später nachgelesen habe, war es bereits in Entwicklung.

Ausserdem bekam ich den Hinweis, dass ich nicht immer nur an die F-117A denken soll, sondern auch an Drohnen (und Roboter).

Dann habe ich die „Zifferngeschichte“ (Geschichte von DIGITS) geschrieben.

Im Jahr 2005 (Einstein’s Jahr!) war die Ideenfindung für die Idee DIGITS abgeschlossen, das ich immer noch mit mir herumtrage.

Im Jahr 2007 habe ich mein erstes Blog begonnen, weil ich gefühlt habe, dass ich über diese Idee veröffentlichen MUSS (Web 2.0 kam mir damals zu Hilfe).

Dann habe ich die Zifferngeschichte veröffentlicht und begonnen die Erzählung (genau genommen die „Drehbuchskizzen“) „Das dritte Kind“ zu schreiben.

Bei Siemens habe ich 2007 die Idee „SIMULRR“ abgegeben, die zu Ostern 2008 freigegeben worden ist (auch hier wollte Siemens nicht die Verantwortung übernehmen).

Zu Ostern 2008 habe ich mit dem X3D Hobby begonnen – zuerst mit einem Rollercoaster Projekt.

Frühling 2009 war ich sicher, dass man X3D für die virtuelle Modelleisenbahn verwenden kann und habe mit dem „SrrTrains v0.01“ Projekt begonnen.

März 2010 musste ich die Firma wechseln (das hat sich schon 2009 abgezeichnet). März 2010 war auch die „erste LAN Party“ des SrrTrains v0.01 Projekts.

Dann kam noch die Idee dazu, die „unteren Schichten“ von SrrTrains „zu begraben“ (eine Schicht tiefer zu legen) – das ist SMUOS – und es kam die Idee dazu, die virtuelle Multiuser Szene mit der „real reality“ zu verbinden (SMS = Simple Multiuser Scene).

Das Blog erstersein.wordpress.com wurde von zweitersein.wordpress.com abgelöst, als ich begann, den zweiten Teil des „dritten Kindes“ zu schreiben. Das dritte und letzte Blog heisst jetzt letztersein.wordpress.com.

Es gibt eine Master-Page, das ist die „Page der ignatio-franziskanischen Revolutionsassistenten“, die ich halb im Scherz und halb ernsthaft gegründet habe

https://letztersein.wordpress.com/die-projekte/

Ein paar inoffizielle Dinge findet man auf http://members.chello.at/christoph.valentin

Jetzt aber ein großes Danke, dass Du diese E-Mail zuverlässig aufheben wirst, und stress Dich nicht beim Lesen, Du hast alle Zeit der Welt 🙂

Bussi
Papa


Metaphernwelten

März 13, 2017

Wie Ihr wisst, war ich in meiner Zifferngeschichte und in meinem Werk „Das dritte Kind“ auf der Suche nach Metaphern, um über Dinge zu schreiben, über die man eigentlich nicht schreiben sollte.

Auf der Meta Ebene habe ich jetzt ein wenig Ordnung gemacht um die doch sehr konfusen Paper auf der Drehbuchseite dann demnächst durch ein besseres Papier zu ersetzen.

Mit diesem kleinen Paper möchte ich meinen Lesern folgende Gedankengänge näherbringen.

  1. die Architektur einer SMS (Simple Multiuser Scene / Simple Multiuser Session)
  2. diverse Analogien, um diese Architektur in Metaphern und Allegorien verstecken zu können
  3. ist Religion nicht nur eine Ansammlung von Metaphern, die es uns ermöglicht über Dinge zu reden, über die man sonst nicht reden könnte?
  4. Sind Metaphern nicht ohnehin notwendig, damit man über das Leben reden kann, ohne daran zu verzweifeln?
  5. Wenn wir unsere Phantasie nicht hätten, dann könnten wir gleich einpacken

Und hier das Paper: Meta Gedanken zum dritten Kind

Meint
Euer Christoph


Wie wirklich ist die Wirklichkeit?

Januar 3, 2015

In letzter Zeit werden immer wieder einige neue Begriffe verwendet, so zum Beispiel „virtual reality“, „augmented reality“ und „mixed reality“.

Was hat man sich darunter vorzustellen?

Unter einer „virtual reality“ kann man sich ja noch einiges vorstellen.

Im althergebrachten Fall ist es eine „virtual reality“, wenn ich ein Buch lese. Durch das Lesen „versetze“ ich mich selbst in eine „andere“ Wirklichkeit, in eine Wirklichkeit, die nicht „wirklich“ existiert, sondern nur „virtuell“.

Das heisst nicht, dass diese Wirklichkeit unschärfer sein muss.

Über die Gedankengänge eines James T. Kirk, der nur virtuell existiert, ist mehr bekannt, als über die Gedankengänge von Napoleon, der real existiert hat.

Die heutige Computertechnik ermöglicht es uns, virtuelle Welten zu erstellen, die es möglich machen, sich in diese Welt zu versetzen, ohne allzu viel Phantasie aufwenden zu müssen, da die Simulationen schon sehr realitätsnah sind. Wir sprechen von photorealistischer 3D-Graphik.

Der Begriff der „augmented reality“ ist eindeutig im militärischen Bereich entstanden. Denken wir nur an ein HUD (heads up display), welches einem Piloten in einem Kampfflugzeug diverse Informationen in sein Sichtfeld einblendet, die es ihm ermöglichen, das Gesehene und Gehörte besser und einfacher zu interpretieren.

Bei der „augmented reality“ lebe ich also nach wie vor in der „echten“ Realität, die Computertechnik „verbessert“ diese Realität aber dahingehend, dass ich Dinge wahrnehmen kann, die ich ohne Computertechnik nicht wahrnehmen könnte.

Mit der „mixed reality“ hatte ich immer schon Verständnisschwierigkeiten. Ich konnte mir darunter nichts genaues vorstellen.

Dann kam ich dahinter: mit „mixed reality“ kann man verschiedene Dinge meinen. Einerseits ist der Übergang von „augmented reality“ zu „mixed reality“ ein fließender. Denn die „augmented reality“ hilft mir, reale „Entitäten“ besser zu erkennen, während die „mixed reality“ neue, virtuelle, Entitäten sozusagen „zur Wirklichkeit hinzufügen kann“.

Andererseits kann mit „mixed reality“ gemeint sein, dass man zwei oder mehr „Wirklichkeiten“ gleichzeitig „bewohnt“.

All das habe ich versucht, in der „Beschreibung des konzeptionellen Protokolls C3P (Collaborative 3D Profile)“ zu berücksichtigen.


1. Modes of Operation of C3P

Personal scene instances are inhabited by users.

Each user can inhabit more than one personal scene instance and he can additionally inhabit the reality.

The scene instances synchronize each other via the connectivity platform.

C3P connects the connectivity platform with the scene instances, in a star environment.

sysarch1

Legend:
PSI……..Personal Scene Instance
SCSI…….Server/Controller Scene Instance
ITR……..Interface To Reality
POI……..Point of Interest/Point of Interaction
C3P……..Collaborative 3D Profile

1.1. Virtual/Augmented Reality

1.1.1. Singleuser VR Mode (w/wo interception of trajectory)

In SVR mode, a multiuser session consists of one and only one personal scene instance, which may have been downloaded from a WWW server.

The scene instance virtually represents an interactive, animated scene, which may be a snapshot representation of a subset of the reality.

If the user is not restricted to a pure virtual environment (e.g. some holo-deck like installation), i.e. if the user inhabits reality, then the scene instance may augment this reality.

1.1.2. Multiuser VR Mode (w/wo interception of trajectories)

In MVR mode, a multiuser session consists of several or many personal scene instances, allowing the users to virtually collaborate in a virtual scene, which may have been downloaded from a WWW server.

The scene instances virtually represent an interactive, animated scene, which may be a snapshot representation of a subset of the reality.

The users are able to communicate with each other, using e.g. chat, voice chat, avatar gestures etc.

If the users are not restricted to pure virtual environments (e.g. some holo-deck like installations), i.e. if the users inhabit reality, then the scene instances may augment these realities.

1.2. Mixed Reality Mode (w/wo interception of trajectories)

In MR mode, a multiuser session consists of one, several or many personal scene instances and a server/controller scene instance, allowing the users to collaborate in a scene, which has been downloaded from the WWW server.

The personal scene instances virtually represent an interactive, animated scene, which is a representation of a subset of the reality.

The server/controller scene instance connects the multiuser session with the reality via points of interest/points of interaction. It must be clear that the subset of the reality and the representations of the subset of the reality in the scene instances might not be 100% aligned. This is due to the fact that not everything (every state, every shape, every collateral entity of the subset of the reality, etc.) can be modeled in the representation 100% correctly, nor can it be kept synchronous with the reality in a 100% correct manner.

Hence the reality will often be equalized with a model of the reality. The model of the reality is downloaded via http from the WWW server.

Points of Interaction are entities, that allow bi-directional data exchange between personal scene instances and the reality.

Points of Interest are entities, that allow uni-directional data exchange from the reality to personal scene instances.

The users are able to communicate with each other, using e.g. chat, voice chat, gestures etc.

If the users are not restricted to pure virtual environments (e.g. some holo-deck like installations), i.e. if the users inhabit reality, then the scene instances may augment these realities.

Users, who inhabit reality, may influence the reality directly and hence indirectly impact the representation of the reality within the scene.

1.3. Operating Modes of POIs and Views of Users

Each user may have a different view to the scene. It’s even possible, that a user has more than one view to the scene (this may e.g. happen, when he inhabits more than one personal scene instance).

  1. 3rd person view – such a user will not have the possibility to influence the scene, but he can be connected to the sensors of a POI
  2. pilot view – such a user has the possibility to influence the reality via a POI (he is the pilot of the POI)
  3. real view – the user inhabits the subset of the reality and can interact with the scene without the help of the CP

Each POI operates in one of the following operating modes at a given time

  1. AC/DC Modes
    1. Autonomous Mode/Connected
      the POI may be connected to a pilot, but his influence to the POI is limited
      the sensors of the POI can additionally be connected to 3rd person views
    2. Disconnected Mode
      the POI is not connected to the ITR
  2. Connected Mode
    the POI is controlled by a pilot *)
    the sensors of the POI can additionally be connected to 3rd person views

*) the connection between POI and pilot should be designed in a way, so that a possible outage of the ITR does not influence the controllability of the POI.


Entscheidung für Plan B – Das dritte Kind

Oktober 17, 2014

Liebe Leserinnen und Leser

Wie Ihr wisst, habe ich mich im Rahmen der Erzählung „Das dritte Kind“ mit den technischen Ideen DIGITS und SMUOS/C3P auseinandergesetzt.

Ich habe das so gelöst, dass die erste Hauptfigur – Conrad Peter – eine Allegorie für SMUOS/C3P darstellt und die zweite Hauptfigur – Otto – eine solche für DIGITS.

Der dritte Teil der Erzählung, der sich hauptsächlich mit DIGITS beschäftigt, ist nur im Sinne von einzelnen Fragmenten fertig, aber ich habe jetzt beschlossen, dass ICH mit der Sache fertig bin.

Die letzte Entscheidung, die noch gefällt werden musste, war die für einen der beiden Schlüsse a) oder b).

a) Conrad Peter und Otto sterben den Heldentod und werden in bayerischer Erde begraben
b) Conrad Peter und Otto sterben den Heldentod und nach einer Feuerbestattung wird ihre Asche dem gnädigen Herbstwind übergeben.

Da habe ich mich jetzt sozusagen für „Plan B“ entschieden und überlasse die Asche dem Wind.

Hier nochmal die einzelnen Dokumente:

Lg
Euer Christoph


Ideen zu haben – Die „echte“ Realität

September 5, 2014

Liebe Leserinnen und Leser

Jetzt hatte ich Euch ja berichtet, dass ich mit meinem Hobby – Projekt SrrTrains v0.01 tatsächlich aufgehört hatte und dass ich auch die zugehörigen Blogs gelöscht hatte.

Weiters hatte ich hier versprochen, dass ich weitere Artikel zur technischen Fragestellung des Projektes schreiben werde.

Was hiermit geschieht.

Jetzt haben wir klargestellt, dass der „Collaboration Server“ (CS) N Instanzen der Simplen Multiuser Szene (SMS) miteinander verbindet, damit alle N User „gemeinsam“ in „derselben“ virtuellen Realität „leben“ können (diese sozusagen „bewohnen“).

Weiters haben wir festgestellt, dass wir im Zuge der Standardisierung auch gewisse Vorgaben über den Inhalt der Szene machen müssen. Wir hatten festgelegt, dass die Szene aus Modulen, Modellen und MIDAS Objekten bestehen soll.

Eine neue, sehr interessante, Frage besteht nun darin, ob man eine SMS nicht mit der „wirklichen“ Realität verbinden kann, die dann eben nicht von Avataren, sondern von Robotern „bewohnt“ wird.

Müßte man nicht bloß die „wirkliche“ Realität als „N+1“-te Instanz in die „virtuelle“ Realität einbinden und diese miteinander synchronisieren?

Z.B.: 2 Leute sitzen im Hobby-Raum vor der „echten“ Modellbahnanlage, weitere 5 Leute können mitspielen, indem sie vor ihrem PC zu Hause sitzen und am Eisenbahnspiel in einer „rein virtuellen“ Umgebung mitspielen.

Gute Frage und eine interessante Aufgabe wäre das.

Meint

Euer Christoph


Die Welt ist nicht genug

Juli 26, 2014

Wenn man bedenkt, dass unsere Positionierungssysteme – GPS, GLONASS, GALILEO und wie sie alle heissen – immer noch die Koordinaten relativ zur guten alten Mutter Erde messen, dann muss man eigentlich statuieren: das geozentrische Zeitalter ist noch nicht überwunden.

Vielleicht wird jetzt die Bewegung „Get your ass to the Mars“ etwas an diesem Grundproblem ändern, aber ich möchte heute eigentlich über ein anderes Thema reden.

Denn mir ist es ein Anliegen, immer wieder darauf hinzuweisen, dass die Darstellung von Positionen und Geschwindigkeiten in GPS, GLONASS, GALILEO u. dgl. eng verwandt ist mit der Darstellung von Positionen und Geschwindigkeiten in virtuellen Welten.

Da kommen dann gleich wieder die alten Assoziationen mit gewissen Flugzeugen, Drohnen, Distributed Interactive Simulation und Network Sensor, die Ihr von mir ja zur genüge kennt.

Ich will Euch auch gar nicht mit Details quälen, ich will nur einen Aspekt anreissen. In meinem Hobby-Projekt SrrTrains/SMUOS hatte ich mich auch mit dem Begriff der „Moving Modules“ beschäftigt.

Was wäre jetzt, wenn man die Position eines Roboters, der in einem Eisenbahnwaggon sitzt, nicht relativ zur Erde angibt, sondern relativ zum Eisenbahnwaggon?

Das würde doch manches vereinfachen.

Letzten Endes würde es dazu führen, dass man von GPS („globales“ Positionierungssystem) zu einem UPS („universales“ Positionierungssystem) kommt, das wäre „irgendetwas“ hierarchisches, wo sich zum Beispiel ein Eisenbahnwaggon als Teil einer Eisenbahnlinie als Teil eines Landes als Teil eines Kontinents als Teil der Erde als Teil des Sonnensystems als Teil der Milchstrasse als Teil des Universums herausstellen würde, eben UPS.

Meint
Euer Christoph


Neue Geo TLDs / Distributed Internet Geographic Information Transmission Service

März 15, 2014

Jetzt bin ich über einen Artikel auf der Futurezone auf ein Thema gestossen, das gerade ich fast übersehen hätte. Scheint ein Wink des Schicksals zu sein, dass ich mit meinem Hobby endgültig aufhören sollte (altes Thema 🙂 ).

Hier der Artikel
http://futurezone.at/digital-life/wien-wien-ab-sofort-mit-eigener-domainendung/54.169.036

und nach Googeln noch ein wichtiger Artikel auf ots.at:
http://www.ots.at/presseaussendung/OTS_20131028_OTS0135/vertragsunterzeichnung-fuer-wien-als-weltweit-erste-geo-community-tld

und ein Wikipedia Eintrag
http://en.wikipedia.org/wiki/GeoTLD.

sowie der originale „DIGITS“-Link
https://simulrr.svn.sourceforge.net/svnroot/simulrr/concepts/src/Digits/

Aber warum interessiert mich dieses Thema? Na gut, die mich kennen, wissen es längst: es geht um DIGITS (distributed internet geographic information transmission service), also eine Idee, geographische Infrastruktur in einem hierarchischen System von Geo-Servern abzulegen.

Dabei würde ein 3-dimensionales, interaktives, animiertes Abbild der Erde in verschiedenen Hierarchiestufen abgelegt.

Je nachdem, welche Szene man darstellen möchte (ob zum Beispiel ein Flugsimulator oder eine Navigationssoftware für Fussgänger vorliegt), würde man in einer unterschiedlichen Hierarchiestufe in das System einsteigen (das entspräche dem sogenannten LoD – Level of Detail).

Ein Flugsimulator, dessen virtueller User sich gerade in Wien befindet, würde also z.B. die Server

  1. wien.austria.earth.solarsystem.ourgalaxy.universe,
  2. austria.earth.solarsystem.ourgalaxy.universe,
  3. earth.solarsystem.ourgalaxy.universe,
  4. solarsystem.ourgalaxy.universe,
  5. ourgalaxy.universe und
  6. universe

durchlaufen, während eine Anwendung, die eine Navigation von Währing nach Ottakring darstellt, folgende Server abfragen würde:

  1. waehring.wien.austria.earth.solarsystem.ourgalaxy.universe,
  2. hernals.wien.austria.earth.solarsystem.ourgalaxy.universe,
  3. ottakring.wien.austria.earth.solarsystem.ourgalaxy.universe,
  4. wien.austria.earth.solarsystem.ourgalaxy.universe,
  5. austria.earth.solarsystem.ourgalaxy.universe,
  6. earth.solarsystem.ourgalaxy.universe,
  7. solarsystem.ourgalaxy.universe,
  8. ourgalaxy.universe und
  9. universe

Dabei wäre der „höchste“ Server für das gesamte Universum „zuständig“, enthielte aber „keine Geo-Daten“, während die „niedrigsten“ Server nur für je einen „kleinen Bereich“ „zuständig“ wären, aber am meisten Details enthielten.

Jetzt frage ich mich: kann man die Ansätze für Geo TLDs bereits als Ansatz in diese Richtung interpretieren?

Meint
Euer Christoph


Positiv betrachtet, ……

Februar 17, 2014

……müßten wir die Preiserhöhungen im Mobilfunkbereich eigentlich so interpretieren, dass die Netzbetreiber den Wunsch nach Netzneutralität ernst nehmen, und jetzt eben alles teurer wird, dafür werden Premium Dienste nicht übertrieben bevorzugt.

Der Zweckoptimismus eines Till Eulenspiegel, ich weiß 😛

Lg


Simplex, Halbduplex oder Vollduplex

Juli 10, 2013

Ich habe mich einigermaßen geärgert.

Da hat doch ein Blogger auf einen meiner Beiträge zur Relativitätstheorie reagiert und einen – zugegebenermaßen negativen und zugegebenermaßen dummen – Kommentar geschrieben.

Aber darüber habe ich mich nicht geärgert. Nein, worüber ich mich geärgert habe, das ist sein Simplex-Verfahren, nämlich seine Kommunikation in Form einer Einbahnstraße.

Da habe ich mich hingesetzt und habe mühsam seinen Denkfehler aufgezeigt, die Problematik seiner Argumentation
offengelegt, mit einem Wort, ich bin auf ihn eingegangen (trotz seiner offensichtlichen Simplizität).

Und was sagt mir die Zugriffsstatistik?

Null!

Nicht einmal gelesen hat er meine Antwort, geschweige denn, darauf reagiert.

Wenn jemand seine Meinung einfach nur so ins Weltall hineinrotzt, ohne sich für die Reaktion zu interessieren, dann ist das wahrlich ärgerlich.

Selbst die klassischen Simplex-Kanäle (also z.B. Zeitung, Radio und Fernsehen) lassen Dir als Konsument eine Möglichkeit, auf die Information zu reagieren (Leserbriefe, Beschwerdestelle etc.).

Und ist es nicht eigentlich dieses „Hin und Her“, dieses Duplex-Verfahren, das uns Menschen erst zu Menschen macht?

Weil wir eben voneinander lernen können, und es nicht immer nur „von oben nach unten“ geht, sondern „hin und zurück“.

Sind wir nicht alle noch in der Schule und müssen voneinander lernen?

Ein Leben lang?

Immer schön demütig. Da gibt es keinen, der „besser“ ist und „auf die anderen hinunterblicken“ dürfte. Aber man soll auch nicht nur „nach oben schauen“ und die „Verantwortung nach oben delegieren“.

In der Waagrechten entscheidet sich das Christentum, im täglichen Leben. Da gibt es kein „oben“ und „unten“.

Meint
Euer Christoph


Positions- und Lagebestimmung

Mai 15, 2012

Hallo liebe Leute

In meiner Erzählung „Das dritte Kind“ geht es im zweiten Teil auch um ein Go-Kart Rennen, das der Held der Geschichte mit Hilfe einer Mixed Reality/Virtual Reality Anordnung aus einem weit entfernten Zugsabteil mitfährt.

So weit so gut, literarisch beschreiben kann man das ja alles, wenn man sich nicht um technische Details kümmert.

Und in der Erzählung habe ich die technischen Details bewußt weggelassen, weil ich selber keinen blassen Dunst habe, ob und wenn ja wie solch eine Anordnung überhaupt möglich sein könnte.

Am Schwierigsten wird es wohl sein, die Position und Geschwindigkeit der realen Go-Karts in das dynamische Modell des 3D-Games zu übertragen.

Hier habe ich folgende Vorschläge und wollte um Eure Meinung dazu bitten.

  1. Jedes Go-Kart misst die eigene Position und Geschwindigkeit. Diese wird DIREKT an das Spiel weitergegeben
  2. C-3PO (der „Avatar“ des Burschen) misst Positionen und Geschwindigkeiten mit seinen Videokameras und einer entsprechend intelligenten Bilderkennung (nennen wir es „Motion Capture“)
  3. Der Bursche hat sich in alle Überwachungskameras eingehackt und benützt eine intelligente Bilderkennung, um Positionen und Geschwindigkeiten festzustellen (ebenfalls Motion Capture)
  4. Die Go-Karts messen selber ihre Positionen und Geschwindigkeiten und tauschen diese miteinander aus. C-3PO bekommt diese Information über das Datenkabel, durch das er mit dem Go-Kart verbunden ist und gibt sie an das Spiel weiter

Bin schon gespannt auf die Kommentare.

Lg
Christoph