Badewannengedanken

Wir leben in einem Multiversum

Was ist hinter diesem Universum. Was war davor da und was wird danach sein?

Ich weiß es nicht so genau, aber ich würde sagen, dass es noch unzählige weitere Universen gibt.

In dieser Welt (das Gesamtsystem), gibt es alles mehrfach. Wenn etwas entsprechend der Regeln möglich ist, entsteht es immer wieder. Wenn etwas nicht möglich ist, wird es nicht entstehen. Es gibt viele Menschen, viele Amöben, viele Bakterien, viele Planeten, viele Galaxien. Und warum sollte es dann nur ein Universum geben. Zumal wir nicht sicher wissen wo es her kommt und wie es sein kann das es da ist. Aber ganz offensichtlich ist es da. Also wird es noch mehrere davon geben.

Aus dem gleichen Grund gibt es nicht den einen Gott, wie er auch immer heißt. Entweder gibt es Götter und dann sind es viele, oder eben nicht. Zumal er uns ja nach seinem Bilde geschaffen hat. Das legt doch nur nah dass es viele sind die sich auch vermehren und Spaß daran haben. Jetzt bringt mich das Konzept von einem Gott nicht weiter. Wenn es viele sind und wenn sie das Universum geschaffen haben, bleibt die Frage bestehen wo die Götter her kommen und wer sie geschaffen hat. Dann kommt die Überlegung auch ohne Götter aus ohne das etwas fehlt.

Das Weihnachtsmann ist entlarvt!

Wenn die bei den Amerikanern Weihnachten X-Mas ist, ist dann der Weihnachtsmann ein X-Man? Das würde schon erklären, wie er 380 Millionen Kinder im christlichen Kulturkreis in nur 24h beschenken kann.

Man stelle sich vor, Wolverine als Wichtel... Thor hatte früher auch noch einen Wagen, in dem er über den Himmel gefahren ist. Das passt schon zusammen.

der Batman-Frisbee - eine Geschäftsidee für den Sommer 2015

OLEDs werden auf millimeterdickem Kunststoff aufgedruckt. Unterdessen sinken die Kosten. Sensoren werden immer häufiger eingesetzt und der Platzbedarf für Videoanzeigetechik sinkt ebenso.

Wie wäre es mit einer Wurfscheibe, die großflächig Display ist und ihr eigene Rotationsgeschwindigkeit erkennt?

Sie könnte während ihres Fluges ein Bild oder Video anzeigen, das immer in die gleiche Richtung ausgerichtet ist. Man könnte das Batman-Logo zum Himmel werfen. Oder je nach Fluggeschwindigkeit fängt die Scheibe Feuer. Als Spielidee könnte die Scheibe im Flug auch eines der Gesichter der Mitspieler zeigen, der die Scheibe dann fangen muss.

Jetzt muss das nur noch spottbillig werden...

Tiefenschärfe für Kompaktkameras die II.

Mit Parallelisierung zu besserer Bildqualität bei kompakteren Ausmaßen

Rückblick

Im ersten Teil vor langer langer Zeit schlug ich vor mit einem Objektiv mehrere Bilder mit unterschiedlicher Fokussierung aufzunehmen und die dann zu verrechnen. Für eine Erhöhung des Dynamikumfangs wird das ja schon erfolgreich getan.Um diesen Ansatz umzusetzen bedarf es nur empfindlicher Sensoren und schneller Technik im Hintergrund. Insgesamt braucht man dafür aber noch große, gute, aber klobige Objektive

Gedankengang

Beim Träumen am morgen fiel mit dann das Very Lage Array und und die Very Long Basyline Interferometry mit dem Smartphone , das ich noch nicht habe, und meinen Urlaubsplänen zusammen.

Idee

Könnte man nicht eine Kamera mit einem Feld von mehreren Objektivmodulen versehen? Alle lösen gleichzeitig aus und die Bilder werden addiert. Da für jeden Bildbereich mehrere Daten vorliegen, wird das Rauschen minimiert. Die Motiverkennung hat mehr auswertbare Daten. Dazu wird noch durch die insgesamt größere Sensorfläche die Bildqualität erhöht. Man könnte den Schärfentiefebereich dynamisch wählen indem die Schärfeinformation nur von einem Objektiv oder von mehreren genommen wird. Die Farbe jedoch aus mehreren Objektiven interpoliert. Selbst 3D Bilder ließen sich so recht einfach und nebenbei generieren.

Problemchen

Ein Haken ist natürlich das man mehrere Systeme synchronisieren muss. Das braucht Ressourcen, die heute zur Verfügung stehen sollten. Die Kamera kann aber kalibriert werden, entweder im Vornherein, oder parallel zur Fotografie auf Grund der aufgenommen Fotos. Selbst wenn eines Tages ein Subsystem ausfällt funktioniert die Gesamtkamera noch, solange nicht der Kopf des ganzen betroffen ist.

Fazit

Mit nur wenig höheren Hardwarkosten und etwas Software sollten sich auf kleinem Raum wesentlich hochwertigere Bilder aufnehmen lassen.

Update

Heute (auch am 12.05.2010) zeigt areamobile.de eine Meldung passende Meldung. Sharp stellt ein Kameramodul für Handys mit 2 Kameras zur Aufnahme von 3D Bildern vor. Damit geht die Entwicklung in die diese Richtung .

ärgerlich, ein Wintereinbruch

Heute hat es geschneit... bei dem Lichte gesehen klingen doch die Ankündigungen zur globalen Erwärmung ganz angenehm.

Die Wolke im Wohnzimmer - Teil 2

Früher wie heute sind Computer begehbar.

War es früher das Mainboard, das sich über mehrere Räume erstreckte, so ist es heute die Peripherie, die uns umgibt.

Im ersten Teil spekulierte ich über Benutzeroberflächen und die Verteilung von Daten. Danach ging ich in die Badewanne und träumte noch etwas weiter.
Secondlife wird doch noch fürs First Life nützlich, wenn das Wohnzimmer zum Holodeck wird.

Den Punkt das mein Handy der Schlüssel zu meinen Daten wird muss ich revidieren. Er wird ein Schlüssel. Einer von vielen möglichen.
So sehr Datenschützer auch trauern werden, wir selbst werden ein anderer Schlüssel. Der Zugang zum Netz ist überall. Dank preiswerter Herstellungsverfahren werden die meisten Oberflächen irgendwann zu Displays. Und sei es der Holzblock, der von einer gut verteilten Ansammlung von Beamern mit einem Interface versehen wird.

Will ich Informationen austauschen, kann ich jede Art von adressierbarem Objekt mit entsprechenden Zugangsdaten verknüpfen. Der Holzblock, dank seiner Maserung recht einmalig, kann selbst zwar keine Bilder speichern, kann aber sehr wohl andernorts als Schlüssel zu extern gespeicherten Daten verwendet werden.

Das Holodeck ist nahe!

OLEDs sind doch interessant. Angenehmerweise wird das gar nicht so stromintensiv wie befürchtet. Momentan strahlen hier Halogenlampen mit 45W und einem Wirkungsgrad von max 5% (Wirkungsgrade laut energieinfo.de). Mit OLEDs ist momentan ein Wirkungsgrad von 15% möglich. Damit sind das 15W für das Licht bei gleicher Helligkeit. Für einen nicht weiter steigenden Verbrauch wären da noch 30W für die Steuerung übrig.

Dieser Raum hier hat ~20 m² Grundfläche. Die Wandflächen plus Decke sind damit so etwa 70m². Mit der Pixeldichte heutiger Großfernseher (1080p auf 1,3m Diagonale) komme ich auf 2Megapixel/m² und damit 140MP insgesamt. Da bleibt jeweils 1/2 W/m² . Kürzlich stellte Samsung ein Handyprozessor basierend auf den ARM Cortex A8 vor, der 1080p Signale über hdmi ausgibt. Wenn es dann mal die OLEDs in der gewünschten Größe und Preis gibt, wird das beschicken mit Bildern auch machbar werden.

Schön das Hasslblad kürzlich eine 60MP Mittelformatkamera vorstellte http://www.heise.de/newsticker/Schwenken-erlaubt-Hasselblad-H4D-60-mit-neuer-Fokustechnik--/meldung/146088 . Damit gibt es sogar gleich etwas für die Wand. Alternativ gibt es noch http://www.gigapxl.org mit der 4 Gigapixelkamera und Viele viele Computerspiele.

Wie wäre es gegen Abend mit der Wohnung im Ozean zu versinken und den Raum in eine Tauchkugel zu verwandeln. Neben dem Sessel schwimmt langsam ein Blauwal vorbei. Ein Schwarm kleiner bunter Fische wuselt durch die Gegend. Und an dem Bücherregal, das nur noch aus alter Gewohnheit dort steht, wachsen die ersten Korallen fest.

Fand es vor kurzem die ältere Generation noch sehr fragwürdig, wieso man in Second Life echtes Geld für virtuelle Bilder in seinem virtuellen Haus ausgibt, bekommt man dann in Kürze eine gute Auswahl hochauflösender Bilder und Szenerien für die Wohnung gegen gutes Geld.
Auch hier erfolgt die Vergütung nicht anhand der Produktionskosten der Ware sondern für die Entwicklung des Produkts.

Es wird ein Holodeck für Stubenhocker.

Es gibt da zwar diese Entwicklung des rollenden Fußbodens, mit dem die Wand beim Gehen immer gleich weit weg bleibt.
In vielen Fällen dürfte es aber einfacher sein sich einfach in der Mitte in einen Sessel zu setzen und im Sitzen durch die Welt zu navigieren.

Gestern, im Foyer der Alten Meister im Dresdner Zwinger hing eine mitlerweile alte Werbetafel, die stolz verkündet, das der Zwinger nun auch bei Second Life erkundbar wäre (Da kam überhaupt erst die Erinnerung an diese Blase auf). Am Monitor ist das ja noch das eine. Wenn die Riesenbilder dann aber wirklich wandfüllend, ist das bestimmt beeindruckend. Und von außen sieht keiner, das man im Rollstuhl durch das Museum fährt.

Die Dicken bei Wall-e sehen plötzlich gar nicht mehr so abwegig aus.
Glücklicherweise werden uns die Geocacher retten. Raus gehen kann auch Spaß machen..

Die Wolke im Wohnzimmer

Teil 1 ist hier zu lesen. Wenige Stunden später folgte dann Teil 2.

Gerade sitze ich an meinem Schreibtisch. Der Browser und das Mailprogramm sehe ich auf dem 19" Monitor, der an das Netbook angeschlossen ist. Dessen 9" Display ist mit dem Musikplayer und dem Messenger gefüllt. An dessen Tastatur schreibe ich.
Statt dem klassischen Nebeneinander der Monitore steht der große logisch wie physisch über dem kleinen. Schön das das geht.

Wo führt das hin?

In letzter Zeit sind mir einige interessante Puzzlestücke über den Weg gelaufen. Da ist das Handy, das durch GPS seine globale Position auf dieser Welt und durch Lage- und Beschleunigungssensoren plus dazu gehöriger Kamera seine Lage hier im Wohnzimmer kennt.
Durch UMTS, WLAN und Bluetooth ist es mit allem und jedem Verbunden.

Dann ist da Tapete in Sicht, die mit OLEDs beschichtet ist. Im allgemeinen ist sie zur gleichmäßigen Beleuchtung gedacht, wird aber auch als Projektionsfläche funktionieren. Kombiniert mit dem Wii Headtracking ist das fantastisch.

Da gibt es noch diesen Glastisch, dessen gesamte Oberfläche ein Touchscreen ist, oder hier eine Multitouchkneipenbar

Da gibt es diesen Patentantrag zu einer Tastatur auf einem Touchscreen, die anhand der Lage der Handballen erkennt, wo der Nutzer die Tasten erwarten würde und sie dann dorthin projiziert.

Es gibt Versuche Tasten von Touchscreens erfühlbar zu machen. Luftpolster und Strom waren nur 2 Möglichkeiten.

Es wird spannend.

Mein Schlüssel zu meinen Daten wird mein Handy. Es wird natürlich mehr Rechenleistung als heute besitzen, aber das dürfte egal sein, die Kraft kann man auch anderswo stationieren. Ist mir das Display zu klein, schiebe ich das Fenster auf die Tapete. Da die Objekte ihre Position im Raum kennen, wird das Fenster dort angezeigt, wo ich es hin schiebe. Einfach so.
Ist mir nach Schreiben zu Mute, setze ich mich an den Schreibtisch und lege meine Hände auf die Tischplatte. Es erscheint eine Tastatur. Per Fingergeste kann ich auch eine Fläche aufspannen, in der alle offenen Programme angezeigt werden. Eine andere Fläche zeigt eine Miniatur der Wand, in der ich dann leichter die entfernten Fenster verschieben kann. Es steht nichts dagegen auch mehrere solche Miniaturscreens zu öffnen um mit mehreren Pointern zu agieren. Raumgreifende Gesten wie bei Minorityreport werden möglich sein, allerdings wäre ich im Wohnzimmer zu faul dazu. Eine Miniatur ist mir lieber.
Drag and Drop ist sehr praktisch. Ich lege mein Handy auf den Tisch und kann dann Tabs aus meinem Browser an der Wand zum Handy werfen um sie später, unterwegs geöffnet zu haben. In die umgekehrte Richtung geht das natürlich ebenso. Zum Dateien kopieren ist es jedoch einfacher den Explorer zu nutzen, der sich unter dem Handy auf dem Tisch öffnet. Bewege ich das Handy, bewegen sich alle dazu gehörigen Fenster. Nehme ich es vom Tisch weg, schließen sie sich.

Langfristig wird das hin- und herkopieren der Daten nicht mehr von meinem Handy zu seinem Handy geschehen. Eher werden mit dem verschieben der Dateien erst einmal Benutzerrechte verschoben. In einem zweiten weniger zeitkritischen Schritt werden im Hintergrund die Daten von seiner Cloud in meine Cloud kopiert.

Die Wände werden dann bestimmt auch Berührungssensitiv. Mit einer einfachen Geste kann ich die Beleuchtungsintensität steuern. Mit etwas mehr Laune kann ich die Wohnung gleich neu tapezieren z.b. mit einer Welt aus flickrbildern.

Es sollte Digitalkameras mit Gestenerkennung geben.

Vordergrund

Mit einem Finger tippe ich auf das Display um das Ziels zu fokussieren.

Verschiebe ich 2 Finger in der vertikalen ändere ich die Brennweite, verschiebe ich sie horizontal, ändere ich die Belichtung (Über-/Unterbelichtung)
Für die meisten Benutzer sollte dieser Funktionsumfang ausreichen.

Tippe ich mit dem Zeigefinger zum fokussieren auf mein Motiv, sollte ich dann mit einem Streichen des Mittelfingers über das Display die Schärfentiefe beeinflussen können. Klassisch ändert das die Blende. Etwas neuer gibt es auch einen anderen Ansatz.

Streiche ich mit 3 Fingern über das Display verändere ich vertikal die Belichtungszeit und horizontal die Empfindlichkeit. Beides sind Werte, die eine gute Automatik selbst wählen könnten sollte, sobald ich ihr in einem Menü die erlaubten Extremwerte vorgebe.

Was fehlt noch? Durch einen 2-Finger-Klick könnte ich das Menü aufrufen.

Ein seperater Auslöser ist ganz nett. Ein Doppelklick mit einem Finger sollte es aber auch tun.

Hintergrund

Gesten?

Mausgesten gibt es schon lange. Seit dem Iphone sind sie auch soweit bekannt. Es gibt Kompaktdigitalkameras, deren Rückseite fast vollständig aus einem Display besteht. Sie ließen sich so einfach bedienen. Mit jedem eingesparten Knopf verschwindet ein Kostenfaktor und ein Teil, das kaputt gehen kann. Wasser- und staubdichte Kameras wären leichter und billiger zu realisieren.

Durch Gesten werden Bewegungsmuster des/der Cursor erkannt der ihnen zugeordnete Befehl ausgeführt. Es bedarf eines Vorgangs zum Auslösen der Geste, gefolgt von einer oder mehreren erkennbaren Bewegungen.
Bei Mäusen blieb dann meist ein Klick mit der rechten Maustaste und dann eine oder mehrere Bewegungen übrig.

Einfache Gesten

Die 4 Grundrichtungen hat man sofort zur Verfügung.

Die zusätzliche Verwendung der 4 Diagonalen ist bei Mäusen fehleranfälliger, aber noch praktikabel. Auf Touchpads ist die Cursorbewegung aber nicht relativ zur Hand, sondern relativ zum Pad. Damit sind die Richtungen für kurze Bewegungen nicht mehr so genau. Glücklicherweise gibt es Alternativen.

Zusammengesetzte Gesten

Statt nur eine Bewegung auszuwerten, kann ich auch komplexere Gesten vereinbaren. Bewege ich z.B. mit gedrückter rechter Maustaste die Maus erst nach rechts, dann nach oben, wechsle ich in den nächsten Tab, bewege ich sie erst nach links, dann nach oben, wechsle ich in den vorherigen Tab.
Zu den 4 Gesten in der ersten Stufe kommen weitere 16 in der zweiten. Mehr Stufen sind möglich, aber für mich unpraktikabel, zumal nur wenige Optionen so oft notwendig sind.

Mehrfingergesten

In Zeiten der Touchpads- und screens, die mehrere Finger verfolgen können, kann man die Bewegungsmuster einfach gestalten. Je nach Umgebung sind unterschiedliche Konzepte praktisch.

Tippen vs. Streichen

Tippe ich mit einem Finger auf das Touchpad, löse ich die gleiche Aktion wie die linke Maustaste aus. Tippe ich mit 2 Fingern, will ich die rechte Maustaste auslösen. Mit drei Fingern könnte ich auch für die mittlere Maustaste tippen. Hier hat es sich aber bewährt 2 Finger zeitlich kurz versetzt zu tippen und so eine 1+1 Aktion zu vollführen.

Mit einem Zweifingerklick und einer Bewegung danach könnte ich eine Geste auslösen. Für ein komplexes System wie einen Browser ist das praktisch. Für eine Digitalkamera wäre das übertrieben. Es soll ja auch schnell gehen.

Beim Streichen lass ich das vorherige Tippen weg. Eine parallele Bewegung mit 2 Fingern nach oben und unten führt bei mir zum Scrollen gleich der Mausradbewegung. Mit zwei Fingern horizontal möchte ich zurück und vorwärts navigieren. Mit 1+1 oder 3 Fingern den Tab wechseln.

Wie ich das ganze in Digitalkameras einbaue, steht oben.
Wer Glück hat und ein Beitzer eines halbwegs aktuellen Laptops mit einem Touchpad von Synaptics ist, kann Two-Finger-Scroll probieren. Es läuft auf erstaunlich vielen Geräten. Noch fehlen mir ein paar Optionen, aber die vorhandenen sind sehr praktisch.
Opera hat Mausgesten schon eingebaut, sie sind aber nicht so gut konfigurierbar.
Mausgesten für den Firefox gibt es über Erweiterungen wie All-in-One Gestures oder Fire Gestures.

Tiefenschärfe für Kompaktkameras

Vordergrund

Im Zeitalter von überaus lichtempfindlichen Sensoren, sollte es doch möglich sein 3 Bilder in Folge aufzunehmen, die geringfügung vor und hinter das gewählte Motiv fokussieren. Aus den unterschiedlichen Schärfen sollte sich ein Modell errechnen lassen, durch das ich die Schärfentiefe stufenlos verändern lassen sollte.

Hintergrund

Klassisch sorgt die Physik dafür, das bei Blenden größer als unendlich-klein auf einem Bild nur ein Bereich in bestimmter Entfernung scharf dargestellt wird. Alles was sich davor oder dahinter befindet, wird nicht direkt auf die Zielebene projiziert, sondern fallen dort als unscharfe Objekte auf. Punkte werden zu scheiben.

Manchmal ist das aber wirklich gewollt. Das Motiv hebt sich so besser vom Hintergrund ab. Die Fotografen wollen es haben.

Was nun. Die Schärfentiefe hängt vom Objektivdurchmesser ab.
Je größer das Objektiv ist, desto größer ist seine Offenblende. Je größer der Sensor ist, desto größer muss das Objektiv sein. Je größer die größte Blende in einem Objektivtubus ist, desto höher ist die unerwünschte Randabschattung.
Ich will aber gar kein größer größer größer.

Mit einem kleineren Sensor in einem kleineren Gehäuse muss ich damit in die Trickkiste greifen. Wie das geschehen kann steht oben.

Alternativ zu einem variablen Schärfebereich sollte sich so auch die Auflösung relativ unabhängig von der Sensorauflösung erhöhen lassen. Mit mehren Bildern mit geringfügig unterschiedlichen Blickwinkeln lassen sich dann auch Strukturen kleiner als der Pixelabstand erkennen.

ich müßte mal Sport machen

Ich müßte mal Sport machen... - Gibt es psychosomatischen Muskelaufbau?

Inhalt abgleichen