<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	
	>
<channel>
	<title>
	Kommentare zu: Microsoft Photosynth	</title>
	<atom:link href="https://marc.tv/microsoft-photosynth/feed/" rel="self" type="application/rss+xml" />
	<link>https://marc.tv/microsoft-photosynth/</link>
	<description>Televisionen von Marc Tönsing</description>
	<lastBuildDate>Mon, 07 Nov 2022 23:25:34 +0000</lastBuildDate>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>
	<item>
		<title>
		Von: Marc		</title>
		<link>https://marc.tv/microsoft-photosynth/comment-page-2/#comment-728</link>

		<dc:creator><![CDATA[Marc]]></dc:creator>
		<pubDate>Wed, 21 Feb 2007 16:02:58 +0000</pubDate>
		<guid isPermaLink="false">#comment-728</guid>

					<description><![CDATA[Also ich habe es gerade auf meinem betagten XP Athlon 2200+ mit einer GeForce 4 Ti 4200 &lt;a href=&quot;http://marc.tv/media/ps_live.jpg&quot; title=&quot;MS Photosynth&quot; rel=&quot;nofollow&quot;&gt;getestet&lt;/a&gt; und es läuft absolut flüssig. Leider ist das ganze aber auch sehr enttäuschend. Es entsteht überhaupt kein 3D-Eindruck. Dafür müssten viel mehr Bilder geladen werden. Ne, also Google Earth war da weit aus faszinierender als das hier. Außerdem ist ja nicht die Darstellung das besondere sondern eher die automatische Zusammenstellung der Bilder. Naja, aber es kostet ja nix. Ganz im Gegensatz zu meinem defekten iPod. =(]]></description>
			<content:encoded><![CDATA[<p>Also ich habe es gerade auf meinem betagten XP Athlon 2200+ mit einer GeForce 4 Ti 4200 getestet und es läuft absolut flüssig. Leider ist das ganze aber auch sehr enttäuschend. Es entsteht überhaupt kein 3D-Eindruck. Dafür müssten viel mehr Bilder geladen werden. Ne, also Google Earth war da weit aus faszinierender als das hier. Außerdem ist ja nicht die Darstellung das besondere sondern eher die automatische Zusammenstellung der Bilder. Naja, aber es kostet ja nix. Ganz im Gegensatz zu meinem defekten iPod. =(</p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Von: Jörn Clausen		</title>
		<link>https://marc.tv/microsoft-photosynth/comment-page-2/#comment-727</link>

		<dc:creator><![CDATA[Jörn Clausen]]></dc:creator>
		<pubDate>Wed, 21 Feb 2007 15:50:33 +0000</pubDate>
		<guid isPermaLink="false">#comment-727</guid>

					<description><![CDATA[Bei heise gibt&#039;s links zu Photo Tourism und zu einer Technology Preview von Photosynth. Letztere kann ich nicht ausprobieren, da ich über keinen geeigneten Daddel-PC mit moderner Grafikkarte verfüge, aber das Demo von der University of Washington ist Echt Nett(tm). Ausserdem ist dort auch das SIGGRAPH-Paper mit dem theoretischen Hintergrund zu finden. Nicht, dass ich davon was verstehen würde, aber zu meiner Zeit gab&#039;s ja auch noch nicht die &lt;a href=&quot;http://www.techfak.uni-bielefeld.de/ags/cg/&quot; rel=&quot;nofollow&quot;&gt;passende Arbeitsgruppe&lt;/a&gt; in Bielefeld.]]></description>
			<content:encoded><![CDATA[<p>Bei heise gibt&#8217;s links zu Photo Tourism und zu einer Technology Preview von Photosynth. Letztere kann ich nicht ausprobieren, da ich über keinen geeigneten Daddel-PC mit moderner Grafikkarte verfüge, aber das Demo von der University of Washington ist Echt Nett(tm). Ausserdem ist dort auch das SIGGRAPH-Paper mit dem theoretischen Hintergrund zu finden. Nicht, dass ich davon was verstehen würde, aber zu meiner Zeit gab&#8217;s ja auch noch nicht die passende Arbeitsgruppe in Bielefeld.</p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Von: mudd1		</title>
		<link>https://marc.tv/microsoft-photosynth/comment-page-2/#comment-726</link>

		<dc:creator><![CDATA[mudd1]]></dc:creator>
		<pubDate>Mon, 07 Aug 2006 07:35:40 +0000</pubDate>
		<guid isPermaLink="false">#comment-726</guid>

					<description><![CDATA[Meine größte Sorge ist nicht technischer sonder rechtlicher Natur. Auch wenn Otto Homepagebastler gerne beliebige Bilder, die er irgendwo im Web gefunden hat, einfach auf seine Seite packt, ist das noch lange nicht legal oder auch nur anständig. Es mag sein, dass MS jetzt eine große Pro-Creative-Commons-Kampagne startet, aber falls nicht, dürfte das mit dem &quot;das Web nach hunderten anderer Bilder vom selben Ort durchsuchen&quot; relativ heikel werden.]]></description>
			<content:encoded><![CDATA[<p>Meine größte Sorge ist nicht technischer sonder rechtlicher Natur. Auch wenn Otto Homepagebastler gerne beliebige Bilder, die er irgendwo im Web gefunden hat, einfach auf seine Seite packt, ist das noch lange nicht legal oder auch nur anständig. Es mag sein, dass MS jetzt eine große Pro-Creative-Commons-Kampagne startet, aber falls nicht, dürfte das mit dem &#8222;das Web nach hunderten anderer Bilder vom selben Ort durchsuchen&#8220; relativ heikel werden.</p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Von: Attila		</title>
		<link>https://marc.tv/microsoft-photosynth/comment-page-2/#comment-725</link>

		<dc:creator><![CDATA[Attila]]></dc:creator>
		<pubDate>Wed, 02 Aug 2006 22:16:48 +0000</pubDate>
		<guid isPermaLink="false">#comment-725</guid>

					<description><![CDATA[...also das einzige 3D Modell, das ich in dem Video gesehen habe sind gestapelte Ebenen, auf die die Fotos als Texturen projiziert werden...man findet dieser Tage ja hochauflösende Fotos zuhauf im Internet.

In dem Video wird ja der Markusplatz in Venedig als Beispiel genommen. Man steht da drin wie in einem Kasten und fotografiert dann einmal im Kreis und selbst Photoshop könnte daraus automatisch nen Panorama Quicktime machen (erinnert sich jemand an Star Trek TNG The Interactive Technical Manual um 1996).

Die ganzen Leute, die auf dem Markusplatz rumlaufen fügen sich dann irgendwie auf wundersame Weise zu einem harmonischen Ganzen zusammen und im Video entstehen dann diese stylishen b&#038;w wireframes.

Die haben die Location ja nicht per Zufall gewählt. Bei den Paris Fotos fallen dir rotations- und zoom sequenzen ja schon bisschen sparsamer aus, ja?

Ich will jetzt gar nicht von Licht und Schatten, Tiefenunschärfe, Belichtungszeit und Blende anfangen...aber wenn man nicht gerade Verträge mit Regierungen hat die hochauflösende Spionagesatelliten in den Orbit geschossen haben und einen mit Fotos versorgen für Welteroberungspläne...dann ist dieses Projekt nen Witz...nen Wormhole für die Investoren sozusagen. Who cares, anyway it´s Microsoft ;)

Aloha.]]></description>
			<content:encoded><![CDATA[<p>&#8230;also das einzige 3D Modell, das ich in dem Video gesehen habe sind gestapelte Ebenen, auf die die Fotos als Texturen projiziert werden&#8230;man findet dieser Tage ja hochauflösende Fotos zuhauf im Internet.</p>
<p>In dem Video wird ja der Markusplatz in Venedig als Beispiel genommen. Man steht da drin wie in einem Kasten und fotografiert dann einmal im Kreis und selbst Photoshop könnte daraus automatisch nen Panorama Quicktime machen (erinnert sich jemand an Star Trek TNG The Interactive Technical Manual um 1996).</p>
<p>Die ganzen Leute, die auf dem Markusplatz rumlaufen fügen sich dann irgendwie auf wundersame Weise zu einem harmonischen Ganzen zusammen und im Video entstehen dann diese stylishen b&amp;w wireframes.</p>
<p>Die haben die Location ja nicht per Zufall gewählt. Bei den Paris Fotos fallen dir rotations- und zoom sequenzen ja schon bisschen sparsamer aus, ja?</p>
<p>Ich will jetzt gar nicht von Licht und Schatten, Tiefenunschärfe, Belichtungszeit und Blende anfangen&#8230;aber wenn man nicht gerade Verträge mit Regierungen hat die hochauflösende Spionagesatelliten in den Orbit geschossen haben und einen mit Fotos versorgen für Welteroberungspläne&#8230;dann ist dieses Projekt nen Witz&#8230;nen Wormhole für die Investoren sozusagen. Who cares, anyway it´s Microsoft ;)</p>
<p>Aloha.</p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Von: Alain		</title>
		<link>https://marc.tv/microsoft-photosynth/comment-page-1/#comment-724</link>

		<dc:creator><![CDATA[Alain]]></dc:creator>
		<pubDate>Wed, 02 Aug 2006 19:17:01 +0000</pubDate>
		<guid isPermaLink="false">#comment-724</guid>

					<description><![CDATA[@Jörn: Also ich gehe davon aus, dass Text-Schnipsel zusammenfügen und ähnliche Bilder finden einfach komplett andere Probleme sind.

Bei ersterem kann man Brute-Force mal einfach alle möglichkeiten austesten und schauen ob etwas sinniges bei rauskommt. Die Laufzeit hält man niedrig indem man &quot;schräge&quot; Zusammensetzungen direkt ausschließt. Das analoge Premiere Signal wurde ja auch &quot;geknackt&quot; indem einfach alle Zeilen des Bildes neu sortiert wurden.

Bei Bildern sucht man sich bestimmte &quot;Features&quot; (Farbübergänge, einzelne Spots, etc) und vergleicht diese dann mit den anderen Bildern. Gesichtserkennung (also ob ein Gesicht in einem Bild vorhanden ist, nicht ob ein Gesicht das selbe ist) funktioniert schon seit einiger Zeit in Echtzeit bei 30s in guter Auflösung. Ob ich jetzt nach den &quot;Features&quot; meines Bildes, oder den Features eines Gesichtes suche ist sicherlich nicht DER extreme Unterschied.

Und zu Hugin: Entweder macht man das dort manuell oder man nutzt autopano, welches einem automagisch diese Punkte sucht (was aber nicht wirklich immer optimal läuft oder auch mal gar nicht).

Ich sage nicht, dass das alles nicht etwas schönes neues ist, denn in der Art kombiniert habe ich soetwas definitiv noch nicht gesehen. Ich glaube aber nicht dass Winzigweich das momentan halbwegs performant hinbekommt. Aber wenn die Vaporware in ein paar Jahren wirklich auf den Markt kommt sind die Rechner wahrscheinlich inzwischen stark genug, denn sie haben alle 4-5 Cell Prozessoren intus.]]></description>
			<content:encoded><![CDATA[<p>@Jörn: Also ich gehe davon aus, dass Text-Schnipsel zusammenfügen und ähnliche Bilder finden einfach komplett andere Probleme sind.</p>
<p>Bei ersterem kann man Brute-Force mal einfach alle möglichkeiten austesten und schauen ob etwas sinniges bei rauskommt. Die Laufzeit hält man niedrig indem man &#8222;schräge&#8220; Zusammensetzungen direkt ausschließt. Das analoge Premiere Signal wurde ja auch &#8222;geknackt&#8220; indem einfach alle Zeilen des Bildes neu sortiert wurden.</p>
<p>Bei Bildern sucht man sich bestimmte &#8222;Features&#8220; (Farbübergänge, einzelne Spots, etc) und vergleicht diese dann mit den anderen Bildern. Gesichtserkennung (also ob ein Gesicht in einem Bild vorhanden ist, nicht ob ein Gesicht das selbe ist) funktioniert schon seit einiger Zeit in Echtzeit bei 30s in guter Auflösung. Ob ich jetzt nach den &#8222;Features&#8220; meines Bildes, oder den Features eines Gesichtes suche ist sicherlich nicht DER extreme Unterschied.</p>
<p>Und zu Hugin: Entweder macht man das dort manuell oder man nutzt autopano, welches einem automagisch diese Punkte sucht (was aber nicht wirklich immer optimal läuft oder auch mal gar nicht).</p>
<p>Ich sage nicht, dass das alles nicht etwas schönes neues ist, denn in der Art kombiniert habe ich soetwas definitiv noch nicht gesehen. Ich glaube aber nicht dass Winzigweich das momentan halbwegs performant hinbekommt. Aber wenn die Vaporware in ein paar Jahren wirklich auf den Markt kommt sind die Rechner wahrscheinlich inzwischen stark genug, denn sie haben alle 4-5 Cell Prozessoren intus.</p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Von: Jörn Clausen		</title>
		<link>https://marc.tv/microsoft-photosynth/comment-page-1/#comment-723</link>

		<dc:creator><![CDATA[Jörn Clausen]]></dc:creator>
		<pubDate>Wed, 02 Aug 2006 16:44:12 +0000</pubDate>
		<guid isPermaLink="false">#comment-723</guid>

					<description><![CDATA[@Alain: Diese stitcher nehmen aber meines Wissens nicht x-beliebige Bilder und suchen sich die heraus, die passen könnten, sondern man muss als Fotograf schon recht kooperativ sein. Wenn ich das Tutorial zu Hugin richtig gelesen habe, muss man gemeinsame Punkte in den Bildern markieren, das macht die Software nicht automatisch. Das MS-Video erweckt den Eindruck, dass einfach Bilder aus dem Netz genommen werden, ohne irgendwelche Zusatzinformation, wann, wo, wie und womit sie gemacht wurden. Das hätte schon eine ganz andere Qualität.

An sich würde ich Text-Alignment für deutlich leichter halten als Bild-Alignment (von den Algorithmen, vom Speicher- und Zeitbedarf). Mein Verweis auf die Genetik sollte klar machen: In einem typischen Sequenzierungs-Projekt hat man Hunderttausende bis Millionen von Text-Schnippseln, von denen man weiß, dass sie alle zu einem Genom gehören. Man kann die gesuchte Gesamtsequenz mit heutigen Verfahren ganz gut rekonstruieren, wenn sie nicht zu groß ist. Nimm Bilder statt Text, und lasse die Randbedingung fallen, dass die Schnippsel in irgendeiner Beziehung zueinander stehen müssen. Ich denke, das Problem, das Du dann hast, läßt sich nicht so leicht lösen, wie MS es uns hier weismachen will.

@Marc: Dein Glaube an Google ist wohl unerschütterlich, was? Ja inzwischen habe auch ich mir das Google-Video ansehen können (ist tatsächlich leicht unterschiedlich zu dem bei youtube).]]></description>
			<content:encoded><![CDATA[<p>@Alain: Diese stitcher nehmen aber meines Wissens nicht x-beliebige Bilder und suchen sich die heraus, die passen könnten, sondern man muss als Fotograf schon recht kooperativ sein. Wenn ich das Tutorial zu Hugin richtig gelesen habe, muss man gemeinsame Punkte in den Bildern markieren, das macht die Software nicht automatisch. Das MS-Video erweckt den Eindruck, dass einfach Bilder aus dem Netz genommen werden, ohne irgendwelche Zusatzinformation, wann, wo, wie und womit sie gemacht wurden. Das hätte schon eine ganz andere Qualität.</p>
<p>An sich würde ich Text-Alignment für deutlich leichter halten als Bild-Alignment (von den Algorithmen, vom Speicher- und Zeitbedarf). Mein Verweis auf die Genetik sollte klar machen: In einem typischen Sequenzierungs-Projekt hat man Hunderttausende bis Millionen von Text-Schnippseln, von denen man weiß, dass sie alle zu einem Genom gehören. Man kann die gesuchte Gesamtsequenz mit heutigen Verfahren ganz gut rekonstruieren, wenn sie nicht zu groß ist. Nimm Bilder statt Text, und lasse die Randbedingung fallen, dass die Schnippsel in irgendeiner Beziehung zueinander stehen müssen. Ich denke, das Problem, das Du dann hast, läßt sich nicht so leicht lösen, wie MS es uns hier weismachen will.</p>
<p>@Marc: Dein Glaube an Google ist wohl unerschütterlich, was? Ja inzwischen habe auch ich mir das Google-Video ansehen können (ist tatsächlich leicht unterschiedlich zu dem bei youtube).</p>
]]></content:encoded>
		
			</item>
	</channel>
</rss>
