Bachelorarbeit: 3D-Film

Die Idee war schon relativ alt. Zusammen mit Fabian Hemmert und später Philipp Anders habe ich schon während des Studiums die Idee gehabt, einen Film zu produzieren, der mit 3D-Brillen einen räumlichen Effekt erzeugt: Speculars 3D – Ein Stereoskopiefilm mit Anaglyphtechnik.

Das endgültige Produkt: DVD mit Bonusmaterial, Broschüre und Brillen.

Auf dem oberen Bild sieht man das Endprodukt welches letztendlich aus einer gelabelten DVD besteht mit Bonusmaterial der Premiere im Ringlokschuppen und dem eigentlichen Film in einer wesentlich besseren Qualität als er im Ringlokschuppen lief so wie der Ausarbeitung als gedruckten Broschüre im Format einer PlayStation-Spieleanleitung und natürlich zwei Speculars3D-Anaglyph-Brillen. Das Ergebnis von 2 ½ Monaten Arbeit und der Hilfe von vielen, vielen Leuten.

Wie funktioniert räumliches Sehen?

Der Mensch sieht durch seine zwei Augen, die dem Gehirn zwei Perspektiven seiner Umwelt liefern, räumlich und erlaubt es ihm dadurch Entfernungen abzuschätzen. Damit dies funktioniert, können die Augen nur immer ein Objekt fokussieren bzw. scharf stellen.

Die Abbildung oben zeigt, wie zwei Objekte von den Augen gesehen werden: Die Punkte, die sich auf der gedachten Ebene E befinden, bilden für jeweils beide Augen ein Abbild der Objekte. Diese sogenannte Parallaxe nutzt das Gehirn aus, um aus den zwei Informationen ein dreidimensionales Bild zu konstruieren, das aus den beiden Perspektiven entstanden ist.

Wie funktioniert der Tiefeneffekt?

Grundsätzlich läuft es immer darauf hinaus, das man jeweils eine Perspektive für jedes Auge bereithalten muss, um dem Gehirn die Illusion von Tiefe vorzutäuschen. Außerdem ist es wichtig, einen Fokuspunkt im Bild zu haben, an dem das Auge sich festhalten kann, weil es sonst nicht möglich ist, die Bilder im Kopf übereinander zu legen.

Wie man auf den oberen Abbildungen sehen kann, habe ich den Fokuspunkt beim ersten Bild an das Ende des Objektes gesetzt, und bei dem anderen Bild nach ganz vorne. Dies hat den Effekt, dass das erste Bild beim Betrachten mit einer Anaglyph-Rot-Cyan-Brille herauszukommen scheint, und das zweite so wirkt, als würde es hinter dem Monitor in die Tiefe führen. Im Prinzip haben wir nun zusätzlich zu unseren zwei Achsen bei normalen Bildern und Fotos nun auch eine z-Achse, welche die Position von Objekten in der Tiefe angibt.

Welche Techniken gibt es?

Bereits im 4. Jahrhundert vor Christus befasste sich der griechische Mathematiker Euklid mit der Stereometrie. Er wusste bereits um den Zusammenhang, dass zwei Augen für physiologisch räumlichen Seheindruck nötig sind. Danach wurden Apparate gebaut wie in der Abbildung oben, um zwei Halbbilder, die von zwei parallel geschalteten Fotokameras stammten, ansehen zu können ohne umständlich die Augen zu kreuzen.

Nun gibt es neben der Trennung der beiden Perspektiven mit zwei Farben (Farbanaglyph-Verfahren) und einer entsprechenden Rot-Cyan-Brille noch andere Verfahren wie u.a. Kreuzblick (Schielen), Shutterbrillen (PC-Spiele) oder Polarisationsbrillen (3D-Kino, Cave).

Produktion des Films

Was bedeutet das für unseren Film?

Im Klartext bedeutet es, dass man von allem was man plastisch wirken lassen möchte im Film immer die zwei Aufnahmen der beiden Perspektiven für die Augen benötigt. Egal ob nun echte Personen vor den Studiokameras agieren, oder ob es computeranimierte 3D-Sequenzen sind: Immer waren zwei, zum Teil virtuelle Kameras im Spiel, die per Timecode synchronisiert wurden, und die immer einen bestimmten Punkt fokussierten.

Wie fing alles an?

Ende 2003 Im Prinzip fing alles damit an, dass Fabian und ich vor ein paar Jahren zu Anfang unseres Studiums mit 3D Studio Max herumexperimentiert haben, und uns fragten ob wir damit nicht echte räumliche Bilder wie im 3D-Kino erzeugen können. Es wurden dann Brillen im Internet bestellt und los ging es. Eigentlich wurde es als gemeinsame Bachelorarbeit im Auge behalten aber Fabian war so schnell mit dem Studium fertig, dass ich mir jemand anderen ins Boot holen musste: Philipp.

September 2005 Mit ihm habe ich dann dann konkret ein paar 3D-Animationen erstellt um den Effekt zu beobachten, und um zu sehen was am besten wirkt. Als das klappte, wollten wir das aber neben virtuellen Kameras auch mit echten Kameras ausprobieren und dann gleich vorm BlueScreen, um später in der Post-Produktion mehr Möglichkeiten zu haben.

Anfang November 2005 Als erstes haben wir ein paar Tests mit dieser Technik im Studio des AVZ der Uni Bielefeld gemacht. Wir hatten keinerlei Erfahrung mit der Technik aber uns war klar, dass wir mit zwei Kameras gleichzeitig filmen mussten, um die beiden Ansichten mit jeweils leicht anderem Blickwinkel zu generieren. Dies mussten wir zudem nicht nur mit den Videospuren der echten Kameras machen sondern bei der Komposition mit 3D-Hintergründen aus 3D Studio Max auch mit den virtuellen Kameras im Programm. Es gab demnach zwei Neuheiten für uns: das Drehen mit zwei Kameras gleichzeitig für den 3D-Effekt, und der Bluescreen. Die Schauspieler sollten sich nachher teilweise in virtuellen Räumen bewegen und mit diesen auch noch in irgendeiner Forum interagieren. Das waren hochgesteckte Ziele, zumal es zu diesem Zeitpunkt noch kein Storyboard gab.

Nach einigen Übungsstunden im Studio merkte ich trotz meiner Filmerfahrung, dass das Ausleuchten des BlueScreens eine Kunst für sich ist, und es wirklich sehr lange dauerte bis dieser vollkommen gleichmäßig ausgeleuchtet war. Gott sei dank hatten wir da schon aktive Hilfe vom AVZ aber dazu später mehr. Die gute Nachricht war: Der 3D-Effekt war später zu Hause deutlich zu sehen.

Wie verlief die Planung?

Nun war es an der Zeit die Ideen zu sammeln und die Story des Film zu gestalten. Dies passierte natürlich in Form eines Storyboards und verschlang einiges an Zeit. Weiterhin mussten wir uns um die Schauspieler, Requisiten und den zeitlichen Ablauf kümmern. Das hört sich vielleicht einfach an, aber wenn man dann plötzlich in der vollen Verantwortung für so ein Projekt steht, dann sollte es für alle Beteiligten so wenig Pannen und die damit verbundenen Wartezeiten geben. Jederzeit sollte absolut klar sein was als nächstes gedreht wird. Hier kam besonders Philipps Rolle zum Tragen der wirklich ein gutes Gespür für Organisation von zeitkritischen Projekten hat.

Wer sind die Schauspieler?

Bei den Schauspielern fiel die Wahl auf Michael Tönsing, meinen Vater, der schon einmal für den Film Akte X – Vice von mir und ein paar Freunden genötigt wurde, vor die Kamera zu treten. Hans Pulina, dessen Alter hier verschwiegen wird, weil es wahrscheinlich sowieso niemand glauben würde. Er ist Student im Seminar von Fabio Magnifico und war die ideale Besetzung für die Rolle aufgrund seines Aussehens und seine Schauspielkünste. Zu guter Letzt wurde die weibliche Rolle im Film durch Nicole Godt, meine Freundin, besetzt. Ihre Erfahrungen vor der Kamera waren bis dato gleich null, was man aber nur am Anfang der Aufnahmen spüren konnte. Nach einer gewissen Zeit hat sie ihren Job dann 1a über die Bühne bzw. den BlueScreen gebracht.

Was passierte beim Dreh?

Mitte Dezember Das AVZ unter der Leitung von Paul John hat uns in Form von drei Kamera- und Licht-Engeln und dem BlueScreen-Studio das nötige Know-How und technischen Möglichkeiten zur Verfügung gestellt. Zwar habe ich durch meine Tätigkeit als Hilfskraft schon Erfahrung mit dem setzen von Licht und der Bedienung von DV-Kameras sammeln können, aber bei der Ausleuchtung des BlueScreens und der Bedienung der Kameras waren wir für jede Hilfe dankbar.

In den zwei Drehtagen am Dienstag, den 20. Dezember und den darauf folgendem Mittwoch stellte sich schnell heraus, dass die Zusammenarbeit hervorragend klappte. Die drei netten Mitarbeiterinnen des AVZ hatten viele gute Ideen, ohne die der Film nicht so geworden wäre, wie er heute letztendlich geworden ist. Besonders die Beleuchtung war wirklich schwierig, aber mit ihrer Hilfe haben es gut hinbekommen.

Sogar für die Maske wurde gesorgt. Ly-Ly Nguyen-Quoc sorgte dafür, dass die durch die extreme Bluescreenbeleuchtung schwitzenden Darsteller nicht glänzten und dass die Frisur von Michael Tönsing den ein oder anderen Spezialeffekt überlebt hat.

Bluescreen, Keying und digitales Compositing

Wie gut hat der BlueScreen funktioniert?

Durch die sehr gute Ausleuchtung des Bildschirms konnte ich direkt den Bluesreen-Keying-Effekt anwenden, den Premiere Pro 1.5 bereitstellt. Es ist zwar nicht bis in jede Haarspitze perfekt, aber dennoch war ich überrascht wie einfach es nachher in der Post-Produktion gewesen ist. Hierbei verhält es sich so, dass in das Ausleuchten die meiste Arbeit gesteckt werden sollte damit man später nicht mit AfterEffects oder etwas ähnlichem arbeiten muss, um die Objekte manuell freizustellen.

Wir haben auf normalen MiniDV-Bändern gedreht. Jetzt wird jeder Profi natürlich die Hände über Kopf schlagen: DigiBeta oder HDCAM mit 1080p-Auflösungen sind dazu wesentlich besser geeignet, weil die Kompression und Farbauflösung wesentlich besser sind. Ideal ist Material in 4:4:4 mit einer Farbtiefe von mehr als 8 Bit. Da dieses Format bei hohen Auflösungen allerdings ein wahrer Speicherfresser ist und wir auch nicht ohne weiteres die Zugriff auf entsprechende Hardware bzw. später Software hatten, haben wir davon abgesehen. Zum Vergleich: Ein so gespeichertes Einzelbild im Film hat eine Größe von 12,4 MB eine Sekunde Film hat dann 298,6 MB. Bei unserem Film hat ein Einzelbild gerade mal eine Dateigröße von 1,3 MB.

Wie lief die 3D-Komposition ab?

Generell habe ich mit relativ einfachen Mitteln gearbeitet was die Verschelzung der realen Bluescreen-Filmsequenzen mit den 3D Animationen anging. Ein Problem war natürlich bei dem Film, dass alles eine virtuelle z-Achse besitzt. Wenn ich also etwas vor einem der Schauspieler rumfliegen lassen möchte, dann muss es auch wirklich etwas vor ihm schweben, wenn man den Tiefeneffekt berücksichtigen möchte. Also habe ich die beiden Spuren der Bluescreenaufnahmen halbtransparent übereinander gelegt um zu sehen wie weit der Arm beim Rausragen über den 0-Wert der Z-Achse rausragt und separiert. Dieses temporäre Video wurde dann wie man im Bild oben sehen kann, in einen der Viewports in 3D Studio Max hintergelegt und die 3D-Objekte der Szene habe ich dann auf den Wireframe-Mode gestellt. Nun habe ich immer wieder zwischen den beiden virtuellen Kameras hin und her geschaltet, um den richtigen Tiefenabstand herrauszufinden. Würde ich den Film nochmal drehen, hätte ich den Drehort ausgemessen um nachher die reale Welt besser im PC nachbilden zu können. Außerdem durfte die virtuelle Beleuchtung nicht viel von der Abweichen, die wir im Studio gesetzt hatten.

Welche Besonderheiten gab es beim Schnitt?

Was vielleicht im ersten Moment erstaunen mag: Der gesamte Schnitt kam ohne Anwendungen wie Adobe After Effects oder Keying-Tools aus. Auch Compositing-Programme wie Diskreet Combustion wurden nicht von mir verwendet. Mein Anspruch an die gesamte Produktion war, mit möglichst einfachen Mitteln zu arbeiten. Diese hätten vielleicht hier und da bestimmte Effekte besser aussehen lassen, aber generell bilde ich mir ein, dass es so um einiges schneller ging, da es nicht nötig war, unkomprimierte Daten zwischen verschiedenen Programmen auszutauschen.

Schnittfenster mit der linken und rechten Spur deutlich zu erkennen.
Schnittfenster mit der linken und rechten Spur deutlich zu erkennen.

Da wir es hier zudem mit einem echten dreidimensionalen Film zu tun haben, gibt es für den gesamten Film letztendlich eine linke und eine rechte Videospur, welche die beiden leicht verschobenen Perspektiven darstellen, die für den Effekt nötig sind. Damit die Real-Videospuren auch zueinander synchron laufen, wurde schon am Set der Timecode angepasst, und zudem bei jedem neuen Take einmal laut geklatsch. So konnte ich später in Premiere durch den Wellenausschlag des Tons die Spuren leicht übereinander ziehen und somit synchronisieren.

Ein weiterer Punkt war die Kombination von Real-Film, 3D-Effekten und den 3D-Animationen für die virtuellen Räume. Dies erforderte in manchen Fällen 2 × 5 Videospuren übereinander und viel Ausprobieren, wenn es um den räumlichen Effekt ging. Zur Verdeutlichung habe ich hier ein kurzes Video hinterlegt, welches auch die virtuelle Z-Achse sichtbar macht, wobei man hier natürlich noch die zusätzliche Tiefe berücksichtigen muss, welche dann durch die Perspektivendifferenz der einzelnen Videospuren resultiert.

Wie wurde der Anaglyphfilter angewendet?

Nachdem das Endprodukt nach dem Schnitt die beiden Videospuren für das linke und das rechte Auge, sowie die Audiospur waren, mussten sie nur noch zu dem Anaglpyhbild kombiniert werden. Dies hätte man auch durch Einfärben der Spuren in Adobe After Effects mit ein paar Ebeneneffekten realisieren können, doch viel einfacher und bequemer war da das Freeware-Programm StereoMovie Maker. Es erwartet zwei Videospuren als Eingabe und gibt die fertige Anaglyphspur als unkomprimiertes AVI aus. Hier sollte man darauf achten, möglichst auch aus Premiere nur unkomprimiertes Material zu exportieren, da sonst die Qualität leidet. Das waren bei meinem Film jedes Mal 2 × 6 GB Daten und nochmal 6 GB Daten als Exportdatei des StereoMovie Makers.

Als Tipp was mir sehr viel Renderzeit erspart hat: Der StereoMovie Maker nimmt keine wesentlich kleineren DV-AVI Dateien und schreibt dieses Format auch nicht. Dies ist nicht nur beim Testen wünschenswert, weil man so viel kleinere Daten erstellt, sondern die Renderzeiten sind auch viel kürzer. Mit dem Panasonic VFW DV Codec ist aber genau dies kein Problem mehr.

Wie entstand die Musik des Films?

Ein Ziel welches ich mir gesteckt hatte war, dass der Film keine Copyrights verletzt. Dies trifft natürlich auch auf die Musik zu. Also woher nehmen wenn nicht stehlen? Durch einen glücklichen Zufall durfte ich durch meine Rolle als Hilfskraft von Fabio bei der Internationalen Film Akademie in Oerlinghausen eine Studentin der Abteilung für Kunst & Musik kennenlernen. Diese hatte dort innerhalb weniger Tage wunderbare Musik für den Film Emilia geschaffen und da habe ich sie gefragt, ob sie vielleicht Lust hätte die Musik für meinen Film zu produzieren. Zusammen mit Felipe Vila São Marcos haben die beiden in Absprache mit mir im Tonstudio der Kunst & Musik parallel zum Videoschnitt auf einem G5 Mac die Musik mit Logic Pro 6 produziert.

Wer ist die Stimme des Films?

Bei den Dreharbeiten haben wir bewusst keine Stimmen der Schauspieler verwendet, weil ich der Meinung war, dass der Film die Geschichte auch rein visuell mit Unterstüzung der Musik transportieren kann. In der Mitte der Produktion stand fest, dass wir einen Sprecher brauchen, dessen Stimme aus dem Off den Grundgedanken der Story etwas deutlicher macht. Thomas Held von Radio Hertz 87.9 hat sich dann kurzfristig bereit erklärt mir professionell den Film zu synchronisieren. Der gesamte Tag bei Radio Hertz war für mich persönlich eine sehr spannende Sache. Dort habe ich wieder mal viele neue Eindrücke gewonnen.

Woher kommen die 3D-Brillen?

Eine erste Überlegung war, die Brillen mit speziellem Aufdruck zu bestellen was ca. 800 EUR gekostet hätte bei einer Abnahme von 1500 Stück. Aber durch einen glücklichen Zufall habe ich Philipp Buron vom Cinemaxx kennengelernt der mir die unglaubliche Menge von 2150 Anaglyphbrillen zur Verfügung gestellt hat. Danke nochmal!

Woher kommt der Titel »Speculars 3D«?

Der Name »Speculars 3D« setzt sich zusammen aus dem Wort „spectacles“ (engl. für Brille) und dem deutschen Wort »spektakulär«. Da es sich um einen 3D-Film handelt, habe ich es mir nicht nehmen lassen am Ende das »3D« zu setzten so wie z.B. in »Der weiße Hai 3D«. Bei den Logoentwürfen haben mir Johann Volkmer, Andreas Müller und Verena Wiesemann netterweise geholfen.

Welche Stationen durchliefen die Daten?

Auf dieser Grafik kann man erkennen, welche Programme die Daten verarbeitet haben.

Nachdem ich nun alle Stationen des Films einmal beleuchtet habe, möchte ich den Workflow einmal näher beleuchten. [..]

Pressestimmen

Natürlich gab es wie immer eine Pressekonferenz um das 20. UniVideoMagazin anzupreisen, in dessen Rahmen meine BA-Arbeit gezeigt wird. Folgende Ausschnitte aus den Zeitungen will ich meinen Lesern nicht vorenthalten:

Der Kandidat kämpft um sein Examen, und 1000 Leute schauen ihm zu: Marc Tönsing, Student der Mediengestaltung, eröffnet mit seiner Bachelor-Arbeit das Jubiläumsfestival „Uni-Video-Magazin“ im Ringlokschuppen. [..]

Während die Filmfreunde aus der Region am Freitag, 3.Februar, ab 19:30 Uhr zur riesigen Leinwand drängen, setllt sich in einem Nebenraum der 25-jährige Bielefelder den Fragen seiner Prüfer. Nur keine Bange:“Marc Tönsing ist genial“, versichert Fabio Magnifico, Dozent der Technischen Fakultät und Veranstalter des Seminars „Vorsicht Dreharbeiten!“ [..]

„Speculars 3D“, ein Mix aus dem englischen Wort für „Brille“ (spectacles) und dem Attribut „spektakulär“, heißt Tönsings Vierminüter, eine 3D-Geschichte, die munter zwischen Reklame-Spot, Wohnzimmervideo und „Krieg der Sterne“ changiert. Die Prüfer sitzen in der ersten Reihe, wenn auf der Leinwand Tönsing den eigenen Vater verschwinden lässt. [..]

Erst mit 3D-Brille (gibts’s im Ringlokschuppen), entfaltet Tönsings Bachelor Arbeit ihren ganzen Charme. [..]

Nix wie hin! Denn live am Start in eine Akademikerkarriere, 21 Welturaufführungen auf Zelluloid, dazu Rock’n’Roll made in Bielefeld – soviel auf einen Schlag wird selten geboten.

Westfalen Blatt vom 1.Februar 2006

Pressekonferenz des 20. UVM am 31.1.2006
Pressekonferenz des 20. UVM am 31.1.2006

„Ein besonderes Bonbon“, sagt Magnifico, werde auch der Beitrag „Speculars 3D“, den sein Student Marc Tönsing für die Bachelor Prüfung gemeinsam mit Ramona Kozma gedreht hat. Für die Premiere erhalten alle Besucher im Ringlokschuppen Spezialbrillen, die den dreidimensionalen Effekt sichtbar machen. [..]

Neue Westfälische vom 1.Februar 2006

[..] Als Appetithappen auf den Wettbewerb dient die technisch hochwertige Bachelorarbeit Speculars3D des Mediengestaltungs-Studenten Marc Tönsing.

Neue Westfälische vom 7.Februar 2006

Hast Du das alles alleine gemacht?!

Nein, ohne die Hilfe vieler netter Leute wäre dieses Projekt nicht machbar gewesen. Vielen, vielen Dank an alle, die mitgemacht und mich unterstützt haben!

Schauspieler

  • Hans Pulina
  • Michael Tönsing
  • Nicole ‚Schatz‘ Godt

Licht und Kamera

  • Christine Rüdell
  • Daniela Rockmann
  • Kristin Kahmann

Musik

  • Ramona Kozma
  • Felipe Vila São Marcos

Sprecher

  • Thomas ‚Ocke‘ Held

Maske

  • Ly-Ly Nguyen-Quoc

Logoentwurf

  • Johann Volkmer
  • Andreas Müller
  • Verena Wiesemann

Co-Produzent

  • Philipp Anders

Betreuer

  • Prof. Dr. Franz Kummert
  • Fabio Magnifico
  • Dr. Paul John

Vielen Dank an:

  • Philipp Buron
  • Frank Thomas
  • Fabian Hemmert
  • Kristina Jung
  • Julia Kuse
  • Eva Trompetter
  • Katharina ‚Tinka‘ Bickel
  • Matthias Kubitschek
  • Christian Jaeschke
  • Petra Tönsing
  • und alle anderen,
    die mir geholfen
    haben!

Software

  • Adobe Premiere pro 1.5
  • Stereomovie maker
    http://stereo.jpn.org
  • xidmary 3ds max
    plugin
    http://www.habware.at

Unterstützt von:

  • Cinemaxx Bielefeld
  • Kunst & Musik
  • Radio Hertz 87.9

Die Bachelor-Präsentation

Zu guter letzt gibt es nun noch das Handout für die Prüfung heute Abend als Download. Demnächst gibt es dann auch das Storyboard sowie andere Materialen zum Film wie Fotos zu jeder der Stationen. Außerdem die PDF-Folien die ich den Prüfern vorgeführt habe. Mehr Infos gibt es hier aber dazu nicht.

Premiere im Ringlokschuppen

Vor der Prüfung war die RLS natürlich noch leer und als ich wieder nach fast 50 Minuten in die Haupthalle kam, war alles schon fast voll. In dem Moment war meine Aufregung von der Prüfung verflogen und wich Erschöpfung. Mein Job war getan und ich brauchte nur noch den Film ansehen. Gott sei dank hat Fabian ein paar Fotos gemacht als nun alle Besucher ihre Brillen aufgesetzt hatten um den Film zu sehen.

Nochmal danke an alle Helfer die Brillen am Eingang verteilt haben während ich Prüfung hatte! Es war wirklich ein absolut tolles Gefühl, dass so viele Leute nun wirklich die Brillen auf der Nase hatten, die ich zuvor monatelang in meinem Zimmer gelagert hatte.

Auch wenn ich im Video relativ schnell auf die Fragen reagiere war ich dennoch perplex was ich antworten sollte denn ich war entgegen der Aussage von den Moderatoren Andreas Liebold und Nirma Schomeier sehr aufgeregt. Nochmal vielen Dank, dass so viele Freunde mitgekommen sind und mich unterstützt haben. Es war wirklich ein wunderbarer Tag für mich. Was ich besonders nett fand: viele Leute haben sogar ihre Brillen zurück in die Plastikfolie geschoben. Und nicht vergessen: Am Dienstag, den 7.2.2006 um 18:00 Uhr Kanal 21 einschalten! Vielleicht bin ich da auch zu sehen.

Video

Downloads

44 Antworten auf „Bachelorarbeit: 3D-Film“

  1. Ups, damit mit dem Verteiler lese ich erst jetzt. Ok, hat das jetzt noch Relevanz? =)

    Wie man oben im geänderten Teaserbild sehen kann, ist das Projekt jetzt offiziell abeschlossen. Die Prüfer haben die letzte Version der DVD mit Booklet und allem drum und dran in ihren Büros liegen und kann endlich wieder etwas anderes machen als InDesign, Premiere, Encore, 3D Studio Max und Photoshop.

    Ich werde demnächst eine Runde Bier & Wein sponsorn und in meiner Küche ausschenken für alle, die daran beteiligt waren und mir geholfen haben, die Arbeit zu einem Abschluss zu bringen. =) Danke nochmal! =))




    0

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website zeigt Benutzerbilder über gravatar.com an.