|
Wirklicher als die Wirklichkeit High Dynamic Range vs. Low-Dynamic-Range-Medien
Regeln für das Posten von Bildern
Jetzt hat jeder die Möglichkeit seine künstlerischen Werke in einem jeweils eigenen Thread unterzubringen, was das kommentieren erheblich vereinfacht.
Die Bilder sollten nicht breiter und nicht höher als 800px sein. Ausserdem sollten sie nicht die Grenze von 50 KB überschreiten. Für den Fall das ihr doch mal grössere Bilder zur Schau stellen wollt, gebt bitte nur einen Link an, der auf das Bild verweist.
|
|
 04 Jan 2007, 12:27
|

~PAPA~       
Punkte: 1492
seit: 11.04.2006
|
auf spiegel.de ist ein netter Artikel zu einem interessanten Gebiet der Fotonachbearbeitung. Im Prinzip geht es darum, den begrenzten Umfang von Bildinformationen, die eine Digitalkamera erfassen bzw. ein elektronisches Medium darstellen kann, durch geschicktes "Überzeichen" zu erhöhen. Einigen wird das geläufig sein, da man bisher durch manuelles Überlagern von Mehrfachbelichtungen zB. in Ebenen, auch ein bessere Bilder bauen konnte - aber ich finde es ist im Ergebnis und der Handhabung nicht vergleichbar. So wird aus:    das:  Zum Glück hab ich noch alle meine Belichtungsreihen von vor ... vielen Jahren aufgehoben  - jetzt muss ich mir nur mal CS2 besorgen. hat jemand schon eigene Resultate?
--------------------
Ich spreche fließend ironisch.
Viele Leute kommen mit meinem Humor einfach nicht klar.
Jule: Mit dir hab ich echt ma ein glückliches händchn gehabt :D
|
|
|
Antworten(15 - 29)
|
|
 04 Jan 2007, 20:08
|
3. Schein   
Punkte: 325
seit: 10.07.2004
|
Zitat(Chris @ 04 Jan 2007, 18:46) Wenn man das erste Beispiel anschaut, dann sieht man im Vordergrund ein Schiff, das sich bewegt. Scheinbar wurde hier doch nicht nur mit einer Kamera Fotos gemacht. /:edit: Das Schiff bewegt sich sogar auf den Bildern, trotzdem fällt es bei dem Endfoto nicht auf .. krass ...  Es gibt da ein paar Techniken mit denen man das machen kann. Mir scheint das das Boot auf dem ersten und zweiten Bild an derselben Stelle steht, nur auf dem letzten zuckt es etwas wenn man hin- und herblättert. Wenn man bei solchen Szenen alles von Hand zusammenbastelt kann man sowas ganz gut ausgleichen. Für Szenen mit einem nicht ganz so krassen Kontrastumfang kann man sich auch noch eines Tricks bedienen, wobei das dann kein DRI mehr im strengen Sinn ist. Man nimmt das Bild als RAW auf, also lässt die Kamera kein jpeg-Bild abspeichern sondern die rohen Sensordaten. Das emtspricht etwa einem digitalen Negativ und hat den Vorteil, dass es wesentlich mehr Informationen enthält als ein jpg. Auf dem Rechner schiebt man es dann durch die virtuelle "Dunkelkammer", einen Raw-Konverter wie etwa den von Photoshop. Dabei erstellt man drei Abzüge, einen unter- einen über und einen normalbelichteten. Fertig ist die Ausgangsbasis für den DRI-Prozess. Wie gesagt, das klappt nur bei einfachen Sachen, man hat aber den Vorteil, das man sich nicht um solche Sachen wie sich bewegende Objekte kümmern muss. Hrothgar PS: 3 Kameras wären ein interessanter Ansatz aber man würde sich da viel Ärger mit Parallaxfehlern einhandel weil ja jede aus einem anderen Winkel auf die Szene schaut. Dieser Beitrag wurde von Hrothgar: 04 Jan 2007, 20:10 bearbeitet
|
|
|
|
|
 04 Jan 2007, 22:27
|
3. Schein   
Punkte: 325
seit: 10.07.2004
|
Zitat(tingel @ 04 Jan 2007, 21:15) Habe vor kurzem auch mal mit sowas rumgespielt, ist noch etwas unbeholfen. Das ist mit CS 2 und dem DRI Plugin gemacht. Das ist aus "nur" zwei Bildern zusammengesetzt und es sind noch eine Menge überbelichtete Regionen im Bild... .  Ganz ehrlich, das eingebaute Plugin ist ne ziemliche Gurke. Hier gibts eine schöne Anleitung dazu für Photoshop: http://www.digiachim.de/DRI/index.htmDen Link zum kostenlosen picturenaut hab ich schon gepostet. Hrothgar
|
|
|
|
|
 06 Jan 2007, 11:49
|

tangel       
Punkte: 1038
seit: 18.01.2005
|
Habe mir mal das Tutorial angeschaut und für sehr aufwendig erachtet. Trotzdem ist es ne gute Anleitung für Bildbearbeitungsneulinge. Ich habe allerdings nicht das HDR Plugin von Photoshop, sondern das DRI Pro von http://www.fredmiranda.com/ benutzt. Zum Vergleich habe ich jetzt aber noch mal Picturenaut und das Photoshop eigene Plugin ausprobiert. Das Photoshop HDR erzeugt mit meinen zwei Bilder ein deutlich überbelichtetes Ergebnis. Picturenaut und das DRI Pro nehmen sich erst mal nicht viel, wenn man nur zwei Bilder hat. Mehr kann das DRI Pro auch nicht. Für längere Belichtungsreihen ist Picturenaut sicher das Tool der Wahl. Also ich habe jetzt schon mal gelernt, daß das unterbelichtete Bild entscheidender ist, als das mit der längsten Belichtungszeit, da davon abhängt, ob man noch überbelichtete Regionen hat. Die sehen in meinem Beispiel zugegebenermaßen schon sehr unschön aus - war aber auch der erste Versuch mit der Kamera und dem neuen Stativ (ist ein sehr handliches, weil zusammengelegt kleiner als 50 cm SLIK Sprint Pro 3Way).
|
|
|
|
|
 06 Jan 2007, 14:50
|

Straight Esh         
Punkte: 14030
seit: 01.10.2003
|
Kommt halt immer darauf ob mans drauf hat, oder nicht. Das erste Bild aus Venedig hinterlässt einfach den Eindruck als ob man gleichwohl selbst dort stehen würde.
--------------------
bonum agere et bonum edere, sol delectans et matrona delectans (Verlängere dein Leben indem du hier und hier und hier und hier klickst!)
|
|
|
|
|
 06 Jan 2007, 15:41
|

Zirpende Grille         
Punkte: 3688
seit: 17.06.2004
|
müßig, dieser vergleich. vergleicht unser auge lieber mit einer videokamera. in dem fall sehen kameras sogar noch mehr als wir jemals wahrnehmen könnten. (z.B. spezielle wellenlängen des lichtes, die uns verborgen bleiben) die detailfülle ist eben nicht theoretisch riesig. durch die nachbereitung und interpretation der simplen informationen des auges im gehirn können wir oft sogar mehr wahrnehmen, als wir eigentlich erkennen sollten. was die bewusste wahrnehmung angeht, so spielst du vermutlich auf das direkte feld der aufmerksamkeit an, doch auch im randbereich können wir zb. noch sehr gut bewegungen wahrnehmen. warum das so ist? wir sind jäger und müssen gut 3D vor uns sehen. andere tiere haben ein riesiges gesichtsfeld und nehmen ihre umgebung ganz anders wahr als wir. vögel und echsen sehen uv-licht und fledermäuse schall. das feld der wahrnehmung der umwelt ist hochinteressant. wenn ich mir die bilder mal so anschaue, dann finde ich sie doch sehr gelungen. die exemplarisch gezeigten sind von den künstlern natürlich auch noch dramatisiert worden, also betrachtet es nicht als versuch einer möglichst realen abbildung, sondern als kunstwerk.
--------------------
  Es ist kein Narr der Possen reißt und auch kein Narr der Unsinn spricht. Der wahre Narr ist der, der meist nur staunt und blinden Glaubens ist. Eichenschild
|
|
|
|
|
 06 Jan 2007, 16:04
|

creamed my pantz.         
Punkte: 2512
seit: 05.01.2007
|
seit wann entsteht eigentl. eine tiefenwirkung in einem bild durch detailverlust? doch wohl eher durch die perpektivische verzerrung, tiefen unschärfe, ändernde texturen usw.. da spielt der detailgewinn in über- bzw. unterbelichteten bereichen doch keine rolle und beim auge meinte ich mit den einzelbildern, dass unser auge nicht auf einmal das bild aufnimmt, was wir dann sehen, nein es bewegt sich pro sekunde was weiß ich wie oft und "rastert" unsere umgebung ab, wo das raster dann die 'feinste' auflösung bekommt, legt unser gehirn fest, indem es den fokus steuert, einerseits bewusst andererseits unbewusst durch reflexe.. aber das ganze wollen wir ja hier nicht ausdehnen, denn unsere wahrnehmung im ganzen ist sicherlich komplexer als das hier angesprochene verfahren
|
|
|
|
|
 06 Jan 2007, 17:19
|

lowdesertpunk         
Punkte: 3684
seit: 01.10.2003
|
Zitat(Zappelfry @ 06 Jan 2007, 14:43) Papajoe ist mal wieder: Dagegen! Ich finde das gerade das Venedigbild an Tiefe gewinnt.  das klingt so, als wäre ich aus prinzip dagegen. und mein name wird nich groß geschrieben,  wie egsagt, ich habe mir die sache vor einiger zeit näher angeschaut udn meine schlüss egezogen. Zitat(loco @ 06 Jan 2007, 15:04) seit wann entsteht eigentl. eine tiefenwirkung in einem bild durch detailverlust? doch wohl eher durch die perpektivische verzerrung, tiefen unschärfe, ändernde texturen usw..
da spielt der detailgewinn in über- bzw. unterbelichteten bereichen doch keine rolle [...]
du widersprichst dir da teilweise selber. tiefenunschärfe zb geht mit detailverlust einher. das venedigbild zb wirkt wie gemalt oder gerendert und unräumlich, weil der himmel grafisch genauso belastet is, wie der rest. er bewegt is in nem sehr ähnlichen tonwertbereich, wie der est. das is unnatürlich und sah garantiert in der realität nich so aus. das nimmt dem foto jegliche spannung. es kann durchaus sein, dass da ergebnisse bei rauskommen, die schön sind, nur eben nich mehr natürlich (es sei denn, man arbeitet sehr dezent). und eben nich das, was ich persönlich von ner fotografie erwarte. andere leute dürfen das gerne anders sehen.
|
|
|
|
|
 06 Jan 2007, 17:27
|

Straight Esh         
Punkte: 14030
seit: 01.10.2003
|
Zitat(sQeedy @ 06 Jan 2007, 15:23) das ist so nicht richtig. unser auge rastert nicht. es nimmt alles auf einmal auf.  Allerdings hat man lediglich im fokusierten Bereich eine hohe Detailfülle. Außen herum wird es relativ schnell schwammig und undeutlich. Und zwar in einem Rahmen, gegen der aufgenommene Ausschnitt einer Fotokamera riesig wirkt. Was also loco mit "rastern" meint, ist, dass viele Einzelbilder aufgenommen werden, und durch unser Hirn zu dem großen Ganzen zusammengesetzt werden. Was meiner Meinung nach bei solchen Bildern passiert ist, dass man versucht, die Detailfülle und Anpassungsfähigkeit des menschlichen Auges in ein Bild zu pressen. So wie es auch damals schon die Maler riesiger Wandgemälde getan haben. So wie Canaletto der Jüngere zu seinem perspektivischen Fehler bei der Frauenkirche kam. Das menschliche Auge passt sich natürlich immer an die Helligkeit an. Schaut es sich den Himmel an, so wird, das ganze Bild natürlich unterbelichtet, um das Auge nicht zu schädigen. Im Gegensatz dazu wird beim Betrachten dunkler Stellen das Bild überbelichtet. Da wir aber für jeden Augensprung (Sakkade) erneut die Einstellungen anpassen, fällt es uns nicht auf, dass wir den Himmel und die dunkle Ecke mit einer anderen Helligkeit gesehen haben. Das Gehirn modeliert etwas, dass aussieht wie ein HDR Bild (vermutlich aber besser). Es ist aber ganz natürlich dass diese Bilder im ersten Moment unnatürlich wirken. Immerhin ist man von Bildern so etwas gar nicht gewöhnt (außer von Malereien). Deswegen auch immer der unwilkürliche Anklang. Zudem ist man natürlich auch nicht die großen Unterschiede gewöhnt, da ja das Auge auch immer nur einen kleinen Bereich (z.B. der Helligkeit) gleichzeitig aufnimmt, und niemals aber die ganze Fülle, wie sie uns das Bild entgegenschleudert. Aber nimmt man sich das Bild wirklich vor und betrachtet es, als würde man vor dem realen Schauspiel stehen, dann hat man gute Chancen die ganze Schönheit zu entdecken. Das bedeutet aber, dass das Bild eine gewisse Größe haben sollte, so dass man nicht sofort alles auf einmal sieht, dass man sein Auge schweifen lassen kann und die Details entdecken lassen kann.
|
|
|
1 Nutzer liest/lesen dieses Thema (1 Gäste)
0 Mitglieder:
|