Galaxy S9 / S9+ - Diskussion zur Kamera

Ich habe eben mal bei meinem S9 in den Kameraeinstellungen geschaut, ob es dort einen Menüpunkt mit Gesicht oder so etwas gibt und bin auch prompt fündig geworden.
Screenshot_20181017-235701_Camera.jpg
Es gibt einen Punkt "Gesichtsformkorrektur". Ich habe keine Ahnung was diese bewirkt oder funktioniert, aber vielleicht ändert sich ja etwas, wenn man diesen ausschaltet.

Nebenbei, war dieser von Anfang an vorhanden? Ich bin mir nicht so ganz sicher.
 
Gab's schon immer
 
@merlin2100
Die ist nur für die Frontkamera ;)
 
maik005 schrieb:
@SebastianK
Bei dem Bild mit dem Friedhof und generell:

Kurz auf das Display tippen. Dann erscheint über dem Aufnahmeknopf kurzzeitig ein kleiner Regler mit Glühbirnen-Symbol.
Damit kann man ganz einfach und schnell das Foto schon vor der Aufnahme heller/dunkler stellen.
Die Kamera passt dabei direkt ISO/Verschlusszeit automatisch an.
Danke. Wieder was gelernt.

Werde ich mal ausprobieren.
 
zobl93 schrieb:
Ein Baum, 3-Ansichten :D
Ohne Nachbearbeitung, Autmatikmodus

Ist schon echt Hammer, was die Smartphone-Kameras mittlerweile können....
Direkt in die Sonne fotografiert....
Das ist schon eine echte Herausforderung!
 
  • Danke
Reaktionen: zobl93
Richtig cool fänd ich es, wenn man Gegen die Sonme fotografieren kann, und der Baum immer noch so gut belichtet ist wie im 1. Bild (bzw. nen hauch weniger weil ja Schattenseite), aber die Sonne noch nen tick weniger.

Ich denke hier liegt dann das Potenzial für ne KI an. Hardwareseitig ist das schon ganz gut, mit richtigem HDR (3 Bilder unterschiedlich belichtet zusammengefügt) und den passenden unterschiedlich Einstellungen für unterschiedliche Bildbereiche kann man da noch was rausholen.
 
Per Definition hat ein Baum Blätter und die sind grün!
Im Winter hat ein Baum keine Blätter!
Winter erkennt man an Schnee, weil der Hintergrund weis ist!

Das könnte doch jeder so unterschreiben - ist ja auch schön vereinfacht.

Die KI schaut sich nun das Bild an stellt fest

Erster Fall:
Es ist ein Baum und der Hintergrund ist nicht weis, folglich kein Sommer und die Blätter müssen grün sein - also wird die KI die herbstlich verfärbten Bilder grün einfärben

Zweiter Fall:
Es ist ein Baum der Hintergrund ist weis (Hauswand schimmert irgendwo her weiß durch), folglich ist Winter da KI nicht merkt, das es eine Hauswand ist und löscht alle Blätter am Baum, da Bäume bekanntlich im Winter kahl sind.

Dritter Fall:
Es ist ein Tannenbaum - die KI ist überfordert Tannenbaum ist nicht definiert - KI löscht das Bild kann es nicht geben

Ich frage mich echt, ob wir uns wirklich ein von der KI vermitteltes Bild machen lassen wollen, weil wir die Umwelt einfach nicht mehr so wahrnehmen wollen, wie sie wirklich ist und merken dabei gar nicht, das uns damit Stimmungen, Gefühle und Eindrücke verloren gehen, die wir eigentlich auf einem Foto festhalten wollen.

Selbst im Automatikmodus greift die Kamera beim S9 schon zu stark in das Bild ein und hellt zu vieles auf und verdirbt damit im Grunde das, was man wirklich im Foto festhalten wollte.

Ein Beispiel:
20181017_190730.jpg
Bild wurde mit dem Automatikmodus gemacht um 19:07 Uhr gemacht Straßenlatternen schon an, das ganze Bild ist von der Automatik sehr stark aufgehellt, dadurch sind zwar mehr Details zu erkennen, die im Original auch mit den eigenen Augen nicht zu erkennen sind, aber das was ich wirklich festhalten wollte verliert etwas von seinem Eindruck.
20181017_190824.jpg
Deshalb ein zweites Bild um 19:08 Uhr im ProModus mit selbst eingestelltem ISO-Wert, Blende und Belichtungszeit. Das Bild hat zwar wesentlich weniger Details die zu erkennen sind, dafür entsprechen die Lichtverhältnisse und das was man sieht eher der Realität im ersten Bild und ich wollte im Grunde den Eindruck, des von innen blau beleuchteten Turms der Kirche festhalten.

Die blaue Farbe ist zweiten Bild ist übrigens so wie es ist das im ersten Bild wirkt einfach neongrell und vermittelt den falschen Eindruck.

Und mal noch ein Einwurf, haben wir früher nicht sogar ab und zu bewusst gegen die Sonne fotografiert um mit dem bekannten "hell-dunkel Effekt" zu spielen und sehen wir wirklich selbst detailreich, wenn wir in die Sonne schauen - Nein aber warum wollen wir dann aber gegen die Sonne fotografieren und 100 % erwarten, was nicht mal unsere eigene KI hinkriegt die bei weiter leistungsfähiger als jeder Handychip ist?

Ich verstehe echt so langsam die Welt nicht und komme immer wieder für mich dabei an

Smartphone = nicht schlecht und Schnappschuss geeignet
DSLR = kann was das Smartphone kann und einfach noch etwas mehr.

Und ja wir können später gerne Bilder nachbearbeiten, aber wir sollten es selbst machen um das zu verändern, was uns wichtig erscheint und nicht einem anderen überlassen.
 
  • Danke
Reaktionen: Ciroc und AngelikaLi
Warum hat eigentlich eine teure DSLR keine KI? Richtig....weil dahinter ne echte I steht. Beim Smartphone braucht's wohl KI, da Leute,die absolut nichts von Fotografie und deren Regeln verstehen, natürlich fotografieren wollen wie ein Profi. Und natürlich sind im Handybereich,das hab ich gelernt, die buntesten unnatürlichen übertriebenen Fotos die angesagtesten. Schwer nachzuvollziehen. Aber ist so. Schön daran zu erkennen, dass heutzutage selbst Nachtfotos keine dunklen Bereiche haben dürfen und HDR schon den Augen weh tut, weil so extrem übertrieben wird. Hat mit Fotografieren im eigentlichen Sinn nichts mehr zu tun, aber wem es gefällt.....Mir reicht das, was Samsung beim S9 abliefert, völlig. Darum gefällt mir auch durchaus dein dunkleres Foto. Da erkennt man wenigstens,dass es fast Nacht ist.
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: wotzefak80 und AngelikaLi
@karlchen68
Ja mir gefällt das zweite Bild auch besser.

Die Smartphones sind halt einfach echte 3D Fotoapparate geworden.

3D = DDD = D..p d....t d...f

Früher haben bestimmte Fotografen mit der Pocketkamera gearbeitet und als die Filme weniger würden, würde diese gegen das Smartphone getauscht, das eine echte Wunderwaffe ist.

Eine Mischung aus Pocketkamera und Polaroid. In der Drogerie gibt es dann sofort den Ausdruck zum einkleben ins Album.

Was ich damit aber wirklich ausdrücken möchte ist im Grunde, es ist gut, wenn mit Smartphone jeder relativ gute Bilder machen kann, man sollte aber trotzdem darauf achten, das man sich nicht alles aus der Hand nehmen lässt und einen anderen die Entscheidung überlassen, was einem gefallen soll.
 
Ich habe gestern zwei Fotos gemacht. Direkt hintereinander, zeitlicher Unterschied nur ein paar Sekunden (S9 drehen und neu ausrichten). Das zweite Foto wurde mit der richtigen Ortsangabe getaggt, beim ersten Foto wird ein ca. 3 km Luftlinie entfernter Ort angezeigt. Woran kann das liegen und wie kann man das nachträglich korrigieren?
 
Blacky12 schrieb:
Woran kann das liegen
GPS-Fix kam dann wohl erst innerhalb dieser Sekunden und bis dahin gab es den ungefähren Standort.
 
@Blacky12

Da dies eines meiner absoluten Kritikpunkte am S9 nach wie vor ist, mal meine Erfahrungen, die durch tagelanges Probieren und viel Ärgern entstanden sind. Die Kamera-App, nicht nur des S9, sondern wie in anderen Threads und auf XDA zu finden, auch S8 und einige andere, nehmen oftmals nur den Netzwerkstandort. Das ist traurig und der Grund nicht eindeutig nachzuvollziehen. Ich habe so ziemlich alles versucht. Kamera gestartet, 20 Sekunden gewartet, in dieser Zeit haben alle anderen Apps lange einen Fix auf ca. 6m. Mal ein Beispiel, dass dieses grottige Verhalten untermauert. Ich mache nach den sagen wir 20 Sekunden ein Foto. OK, passt einigermaßen,nicht genau,aber so 20m bekommt das S9 immerhin noch hin. Reicht ja zur Not......Kamera bleibt an, ich gehe paar Schritte, mache das nächste Foto und .....ich habe mich in den Nachbarort gebeamt, 2km um die Ecke,wo vermutlich der nächste Sendemast steht. Über mir wolkenloser Himmel, also daran kanns nicht liegen, zumal der GPS Empfänger selbst im schwierigen Gelände relativ gut ist. Mit anderen Worten, die Kamera-App nimmt willkürlich den erstbesten Standort,keine Regel feststellbar. Für mich ein Nogo, da ich Wert auf einen genauen Standort lege,bei meinen ganzen Sony hatte ich NIE Probleme, einmal einen Fix, und immer gut bis auf wenige Meter. Bei Samsung musst du dir Krücken bauen, wenn du wie ich Wert auf einen genauen Standort legst, so traurig das ist für das viele Geld. Wenn ich im Hintergrund GPS laufen habe, weil ich einen Track aufzeichne oder sonstwas mache, dann stimmen alle getaggten Fotos exakt. Also lade dir beispielsweise die App "GPS Lock/Unlock", mach dir ein Widget und schalte,bevor du fotografierst, das GPS manuell dazu. Und danach wieder aus. Oder gehe in den Flugmodus, dann siehst du, wie die Kamera-App deutlich länger sucht, merkt dann, daß sie keinen Netzwerkstandort bekommt und nimmt den genauen GPS-Standort, und schwupps, stimmen alle Standorte aller Fotos. Oder stell testweise LTE aus, denn damit sind bei mir, warum auch immer, die Werte der getaggten GPS-Daten am ungenauesten, warum auch immer. Vielleicht hat das was mit dem Netz zu tun, habe Vodafone. Nebenbei, andere Kamera-Apps wie Open Kamera haben absolut keine Probleme damit, Fazit:absolut lieblos programmiert in der Kamera-App.

Zu deiner zweiten Frage: Korrigieren kannst du das mit entsprechenden Apps wie "Geo-Editor", da kannst du gleich mehrere Fotos auswählen,oder wie ich mit der hauseigenen Samsung Gallery-App, die eigentlich ganz gut ist. Aber da musst du leider jedes Foto einzeln bearbeiten. Gehst auf das entsprechende Foto, dann auf bearbeiten, dann auf Standort, da kannst du den Standort korrigieren und speichern. Und Tags hinzufügen usw.
 
Zuletzt bearbeitet:
karlchen68 schrieb:
Oder stell testweise LTE aus, denn damit sind bei mir, warum auch immer, die Werte der getaggten GPS-Daten am ungenauesten, warum auch immer.
(OT)
Weil LTE in Band 20 eine längere Reichweite als 3G hat und somit der Funkmast auch weiter entfernt sein kann.
 
Schön, daß ich jetzt so viel über LTE weiß, nur irgendwie werde ich das Gefühl nicht los, das hilft bei diesem Problem so gar nicht....Denn was hat das damit zu tun, daß die Kamera-App sehr oft trotz bestem GPS Empfang diesen nur sekundär bzw. nach irgendwelchen eigenen Regeln nutzt und lieber immer mal den Netzwerkstandort bevorzugt? Und das scheinbar noch öfter, wenn ich im 4G Netz bin? Die Reichweite der verschiedenen Funktechniken hat doch nichts mit Geotagging zu tun. Wäre ich in einem geschlossenen Raum und nur der Netzwerkstandort verfügbar, dann muss es ja diesen nehmen. Bei mir bedeutet Geotagging aber den besten verfügbaren Standort zu taggen, und dafür sollte unter freiem Himmel eine halbwegs vernünftig programmierte App, die Geotagging anbietet, NUR auf GPS zugreifen.
Ich habe mittlerweile begriffen, daß Samsung scheinbar nicht in der Lage ist, das ordentlich zu integrieren,von daher habe ich dem Kollegen weiter oben, dem beim Geotagging paar Kilometer Genauigkeit auch nicht reichen, ein paar Lösungsansätze mitgegeben, die mir mittlerweile helfen. Denn es ist erfahrungsgemäß nicht davon auszugehen, dass dieses Phänomen seitens Samsung bald gelöst wird. Wenn doch, umso besser.
 
Automatik
merlin2100 schrieb:
Bild wurde mit dem Automatikmodus gemacht um 19:07 Uhr gemacht Straßenlatternen schon an, das ganze Bild ist von der Automatik sehr stark aufgehellt, dadurch sind zwar mehr Details zu erkennen, die im Original auch mit den eigenen Augen nicht zu erkennen sind, aber das was ich wirklich festhalten wollte verliert etwas von seinem Eindruck.
Pro/Manuell
merlin2100 schrieb:
Deshalb ein zweites Bild um 19:08 Uhr im ProModus mit selbst eingestelltem ISO-Wert, Blende und Belichtungszeit. Das Bild hat zwar wesentlich weniger Details die zu erkennen sind, dafür entsprechen die Lichtverhältnisse und das was man sieht eher der Realität im ersten Bild und ich wollte im Grunde den Eindruck, des von innen blau beleuchteten Turms der Kirche festhalten.
Die Probleme hatte ich auch. Aber es gibt noch den Trick von @maik005 .
1.) Automatik Modus mit HDR on
2.) Kurz in die Mitte des Bildes tippen
3.) Den angezeigten Schieber runterstellen und so die Helligkeit reduzieren

Dadurch ergeben sich ganz neue Möglichkeiten und wenn man Glück hat, bekommt man das beste aus beiden Welten: Dunkle Stellen im Schatten werden aufgehellt mit mehr Kontrast (HDR Effekt) und die ursprüngliche Stimmung von Farbe und Licht im Gesamtbild bleibt erhalten.
 
  • Danke
Reaktionen: maik005 und 398580
@SebastianK
Das ist durchaus auch noch eine Möglichkeit, wie man vorgehen könnte.

Wenn man allerdings auf WYSIWYG wert legt, bleibt nur der Weg über den Pro-Modus zu gehen, da ansonsten über das HDR eine Verfälschung des Bildes entsteht, da ja Aufhellungen von Bereichen entstehen, die man in der Realität nicht wahrnehmen kann.

Im dunklen aus der Hand ist immer ein Kompromiss, man müsste auch beim Handy im Grunde mit dem Stativ arbeiten um eine möglichst länge Belichtungszeit bei einem niedrigen ISO-Wert zu erreichen.
 
Mal was ganz anderes, hat jemand fundierte Erfahrung gesammelt, was RAW angeht? Letzten Winter hab ich das mal intensiv mit meiner Pana versucht. Hier fehlt mir bisher die Zeit. Kann da jemand wirklich konkret sagen, ob es sich überhaupt lohnt beim S9 oder ob es Zeitverschwendung ist? Denn meine Vermutung ist, dass Samsung natürlich in bester Kenntnis seiner Hardware die Software schon bestens abgestimmt hat. Wenn jemand doch noch MERKBAR was rausholen konnte, mit welchem Programm und gegebenfalls,nur grob ,welche Parameter?
 
Hallo an alle S9+ Nutzer. Klappert bei Euch auch die Kamera wenn man das Smartphone schüttelt?
Finde das ziemlich ungewöhnlich.

Vielen Dank
 

Ähnliche Themen

C
  • captain882
Antworten
3
Aufrufe
96
maik005
maik005
J
Antworten
10
Aufrufe
272
Klaus986
K
R
Antworten
15
Aufrufe
308
ral9004
R
Zurück
Oben Unten