Panasonic Lumix S1R - zdjęcia przykładowe
Korzystając z pięknej pogody i faktu, że ostatnio do naszej redakcji dotarł najnowszy Panasonic Lumix S1R wybraliśmy się na spacer, aby zrobić parę zdjęć przykładowych nowym bezlusterkowcem japońskiego producenta. Standardowo, zdjęcia zrobiliśmy przy najniższym poziomie wyostrzania i odszumiania, wyłączone zostało też odszumianie dla długich czasów naświetlania. Korzystaliśmy z obiektywu Panasonic Lumix S 24-105 mm f/4 MACRO O.I.S..
Aparat: Panasonic Lumix S1R
Parametry: 55 mm, f/8.0, exp. 1/160 sek., ISO 400 Plik: JPEG, 8368 x 5584 pix, 20.77 MB |
Aparat: Panasonic Lumix S1R
Parametry: 55 mm, f/8.0, exp. 1/400 sek., ISO 800 Plik: JPEG, 8368 x 5584 pix, 21.08 MB |
Aparat: Panasonic Lumix S1R
Parametry: 55 mm, f/8.0, exp. 1/1000 sek., ISO 2000 Plik: JPEG, 8368 x 5584 pix, 21.8 MB |
Aparat: Panasonic Lumix S1R
Parametry: 55 mm, f/8.0, exp. 1/1600 sek., ISO 3200 Plik: JPEG, 8368 x 5584 pix, 20.84 MB |
Aparat: Panasonic Lumix S1R
Parametry: 24 mm, f/8.0, exp. 1/500 sek., ISO 800 Plik: JPEG, 8368 x 5584 pix, 21.41 MB |
Aparat: Panasonic Lumix S1R
Parametry: 24 mm, f/8.0, exp. 1/1300 sek., ISO 1600 Plik: JPEG, 8368 x 5584 pix, 21.5 MB |
Aparat: Panasonic Lumix S1R
Parametry: 32 mm, f/8.0, exp. 1/60 sek., ISO 400 Plik: JPEG, 8368 x 5584 pix, 19.6 MB |
Aparat: Panasonic Lumix S1R
Parametry: 32 mm, f/8.0, exp. 1/125 sek., ISO 800 Plik: JPEG, 8368 x 5584 pix, 20.26 MB |
Aparat: Panasonic Lumix S1R
Parametry: 32 mm, f/8.0, exp. 1/250 sek., ISO 1600 Plik: JPEG, 8368 x 5584 pix, 21.24 MB |
Aparat: Panasonic Lumix S1R
Parametry: 32 mm, f/8.0, exp. 1/500 sek., ISO 3200 Plik: JPEG, 8368 x 5584 pix, 22.09 MB |
Aparat: Panasonic Lumix S1R
Parametry: 32 mm, f/8.0, exp. 1/1000 sek., ISO 6400 Plik: JPEG, 8368 x 5584 pix, 21.49 MB |
Aparat: Panasonic Lumix S1R
Parametry: 32 mm, f/8.0, exp. 1/2000 sek., ISO 12800 Plik: JPEG, 8368 x 5584 pix, 22.13 MB |
Aparat: Panasonic Lumix S1R
Parametry: 32 mm, f/8.0, exp. 1/4000 sek., ISO 25600 Plik: JPEG, 8368 x 5584 pix, 22.58 MB |
Aparat: Panasonic Lumix S1R
Parametry: 32 mm, f/8.0, exp. 1/8000 sek., ISO 51200 Plik: JPEG, 8368 x 5584 pix, 23.41 MB |
Aparat: Panasonic Lumix S1R
Parametry: 24 mm, f/8.0, exp. 1/125 sek., ISO 800 Plik: JPEG, 8368 x 5584 pix, 20.08 MB |
Aparat: Panasonic Lumix S1R
Parametry: 104 mm, f/4.0, exp. 1/640 sek., ISO 400 Plik: JPEG, 8368 x 5584 pix, 14.33 MB |
Aparat: Panasonic Lumix S1R
Parametry: 24 mm, f/8.0, exp. sek., ISO 50 Plik: JPEG, 8368 x 5584 pix, 15.19 MB |
Aparat: Panasonic Lumix S1R
Parametry: 24 mm, f/8.0, exp. 1/1 sek., ISO 100 Plik: JPEG, 8368 x 5584 pix, 15.8 MB |
Aparat: Panasonic Lumix S1R
Parametry: 24 mm, f/8.0, exp. 1/1 sek., ISO 200 Plik: JPEG, 8368 x 5584 pix, 16.17 MB |
Aparat: Panasonic Lumix S1R
Parametry: 24 mm, f/8.0, exp. 1/3 sek., ISO 400 Plik: JPEG, 8368 x 5584 pix, 15.75 MB |
Aparat: Panasonic Lumix S1R
Parametry: 24 mm, f/8.0, exp. 1/5 sek., ISO 800 Plik: JPEG, 8368 x 5584 pix, 17.62 MB |
Aparat: Panasonic Lumix S1R
Parametry: 24 mm, f/8.0, exp. 1/10 sek., ISO 1600 Plik: JPEG, 8368 x 5584 pix, 18.58 MB |
Aparat: Panasonic Lumix S1R
Parametry: 24 mm, f/8.0, exp. 1/20 sek., ISO 3200 Plik: JPEG, 8368 x 5584 pix, 19.46 MB |
Aparat: Panasonic Lumix S1R
Parametry: 24 mm, f/8.0, exp. 1/40 sek., ISO 6400 Plik: JPEG, 8368 x 5584 pix, 19.53 MB |
Aparat: Panasonic Lumix S1R
Parametry: 24 mm, f/8.0, exp. 1/80 sek., ISO 12800 Plik: JPEG, 8368 x 5584 pix, 21 MB |
Aparat: Panasonic Lumix S1R
Parametry: 24 mm, f/8.0, exp. 1/160 sek., ISO 25600 Plik: JPEG, 8368 x 5584 pix, 21.91 MB |
Aparat: Panasonic Lumix S1R
Parametry: 24 mm, f/8.0, exp. 1/320 sek., ISO 51200 Plik: JPEG, 8368 x 5584 pix, 23.81 MB |
Aparat: Panasonic Lumix S1R
Parametry: 69 mm, f/5.6, exp. 1/320 sek., ISO 800 Plik: JPEG, 8368 x 5584 pix, 15.69 MB |
Aparat: Panasonic Lumix S1R
Parametry: 69 mm, f/5.6, exp. 1/640 sek., ISO 1600 Plik: JPEG, 8368 x 5584 pix, 16.8 MB |
Aparat: Panasonic Lumix S1R
Parametry: 69 mm, f/5.6, exp. 1/1300 sek., ISO 3200 Plik: JPEG, 8368 x 5584 pix, 18.09 MB |
Aparat: Panasonic Lumix S1R
Parametry: 69 mm, f/5.6, exp. 1/2500 sek., ISO 6400 Plik: JPEG, 8368 x 5584 pix, 19.52 MB |
Aparat: Panasonic Lumix S1R
Parametry: 69 mm, f/5.6, exp. 1/5000 sek., ISO 12800 Plik: JPEG, 8368 x 5584 pix, 21.33 MB |
Aparat: Panasonic Lumix S1R
Parametry: 69 mm, f/5.6, exp. 1/8000 sek., ISO 25600 Plik: JPEG, 8368 x 5584 pix, 23.03 MB |
Aparat: Panasonic Lumix S1R
Parametry: 69 mm, f/5.6, exp. 1/160 sek., ISO 400 Plik: JPEG, 8368 x 5584 pix, 12.89 MB |
Aparat: Panasonic Lumix S1R
Parametry: 69 mm, f/5.6, exp. 1/80 sek., ISO 200 Plik: JPEG, 8368 x 5584 pix, 13.15 MB |
Aparat: Panasonic Lumix S1R
Parametry: 69 mm, f/5.6, exp. 1/40 sek., ISO 100 Plik: JPEG, 8368 x 5584 pix, 12.38 MB |
Aparat: Panasonic Lumix S1R
Parametry: 105 mm, f/4.0, exp. 1/500 sek., ISO 400 Plik: JPEG, 8368 x 5584 pix, 11.98 MB |
Aparat: Panasonic Lumix S1R
Parametry: 105 mm, f/4.0, exp. 1/1000 sek., ISO 400 Plik: JPEG, 8368 x 5584 pix, 12.65 MB |
Aparat: Panasonic Lumix S1R
Parametry: 68 mm, f/4.0, exp. 1/1600 sek., ISO 800 Plik: JPEG, 8368 x 5584 pix, 16.05 MB |
Aparat: Panasonic Lumix S1R
Parametry: 34 mm, f/4.0, exp. 1/800 sek., ISO 800 Plik: JPEG, 8368 x 5584 pix, 19.87 MB |
Aparat: Panasonic Lumix S1R
Parametry: 34 mm, f/4.0, exp. 1/1600 sek., ISO 1600 Plik: JPEG, 8368 x 5584 pix, 20.68 MB |
Aparat: Panasonic Lumix S1R
Parametry: 38 mm, f/5.6, exp. 1/50 sek., ISO 3200 Plik: JPEG, 8368 x 5584 pix, 21.28 MB |
Aparat: Panasonic Lumix S1R
Parametry: 38 mm, f/5.6, exp. 1/100 sek., ISO 6400 Plik: JPEG, 8368 x 5584 pix, 21.52 MB |
Aparat: Panasonic Lumix S1R
Parametry: 24 mm, f/5.6, exp. 1/200 sek., ISO 6400 Plik: JPEG, 8368 x 5584 pix, 19.18 MB |
Aparat: Panasonic Lumix S1R
Parametry: 24 mm, f/8.0, exp. 1/200 sek., ISO 12800 Plik: JPEG, 8368 x 5584 pix, 20.96 MB |
Aparat: Panasonic Lumix S1R
Parametry: 24 mm, f/8.0, exp. 1/400 sek., ISO 25600 Plik: JPEG, 8368 x 5584 pix, 22.93 MB |
Aparat: Panasonic Lumix S1R
Parametry: 24 mm, f/8.0, exp. 1/800 sek., ISO 51200 Plik: JPEG, 8368 x 5584 pix, 23.3 MB |
Aparat: Panasonic Lumix S1R
Parametry: 35 mm, f/8.0, exp. 1/125 sek., ISO 50 Plik: JPEG, 8368 x 5584 pix, 21.35 MB |
Aparat: Panasonic Lumix S1R
Parametry: 35 mm, f/8.0, exp. 1/200 sek., ISO 100 Plik: JPEG, 8368 x 5584 pix, 21.17 MB |
Aparat: Panasonic Lumix S1R
Parametry: 35 mm, f/8.0, exp. 1/400 sek., ISO 200 Plik: JPEG, 8368 x 5584 pix, 21.45 MB |
Aparat: Panasonic Lumix S1R
Parametry: 35 mm, f/8.0, exp. 1/800 sek., ISO 400 Plik: JPEG, 8368 x 5584 pix, 20.57 MB |
Aparat: Panasonic Lumix S1R
Parametry: 35 mm, f/8.0, exp. 1/1600 sek., ISO 800 Plik: JPEG, 8368 x 5584 pix, 21.52 MB |
Aparat: Panasonic Lumix S1R
Parametry: 105 mm, f/8.0, exp. 1/100 sek., ISO 250 Plik: JPEG, 8368 x 5584 pix, 19.76 MB |
Aparat: Panasonic Lumix S1R
Parametry: 53 mm, f/9.0, exp. 1/60 sek., ISO 640 Plik: JPEG, 8368 x 5584 pix, 20.2 MB |
Aparat: Panasonic Lumix S1R
Parametry: 105 mm, f/4.0, exp. 1/320 sek., ISO 100 Plik: JPEG, 8368 x 5584 pix, 13.42 MB |
Aparat: Panasonic Lumix S1R
Parametry: 71 mm, f/4.0, exp. 1/1 sek., ISO 100 Plik: JPEG, 8368 x 5584 pix, 12.61 MB |
Aparat: Panasonic Lumix S1R
Parametry: 24 mm, f/4.0, exp. 1/1 sek., ISO 100 Plik: JPEG, 8368 x 5584 pix, 15.77 MB |
Aparat: Panasonic Lumix S1R
Parametry: 79 mm, f/8.0, exp. 1/6 sek., ISO 50 Plik: JPEG, 8368 x 5584 pix, 12.39 MB |
Aparat: Panasonic Lumix S1R
Parametry: 79 mm, f/8.0, exp. 1/13 sek., ISO 100 Plik: JPEG, 8368 x 5584 pix, 13.09 MB |
Aparat: Panasonic Lumix S1R
Parametry: 79 mm, f/8.0, exp. 1/25 sek., ISO 200 Plik: JPEG, 8368 x 5584 pix, 14.18 MB |
Aparat: Panasonic Lumix S1R
Parametry: 79 mm, f/8.0, exp. 1/50 sek., ISO 400 Plik: JPEG, 8368 x 5584 pix, 14.55 MB |
Aparat: Panasonic Lumix S1R
Parametry: 79 mm, f/8.0, exp. 1/100 sek., ISO 800 Plik: JPEG, 8368 x 5584 pix, 15.95 MB |
Aparat: Panasonic Lumix S1R
Parametry: 79 mm, f/8.0, exp. 1/200 sek., ISO 1600 Plik: JPEG, 8368 x 5584 pix, 17.19 MB |
Aparat: Panasonic Lumix S1R
Parametry: 79 mm, f/8.0, exp. 1/400 sek., ISO 3200 Plik: JPEG, 8368 x 5584 pix, 18.55 MB |
Aparat: Panasonic Lumix S1R
Parametry: 79 mm, f/8.0, exp. 1/800 sek., ISO 6400 Plik: JPEG, 8368 x 5584 pix, 18.7 MB |
Aparat: Panasonic Lumix S1R
Parametry: 79 mm, f/8.0, exp. 1/1600 sek., ISO 12800 Plik: JPEG, 8368 x 5584 pix, 20.32 MB |
Komentarz można dodać po zalogowaniu.
Zaloguj się. Jeżeli nie posiadasz jeszcze konta zarejestruj się.
Bardzo ładne wyniki przy wysokim ISO;
obiektyw też ładnie rysuje (jak na zoom)
Test wkrótce ??
Właśnie, właśnie - kiedy test?! :)
Jakoś tak dziwnie ten Panas bardziej mnie kręci od bezluster N i C....
Na moje oko, to szału nie ma.
Z niecierpliwością czekam na test, może wyjdzie, że jednak jest? ;-)
Piękne wyniki matrycy (iso, dynamika tonalna). Świetne kolory (dla mnie fajniejsze niż u Canona).
Super 50x jpg, ani 1 RAWa, nie mozna. Droga Redakcja - prosze o nieco wspolczesne podejscie do tematu.
Witam
Czekam z niecierpliwością na test ..... body oraz obiektywu
zapowiada się bardzo ciekawie i konkurencyjnie
Pozdrawiam serdecznie
Kolory jakieś nieciekawe, może taka pora roku, ISO 6400 też takie sobie, ciekawe co wyjdzie w teście.
A może by tak zastrajkować na nowe body Lumixa? Nie jestem belfrem. Mam szansę na podwyżkę przed wyborami? :O
Kolejna nic nowego niewnosząca ,,cyfra'' jeśli chodzi o obrazowanie.
Nadal jest płasko, bardzo płasko z kolorem jak z kompaktów, różnica miedzy APSC tylko w bardzo płytkiej głębi ostrości.
Canon i Nikon kompletnie nie mają się czego obawiać - taka prawda.
Kolory mdłe i kontrast jakby był nawet ustawiony na minus.
wyglada to znakomicie.
panasonik potrafi budowac aparaty fotograficzne.
cena jest zachecajaca.
@saturn: co tam się wyrabia na Saturnie? ;)
Ale brzydkie te foty. I to ma być ładna pogoda? Nie kupię tej puszki.
No dobra... Jeśli faktycznie będę zmuszony wejść w FF to jak dla mnie jedyny wybór.
Czekałem na ten aparat, jednak zdecydowałem się na Nikona Z6. Jakość porównywalna, ciężko powiedzieć który generuje lepsze zdjęcia. Nikon lżejszy no i AF gdy potrzebny mniej zawodzi w wideo. Cena Panasonica wyższa. Może jakby szybciej był dostępny ten aparat do testów to bym się zastanowił, jednak ta waga, uważam to za największy minus tego aparatu.
@saturn napisał :
"Kolejna nic nowego niewnosząca ,,cyfra'' jeśli chodzi o obrazowanie.
Nadal jest płasko, bardzo płasko z kolorem jak z kompaktów, różnica miedzy APSC tylko w bardzo płytkiej głębi ostrości.
Canon i Nikon kompletnie nie mają się czego obawiać - taka prawda."
To są jpg, a ich kolorystyka zależy od danego presetu i innych ustawień aparatu !
Równie dobrze mogły tu się pojawić zdjęcia B&W prosto z puszki.
Moim zdaniem jest bardzo dobrze. Wysokie czułości takie jak ISO 6400 bardzo ładnie się prezentują.
@Arek pewnie że jest dobrze, jednak jakość do konkurencji podobna, w związku z czym o zakupie wybranej marki zdecyduje dostępność szklarni, ergonomia, jak również cena :)
Mnie zawsze bawi jak ludzi komentują puszki po zdjęciach testowych na Optycznie :-) jedyne co realnie można sprawdzić przy Arkowych ustawieniach, to czy ostro oraz jakie szumy daje silnik JPG. W realu nikt nie pracuje na tak ustawionej puszce. Mdłe kolory :D. Czad Arek weź zrób im jakąś fotę pentaxem K1 lub K1 II w trybie FLAT :D tam dopiero są mdłe kolory :D będą mieli na co narzekać.
@Arek
@Redakcja
@Hamlet7
" Może jakby szybciej był dostępny ten aparat do testów to bym się zastanowił, jednak ta waga, uważam to za największy minus tego aparatu. "
No właśnie ja tego też nie rozumiem.
Firmy jak Canon, Nikon, Sony, Panasonic powinno im zależeć na szybkich testach swoich aparatów. Aparaty powinni mieć recenzenci na miesiąc przed premierą.
Tak się robi np z grami komputerowymi. Recenzenci dostają "promo code" pozwalający recenzentowi zagrać w grę np miesiąc przed premierą.
I w dniu premiery gry jest już jej recenzja - a nawet wcześniej.
Dlaczego tak nie jest z aparatami?
Przecież produkt nie jest kończony na dzień przed premierą. Jest gotowy na 1-2 miesiące wcześniej - właśnie po to, by trafić do sklepów oraz recenzentów.
Swoje chwalą obce albo nieosiągalne krytykują.
Homo poloniensis w całej krasie.:))
PiotrKrochmal
13 kwietnia 2019, 13:33
Mnie zawsze bawi jak ludzi komentują puszki po zdjęciach testowych na Optycznie :-) jedyne co realnie można sprawdzić przy Arkowych ustawieniach, to czy ostro oraz jakie szumy daje silnik JPG.
-------------------------------------------------------------------
to nie sa zdjecia na podstawie ktorych rzeczywiscie sprawdza sie mozliwosci aparatu. nigdy nie wyrabiam sobie opini na podstawie zdjec , szczegolnie optyki . Raczej unikam , gdyz mozna dojsc do blednych wnioskow. Ale na podstawie takich " zgrubnych" zdjec , jestes w stanie ocenic z grubsza ocenic jak aparat pracuje - dobrze , zel itp.
jesli jpegi sa wielce obiecujace , to z raw moze byc tylko lepiej.
to troche tak jakbys sobie wyrabial pojecie o figurze kobiety , jesli widzisz jej zarys przez matowa szybe. Pomiedzy babcia a mloda Laska chyba rozroznisz ?
@PiotrK - dokładnie nie wiem dla kogo są te testy bo ja nawet jak na nie zaglądam to żeby się posmiać z komentarzy ;P
PS. Użyteczność tych testów jest taka jak dawniej procedura średniego spalania podawane przez producentów samochodów - jedyne co badały to jakie NIE będzie spalanie w realnym użyciu. UE już poszła po ( trochę) rozumu do głowy w tym względzie - może i Optyczne mogły by ;)
@Pokoradlasztuki
silnik JPG wiem że jest ale osobiście nie używam :-) tak więc rozumiem podejście.
@focjusz
Mi akurat pasuje że każdy portal ma inną metodologię. Ale jak już otworzyłeś puszkę pandory:
Wiele rzeczy na optycznych w testach jest spoko. Np.: klasyczne zdjęcie skrzynki.
Co z tego że wykresy siedzą w latach 90?
Przecież nie chodzi o to aby zrobić przejrzystą platformę do porównań wyników syntetycznych jak link tylko aby można było zinterpretować tak jak testerowi w duszy gra.
Śmieszy trochę korzystanie z przestarzałego DCRAW do analizy RAW. Takie podejście daje im cudowne poczucie stabilizacji. Co z tego że przestarzałe.
No ale może Optyczne nie stać na link lub coś podobnego.
Jak mam do ekipy sentyment to robią taką ilość błędów pomiarowych że ich wyniki czytam tylko hobbistycznie. O interpretacji w postaci punktacji nawet nie wspomnę oni muszą mieć do tego jakiś generator liczb losowych :-D
A gdzie badania statyczne obiektywów?
Opinia o obiektywach po jednej sztuce.
A wystarczy zobaczyć jakie potrafią być rozrzuty w testach link
Np.: chłopakom wyszło że w Pentaksie PixelShift jest gupi prawie nie ma zysku w rozdzielczości i ilości szczegółów. No przy ich narzędziach nie ma.
Ale jakby Testerzy ściągnęli i użyli link
A co z nowym AI Adobe pod nazwą Detail Enhancer? Nic Ważny jest dcraw :)
Tak więc w spokoju oczekuje na wynik testów S1R.
Ale i tak mają najlepsze testy w Polsce ;-)
focjusz
13 kwietnia 2019, 13:53
@PiotrK - dokładnie nie wiem dla kogo są te testy
---------------------------------------
przede wszystkim to nie sa testy.
nawet tytul brzmi " zdjecia przykladowe".
ot , przyklad zdjec , to jeszcze nie test aparatu.
szum da sie ocenic , a w zwiazku z tym i mozna cos wnosic z grubsza o dynamice. rozdzielczosc na zoomie spacerowym , czyli nie obiektywie high end tez mozna oszacowac. to pozwala przypuszczac , czego sie mozna spodziewac po aparacie. Testu pewnie nalezy sie spodziewac na swieta jeszcze. pare tygodni sie wytrzyma.
system zapowiada sie b. dobrze.
wlasciwie wszystkie aparaty wspolczesne sa dobra , pytanie jest ktory z nich jest jeszcze lepszy niz pozostale. Konieczne warunki jakosci obrazowania spelniaja wszystkie.
Dajcie spokój z zachwalaniem tego bezlusterkowego monsterka:-)
Wiadomo, że liczą się RAW'y ale co z tego? Te JPG'i urwały się z drzewa?
Są wynikiem obróbki aparatu i nie zachwycają!
Pytanie do tych co im się one podobają (JPG oczywiście)
Co widzicie na tych zdjęciach czego wcześniej nie widzieliście u konkurencji ?
ISO 6400? Beznadziejne!
Zdjęcia maja totalnie usunięty szum kolorowy a co za tym idzie .... sprane, stłumione kolory na CAŁOŚCI zdjęcia, pozostawili za to sporo szumu luminacji żeby zachować szczegóły.
Serio polecam oglądać takie rzeczy na dobrym TV chociaż z 42 cale lub na większych monitorach.
Aparat będzie bił rekordy w testach - fetyszyści tabelek testowych oszaleją!
Obraz z starych już FF tj. Canon 5D MK II (no nawet MKI) czy też Nikon D700 do ISO 800 to wygląda jakbyśmy oglądali go dosłownie przez szybę i widzieli bezpośrednio co za nią jest.
A tu ? APSC w formie FF :-)
Chyba jednak Canon, Nikon czy też od jakiegoś czasu Sony z mega udana linia A7 pokazują co to znaczy doświadczenie w kwestii obrazowania.
saturn
13 kwietnia 2019, 15:03
ISO 6400? Beznadziejne!
-------------------------------------
wskaz lepsze tak robione zdjecie, czyli na odszumianiu 0.
@saturn: to musi być fajne uwierzyć w legendę własnego autorstwa :)
Ale to model przedprodukcyjny, i tworzenie jpg sie zmieni, przeciez to obrobka programowa, poza tym domyslne wyostrzanie i kolory to rzecz wzgledna, moze Panasonic poszedl tu delikatnie, a nie jak Sony, i nie ma podbijania ostrosci czy kolorow.
Zdjecia wygladaja poprawnie, a co sie z nich da wyciagnac, to moim zdaniem jeszcze nie wiadomo.
To nie jest model przedprodukcyjny.
Gdyby cała konkurencja robiła aparaty zdolne do wykonywania takich zdjęć, Nikon mógłby nadal produkować swojego D800 i nadal byłby to najlepszy aparat. Ten Panasonic gubi szczegóły już od ISO 800 a przy wyższych czułościach obraz staje się paskudnie brzydki. Akumulator będzie pewnie starczał na 250 - 300 zdjęć, autofocus w trybie ciągłym wystarczy do śledzenia co szybszych ślimaków a waga aparatu zdaje się przegoniła już nawet profesjonalne lustrzanki jak D850 czy D5 mkIV.
Pokazane tu JPEGi są tragiczne, ale to nie znaczy, że RAWy będą w czymś lepsze. Po takich prezentacjach w Canonie, Nikonie i Sony odetchnęli z ulgą.
@Legoman
Odetchnąłem z ulgą bo już obawiałem się o swój wzrok.
Najwyraźniej nowe FF to już nie tylko kwestia sprzętu ale stan umysłu paraliżujący obiektywizm.
Bardzo fajny aparat. Super wizjer Sony :) Fajne sterowanie.
Słaby punkt: autofokus.
@Szabla - a co w nim takiego fajnego ? Ten słaby autofocus ? A może kiepska matryca albo wizjer zżerający prąd jak Amerykanin hamburgery ? Waga całkowicie zbijająca argument o wygodzie użytkowania bezluster czy kilkukrotnie za mały akumulator ? Zajebisty sprzęcior, z jednym maleńkim wyjątkiem - jakby ktoś chciał nim robić zdjęcia to średnio się do tego nadaje. Nie ma co czepiać się tych wszystkich szczegółów skoro w środku jest wizjer od Sony - to natychmiast katapultuje ten panasonikowy eksperyment na szczyt fotograficznego prestiżu i użyteczności. Zdaje się, że to nie saturnowi własne legendy całkowicie uniemożliwiają trzeźwy ogląd sytuacji. Jak się za długo w czymś siedzie to faktycznie zaczyna się wierzyć we własne bajki.
Słabe te jotpegi. Ale może rawy będą lepsze. Może.
A tak przy okazji - czy to ten system w którym 1.4/50 będzie za 11000PLN?
Czytając to forum odnoszę wrażenie, że każdy widzi inaczej (rzekome gubienie szczegółów od ISO800...). Ale to dobrze. Może dlatego mamy na rynku tyle niedopracowanych aparatów, na które i tak znajdują się nabywcy.
@Legoman: chyba rzeczywiście za dużo LEGO....
thorgal
14 kwietnia 2019, 00:07
Słabe te jotpegi. Ale może rawy będą lepsze.
---------------
mozesz zdradzic jak to robisz , ze widzisz rawy ?
Legoman
13 kwietnia 2019, 20:02
Gdyby cała konkurencja robiła aparaty zdolne do wykonywania takich zdjęć, Nikon mógłby nadal produkować swojego D800 i nadal byłby to najlepszy aparat. Ten Panasonic gubi szczegóły już od ISO 800
------------
przyrownywalem do a7r3 - zdjecia z optycznech na 6400 iso.
w zakresie szumu - porownywanie , na jednym zdjeciu wydaje sie ze S1 moze ciut lepszy , na innym ze A7. Trudno jest znalezc porownywalne zdjecia . Nawet zdjecia butelek sa nieporownywalne , gdyz te z A7 zostaly naswietlone obficiej , co prowadzi do obnizenia szumu i poprawy obrazu
ale to co widac natychmiast. Obiektyw panasonika to spacerowy zoom 24-105 o niewysrubowanej rozdzielczoci . widac " plackowatosc" ktora jest wynikiem ograniczonej rozdzielczosci. W a7 to apo-lanthar - stalka z gornej polki - wiec to trzebaby uwzglednic. Biorac to pod uwage , oceniajac zdjecia w srodku , odnosze wrazenie ze ten Panasonic nie jest gorszy od A7r3 na 6400 iso.
(z lekkim wskazaniem raczej na a7 , ale to najprowdopodbniej zasluga obiektywu ) . Nie mam watpliwosci - aparat dajacy zdjecia na akualnie dostepnym poziomie.
nie wiem jak w pozostalych czulosciach , gdyz nie ogladalem.
Zapowiada sie znakomity system.
Poltykae cenowa mozna chyba przewidziec . Poniewaz to body nie jest szczegolnie drogie , a firma musi swoje zarobic , wiec pewnie bedzie markowa optyka droga , ale mezalians z sigma sprawia , iz dostepna jest szeroka optyki sigmy za niewygorowana cene.
slowem - jest b. dobrze. Aparat ktorym mozna wygrac najwazniejsze konkursy swiatowe, trafic do historii sztuki fotograficznej. Jesil ktos tego nie zrobi , niech nie wini za to aparatu.
Całe szczęście, ze inni też dostrzegają te kiepskie kolory, bo już miałem powtórnie profilować monitor ;-)
@Pokoradlasztuki: konkursy można wygrywać każdym aparatem.
waldi72
14 kwietnia 2019, 08:15
Całe szczęście, ze inni też dostrzegają te kiepskie kolory, bo już miałem powtórnie profilować monitor ;-)
--------------------------------
najciekawsze jest to, ze zapis obrazu jest zawsze czarno - bialy . kolor jest wyliczany. Raw jest cz.-b.
na jednym ze zdjec robionych akurat w sloncu kolor oceniam jako prawidlowy , neutralny. Panasonik mial zawsze tendencje do kolorystyki w jpg neutralnej w kierunku zimnej.
Nie znajduje czegos tutaj nadzwyczaj nieprzyjemnego.
biorac poprawke na ponura pogode jest lepiej niz w niejednym aparacie.
Szabla
14 kwietnia 2019, 08:59
@Pokoradlasztuki: konkursy można wygrywać każdym aparatem.
--------
slabej baletnicy beda przeszkadzac pantofle w tancu.
jak na razie nikt nie wskazal zdjec z innych aparatow lepszych na 6400 iso , choc te zdeniem niektorych sa paskudne.
to co wszystkie aparaty daja padkudny obraz ?
Czemu akurat ISO 6400, a nie ISO 64? :)
Czy jest możliwe, że te zdjęcia są niedoświetlone? Aparat nie doświetla, a potem ciągnie w JPG w górę i stąd te mętne kolory? Mam Panasonica 4/3 i jestem zdziwiony, bo mój stary aparat ma lepsze kolory w JPG niż ten.
@ Pokoradlasztuki
Obraz jest czarno biały, ale każda firma ma własną recepturę na filtry RGB na matrycy i potem ich interpretację. Nie wiadomo jak te szkiełka się zachowują i jak przepuszczają przy różnych długościach fali światła.
Obraz nie jest cz-b ! Nie piszcie głupot...każdy piksel ma nałożony filtr barwny więc to co zapisuje do Raw to natężenie składowej barwnej zależnej od filtra. Czarno-białe Rawy zapisuje Monochrome od Leici , który jest ślepy na kolor.
Tornvald
14 kwietnia 2019, 10:43
Obraz nie jest cz-b ! Nie piszcie głupot...każdy piksel ma nałożony filtr barwny więc to co zapisuje do Raw to natężenie składowej barwnej zależnej od filtra. Czarno-białe Rawy zapisuje Monochrome od Leici , który jest ślepy na kolor.
-----------------
raw nie ma przypisanej zadnej przestrzeni barwnej.
zapisywany jest tylko jeden wymiar - natezenie oswietlenia - czyli jasniej , ciemniej .
dopiero poprzez interpolacje i pomiar fluktuacji jasnosci na sasiednich pixelach udaje sie interpolowac pozostale brakujace wartosci RGB w punkcie.
Kolor musi zostac wyliczony , nie jest zapisany wprost w rawie. Jakosc tego koloru jest wynikiem obliczen a to co widzisz na obrazie jest skutkiem jakosci oddania barwy przez urzadzenie wyjscia. W rawie masz zapisane tylko numerki i to binarne, opisujace tylko i wylacznie jasnosc.
Przypisanie przestrzeni barwnej nastepuje pozniej.
oczywiscie mozna dyskutowac , czy to jest kolor czy nie. Na podstawie roznic fluktuacji sasiednich pixeli mozna wyliczyc kolor . Jakosc koloru zalezy od tego wyliczenia - to ma decydujace znaczenie , jesli poslugiwac sie matrycami tej samej technologii.
nie ma zadnego znaczenia jaki balans bieli nastawimy w aparacie . to jest tylko informacja dla komputera aparatu jak wyliczyc kolory z raw. A mozna niemal dowolnie. Zastrzezenia na temat oddania koloru swiadcza o nieznajomosci zasad calego procesu powstania koloru.
Gdyby nie było w tych danych informacji barwnej to nie można by było jej wyliczyć jak ma to miejsce w przypadku matrycy monochromatycznej. To, że nie jest ona zapisana wprost nie znaczy,że Raw jest monochromatyczny. A to,że sposób oddania koloru w znacznej mierze zależy od obróbki jest prawdą. Stąd dziwią mnie komentarze o kiepskich kolorach po tych pary jpg'ach.
Zaczyna się...
@Pokoradlasztuki
Nie masz racji.
Obraz w RAW nie jest czarno biały - nie posiada zapisanej składowej luminacji.
Każdy piksel posiada jedną skłądową - R albo G albo B.
A potem jest interpolacja by wyznaczyć pozostałe.
Ale zdjęcie czarnobiałe jakbyś chciał uzyskać to nie nie uzyskasz go bezpośrednio z rawa - musisz i tak zrobić demozaikowanie.
Widziałeś kiedyś gołego rawa? Tam masz mozaikę - nawet jak tą mozaike wyświetlisz nie jako RGB, tylko samą jasność to i tak jest mozaika - tylko, że czarno biała. Bo to nie jest to samo co obraz czarnobiały. Piksele nie zawierają luminacji.
Luminancje dopiero wyliczyć możesz z RGB, gdy już policzysz RGB z jednej składowej.
mgkiler
14 kwietnia 2019, 13:40
Obraz w RAW nie jest czarno biały - nie posiada zapisanej składowej luminacji. .
....
....
Widziałeś kiedyś gołego rawa? Tam masz mozaikę - nawet jak tą mozaike wyświetlisz nie jako RGB, tylko samą jasność to i tak jest mozaika - tylko, że czarno biała.
---------------------------------------
:-))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))))
mam zawsze duzy Problem zeby zrozumiec ludzi , ktorzy nie bardzo rozumieja o czym pisza. O co im moze chodzic?
Szabla
14 kwietnia 2019, 13:16
Zaczyna się...
---------------------------
jeszcze sie nie zaczelo a juz sie skonczylo ...
Szabla
14 kwietnia 2019, 09:53
Czemu akurat ISO 6400, a nie ISO 64? :)
--------------------------------------------------------------
dlatego , ze akurat ktos ( Saturn ? ) napisal , ze obraz na 6400 iso jest beznadziejny.
tylko, ze jak na razie nikt nie pokazal obrazu robionego na tej czulosci lepszego.
@Pokoradlasztuki:
To Ty nie wiesz.
Proszę. Tak wyglądałby Raw gdybyś go nie zdemozaikował a wyświetlił składowe tam zapisane jako składowa luminancji:
link
Widzisz mozaikę?
Czy ten obraz według Ciebie jest czarnobiały?
No nie bardzo... To jest czarno biała mozaika, a nie obraz jaki być powinien.
Nigdzie w raw nie masz składowej luminacji a jedynie składowe R albo G albo B i wyświetlenie tych składowych jako luminancja nie da Ci obrazu czarnobiałego... tylko taką czarnobiałą-szachownicę jak w linku co Ci wysłałem.
Luminancja zależy od 3 składowych a nie od jednej.
@Pokoradlasztuki:
To, że coś ma jedną składową nie oznacza, że zawiera obraz czarnobiały...
Po za tym to wymaga podstawowej wyobraźni jedynie.
Fotografujesz czerwonego tulipana. Piksele, które mają filtr G i B mają wartość 0. Te co mają składową R mają wartości powiedzmy około 160-220. Czy widzisz, że tylko co czwarty piksel ma wartość różną od 0? Czy tak powinien wyglądać obraz czarnobiały?
Podstawowa matematyka i podstawowa wyobraźnia wystarczy.
To, ze coś ma 1 składową to nie znaczy odrazu, że czarnobiały obraz. Równie dobrze obraz mógłby mieć filtr niebieski nałożony na cały kadr i rejestrował by tylko składową niebieską - i nie byłby to czarnobiały obraz.
Albo filtr podczerwony, czy jakiś termiczny i dalej nie miało by to związku nic z czarno białą fotografią.
Tornvald
14 kwietnia 2019, 11:23
Gdyby nie było w tych danych informacji barwnej to nie można by było jej wyliczyć jak ma to miejsce w przypadku matrycy monochromatycznej. To, że nie jest ona zapisana wprost nie znaczy,że Raw jest monochromatyczny
-----------------------
masz racje, zgadzam sie w pelni.
raw nie ma przypisanej zadnej przestrzeni kolorystycznej.
tzn sam raw nie ma zapisanego koloru.
jest tylko zapisany jeden wymiar - jasnosci zwanej luminancja.
dopiero po zdefiniowaniu przestrzeni barwnej mozna ten kolor wyliczyc.
Przydzielenie przestrzeni barwnej jest od raw niezaleznie . Przestrzen nie wynika jednoznacznie z zapisu raw , tzn uzyskany kolor nie wynika jednoznacznie z tego co w nim jest zapisane. Dopoki kolor nie wynika jednoznacznie z zapisu , dotad trudno jest mowic o "zapisanym kolorze "
To jest inaczej niz np przezrocze - po wywolaniu mamy okreslona barwe , jesli popsuta - nie porawimy.
Tutaj sa zapisane pewne dane zrodlowe , z ktorych mozna kolor praktycznie dowolnie wyliczyc , dlatego sam zapis raw nie przesadza o jakosci koloru.
jest zapisany tylko jeden parametr jasniej - ciemniej.
poprostu zapis raw nie przesadza o tym jednoznacznie jaki bedzie kolor.
zreszta znamy to z praktyki , ze rozne wolarki raw daja rozne wyniki.
Dlatego ocena , ze kolor jest brzydki , aczkolwiek sie z nia nie zgadzam , nie jest wartosciowa , dlatego ze kolor ustawiamy praktycznie dowolnie.
To tak jakby ktos narzekal na piec grzewczy , ze uszkodzony gdyz mieszkanie niedogrzane , majac nastawiony termostat na 15 stopni.
Znajac panasonika nie oczekuje brzydkich niespodzianek w zakresie mozliwosci odtworzenia koloru.
mgkiler
14 kwietnia 2019, 15:27
@Pokoradlasztuki:
To, że coś ma jedną składową nie oznacza, że zawiera obraz czarnobiały...
----------------------
no pewnie, ze nie - zostaje zapisany tylko jeden wymiar luminancji pomiedzy 0 a 2^n , gdzie n to ilosc bitow przetwornika A/D
tak sie sklada, ze wartosc 0 nazywa sie w fotografi cyfrowej czernia , a wartosc maksymalna Biela.
jesli przypuszczasz , ze mam na mysli np cos takiego:
link
to zazdroszcze wyobrazni. kazdy by chcial miec taka .
Zabawka jest swietna, mialem okazje testowac... Szkla tez super. Niewiadoma to autofokus.
Czy matryca WIDZI kolor?
kiedyś była taka głupia dyskusja.
W sumie problemu by nie było jakby zamiast słowa "widzi" użyć słowo "rejestruje".
Bo "widzi" to bardzo nie precyzyjne słowo. Widzieć może istota świadoma, a to nie jest temat tego forum. "Rejestruje" jest lepszym słowem.
@mgkiler
Ja cię proszę, nie używaj pojęć, których nie rozumiesz. Szczegóły poniżej.
"Obraz w RAW nie jest czarno biały - nie posiada zapisanej składowej luminacji"
Że co? Przecież matryca rejestruje wyłącznie luminancję.
"Widziałeś kiedyś gołego rawa? Tam masz mozaikę"
Jaką znowu mozaikę? Chodzi ci o matrycę składającą się z kwadratów czy o co?
"Bo to nie jest to samo co obraz czarnobiały. Piksele nie zawierają luminacji."
Dobra, długich wykładów nie chce mi się robić, więc po krótce.
Zarówno matryca cz-b jak i kolorowa (oba te określenia to mocne uproszczenie) rejestrują (na poziomie sensela) generalnie to samo, natężenie oświetlenia (czyli właśnie luminancję), z tą różnicą że matryca cz-b rejestruje w obszarze jednego sensela pełne pasmo widzialne, a matryca kolorowa tylko jego wycinek.
Jeżeli otworzymy rawy bez demozaikowania, to zarówno z cz-b jak i kolorowej będą monochromatyczne, jednak ten z matrycy kolorowej będzie "fałszywy" ze względu na wspomnianą wcześniej rejestrację tylko wycinka pasma ,dlatego na etapie wołania rawa z matrycy kolorowej następuje demozaikowanie, czyli wyliczenie koloru na podstawie wartości sąsiednich pikseli. Dla matryc cz-b oczywiście nie robi się demozaikowania ze względu na fakt rejestracji pełnego widma.
"Luminancje dopiero wyliczyć możesz z RGB, gdy już policzysz RGB z jednej składowej."
Znowu jakieś dywagacje bez ładu i składu.
Te foty to szantaż dla dystrybutora? Jak zapłacą to się nie ukazują, tak?
Ja bym zapłacił xD
@Szabla - YT mnie zwiodl, zasugerowal mi filmik od DPrivew z 2 lutego, wtedy Oni mieli przedprodukcyjny, wrocilem teraz sprawdzic date - a to swinstwo ;)
Nikomu nie mozna ufac.
mgkiler
14 kwietnia 2019, 16:47
Czy matryca WIDZI kolor?
kiedyś była taka głupia dyskusja.
-----------------------------------------------------
na tak postawione pytanie trzeba powiedziec NIE.
wlasciwie trzeba powiedziec , ze swiatlo nie ma koloru.
ma dwie podstawowe cechy jesli opisac jako fale elektromagnetyczna :
czestotliwosc i Amplitude . O wlasnosciach fal mozna sobie poczytac .
Dopiero padajac na siatkowke naszego oka , w zaleznosci od czestosci odbieramy to swiatlo roznie . Nazywamy to kolorem. Zwierzta ponoc inaczej reaguja na te sama czestosc , tzn widza ten kolor ínaczej. Jak to sprawdzono to nie wiem.
Fotodioda wprawdzie ma rozna czulosc w zaleznosci od czestosci swiatla i te ceche moznaby wykorzystac do pomiaru czestosci swiatla , ale akurat w matrycach tak konstruowanych jak do tej pory jest to wada. Dazy sie do tego aby czulosc byla mozliwie niezmienna w calym zakresie strumienia swiatla.
Zapisywany jest w RAW tylko amplituda , czyli jasnosc , czyli LUMINANCJA.
Stopien szarosci czyli jasnosc po zdigitalizowaniu ( przypisaniu stopni , poziomu szarosci ) nazywa sie luminancja. Wbrew temu co pisales wlasnie zapisywan jest luminancja. To jeszcze nie jest chrominancja.
Moznaby dyskutowac , czy zapis w RAW pod filtrami RGB , mozna traktowac jako zapis przestrzeni trojwymiarowej. Przestrzen barwna w fotografii cyfrowej jest euklidesowska przestrzenia trojwymiarowa , moznaby ewentualnie wnosic, ze raw to zapis tez trzech wymiarow. Ale dopoki nie ma przydzielonej przestrzeni barwnej formalnie nie mozna mowic ze zapis RAW jest "barwny".
To przydzielenie koloru nastepuje pozniej dwuetapowo i jest ono formalnie niezalezne od tego co jest zapisane w raw - najpierw w trakcie interpolacji , Pozniej okreslonym w wyniku interpolacji wspolrzednym RGB zostaje przypisany kazdemu pixelkowi okreslony kolor fizyczny z tablicy LUT monitora. To jakiej jakosci kolor zobaczymy ostatecznie na ekranie , zalezy od jakosci barwy w urzadzeniu wyjscia.
Tak naprawde wczesniej to sa tylko liczby. Kolor fizyczny zostaje nadany w urzadzeniu wyjscia
Na uzytek dnia codziennego , zwyklej praktyki fotograficznej , od strony czysto pragmatycznej wydaje mi sie , ze fotograf jest blizszy prawdy , jesli rozumie , ze w raw koloru nie mozna zapisac , nie ma znaczenia jaki balans bieli nastawi w aparacie , nadanie koloru dzieje sie pozniej.
to tak jakby malarz najpierw olowkiem na plotnie szkicowal przyszly obraz olejny. Koloru jeszcze nie ma , sa tylko ksztalty. kolor mozna nadac pozniej dowolnie , niezaleznie od szkicu.
Wiedzac o tym , mamy swiadomosc , ze aparat nie przesadza ostatecznie koloru.
to juz jest OT - moje osobiste doswiadczenie w tym co fotografuje ( glownie duze zdjecia , w duzej rozdzielczosci o szerokim zakresie tonalnym przekraczajacym najczesciej DR matrycy ) .
wynik zalezy w ok 50 % od obrobki , 30 % od matrycy , 20 % od optyki.
Kazdy pojedynczy punkt obrazowy musi zostac wyliczony.
oczywiscie to Taki intuicyjny szacunek , tego wyliczyc sie nie da.
Jesli ktos robi wylacznie jpegi z aparatu - w zasadzie proporcje sa te same , tyle, ze obrobki dokonuje automat
Dazy sie do tego aby czulosc byla mozliwie niezmienna w calym zakresie strumienia swiatla.
i w calym zakresie czestosci , choc tu sie zastanawiam , czy nie lepiej jest jesli czulosc zblizona do oka ludzkiego . Nie rozstrzygam, nalezaloby sprawdzic ten aspekt dokladniej - nie pamietam dokladniej teraz , wiec nie mowie definitywnie.
Ciekawa dyskusja tak samo jak i ten aparat Panasa.
@mate:
"Jeżeli otworzymy rawy bez demozaikowania, to zarówno z cz-b jak i kolorowej będą monochromatyczne, jednak ten z matrycy kolorowej będzie "fałszywy" ze względu na wspomnianą wcześniej rejestrację tylko wycinka pasma ,dlatego na etapie wołania rawa z matrycy kolorowej następuje demozaikowanie, czyli wyliczenie koloru na podstawie wartości sąsiednich pikseli. Dla matryc cz-b oczywiście nie robi się demozaikowania ze względu na fakt rejestracji pełnego widma. "
Oczywiście, że tak i o tym właśnie pisałem.
Ale trzeba zrozumieć, że mówienie, że matryca z mozaiką RGGB rejestruje obraz czarnobiały jest błędne - zdjęciu, które ona zarejestruje NIJAK ma się do obrazu z czarnobiałej matrycy. Taka matryca rejestruje jedną składową. A dokładnie każdy piksel rejestruje albo składową R albo B albo G.
Jakbyś miał matryce ze specjalistycznym filtrem, która rejestruje tylko podczerwień - to też taki obraz mimo, że ma jedną składową nie jest czarnobiały.
Ale trzeba zrozumieć, że mówienie, że matryca z mozaiką RGGB rejestruje obraz czarnobiały jest błędne - zdjęciu, które ona zarejestruje NIJAK ma się do obrazu z czarnobiałej matrycy.
-------------------------------------
a kto pisal ze obraz jest Taki sam jak z " czarno- bialej " matrycy?
ja nie znalazlem , zeby ktos tak pisal.
moze cos przeoczylem.
mozesz wskazac.
o, nasunela mi sie fajna analogia
to jest dokladnie tak jak kiedys robiono pierwsze zdjecia barwe.
naswietlano na typowej blonie czarno bialej , ale robiono 3 zdjecia przez 3 filtry barwne .
uzyskano 3 negatywy z nich pozytywy , zawsze czarno - biale , ale kazdy z nich byl inny.
w kazdym razie nie byly to pozytywy zawierajace obraz barwny.
dopiero w rzutniku wyswietlajac te cz.-b. przezrocza przez filtry barwne uzyskano obraz kolorowy.
raw zawiera wlasnie takie 3 bezbarwne przezrocza - "czarno - biale", zawieraja tylko jeden parametr - jasnosci czyli pomiedzy czernia a Biela.
to jest wlasciwa analogia.
Powiedzenie , ze zapis jest "czrno - baly " jest jak najbardziej prawidlowe. Ale to nie oznacza , ze Taki sam jak z matryc nie majacych zapisu RGB.
Ja nie wiem jak w ogole mozna cos takiego przypuszczac ?
mkiler napisal cos , czego nikt nie napisal , a potem sam z tym dyskutuje.
A moze po prostu 1 pixel zapisuje 1 wartosc, do stworzenia koloru sa potrzebne 3 wartosci, sa one uzyskiwane ronymi metodami.
jedna wartosc , ale to moze byc luminancja lub chrominancja
w raw jest zapisana luminancja , czyli stopien szarosci.
jeden wymiar jest zapisywany - szarosc.
wyswietlajac jakims edytorem surowy raw, mozesz zobaczyc obraz np zazieleniony , dlatego ze nie da sie inaczej wysweitlic obrazu na monitorze niz w ostatecznej postaci RGB, tzn ten niewywolany raw jako obraz mozna zobaczyc tylko jako obraz RGB
prawdziwy raw wyglada np tak, zanim go sprowadzimy do postaci RGB :
link
@mgkiler
"Oczywiście, że tak i o tym właśnie pisałem. "
No nie bardzo, ale już mniejsza o większość.
"Ale trzeba zrozumieć, że mówienie, że matryca z mozaiką RGGB rejestruje obraz czarnobiały jest błędne"
Generalnie mówienie, że matryca rejestruje obraz w jakiejś przestrzeni barwnej jest błędne. Matryca rejestruje natężenie promieniowania elektromagnetycznego (luminancję), które jako takie z natury nie ma barwy/koloru. Barwa to wrażenie powstające w ludzkim mózgu.
Natomiast prosta reprezentacja graficzna (bez demozaikowania) danych z matrycy RGGB jest achromatyczna, dokładnie tak jak z matrycy bez filtra kolorów podstawowych (czyt. cz-b).
"A dokładnie każdy piksel rejestruje albo składową R albo B albo G. "
RGB to jest tylko jedna z przestrzeni barw, to co faktycznie zarejestruje matryca zależy od zestrojenia filtrów przed nią i nie musi to być RGB, ponoć P30 Pro ma RGY.
"Jakbyś miał matryce ze specjalistycznym filtrem, która rejestruje tylko podczerwień - to też taki obraz mimo, że ma jedną składową nie jest czarnobiały."
Zlituj się i nie pisz takich bzdur. Oczywiście, że obraz z kanału NIR też będzie achromatyczny.
Nie wiedziałem ze na optyczne mamy aż tylu spamerów :D
Poszlibyście zrobić jakieś dobre zdjęcia, no chyba, że tylko potraficie teoretyzować, tak więc się nie czepiam, siedźcie sobie tutaj ;)
Wystarczyłoby, aby przyjechali na Festiwal lub Zlot :)
Taki baron13 mógłby wreszcie zobaczyć, jak wygląda rzeczywistość ;)
Rzeczywistosc wygląda tak ,ze sa zwolennicy pewnej firmy , którzy naginają czasoprzestrzeń np czasem z ciekawości wracam do opisów sprzętu analogowego i było takie porównanie aparatów Minolta 9 , Canon 3 i nikon F5 wyszło n a to ze minolta najlepsza , dlaczego ..? Bo miała 3 punkty AF a Nikon 5 punktów , Canon 45 i te trzy punkty łatwiej kontrolować ;
Ilość punktów AF nie świadczy o klasie aparatu. Jeżeli Minolta gdzieś wygrała (dziwne), to nie z powodu ilości punktów AF.
Raczej nie chodzi o wygraną tylko o to ze jednak zwolennicy jakiegoś systemu szybko zapominają co pisali wcześniej oczywiscie każdy tak ma
Kto pisał i gdzie?
@Pokoradlasztuki
Pisałeś, że matryca rejestruje obraz czarnobiały.
NIE REJESTRUJE.
To co rejestruje nie jest obrazem czarnobiałym. To, że ma jedną składową każdy piksel nie oznacza, że to obraz czarnobiały.
A że ty sobie tą składową na komputerze wyświetlisz jako czarnobiały to twoja sprawa. Obraz z kamery termowizyjnej też można wyświetlić jako czarnobiały, ale kamera nie rejestruje obrazu czarnobiałego.
Obraz RGB też możesz sobie w photoshopie rozbić na 3 obrazki - dla każdej składowej R, G i B dostaniesz 3 obrazy "czarnobiałe", ale to, że Ci program komputerowy prezentuje składową R w odcieniach szarości to taka prezentacja danych po prostu. Nie znaczy to, że te dane reprezentują obraz czarnobiały.
@Pokoradlasztuki
ciąg dalszy
"w raw jest zapisana luminancja , czyli stopien szarosci."
Jak może być zapisany stopień szarości jak już masz filtr przed pikselem, który zaburza Ci tą szarość.
W pikselu jest zapisana INTENSYWNOŚĆ. A czego to intensywność to zależy jaki filtr jest przed pikselem - tyle.
I tak jak pisałem w poście wyżej. To, że twój komputer może wyświetlić tą wartość na ekranie jako odcień szarości to nie znaczy, że tam jest zapisany odcień szarości.
Ja Ci sam napisze program, który wyświetli dane z Raw w odcieniach czerwonego. 0 to będzie czarny, a max wartość to będzie 255,0,0 - może być?
Czy wtedy powiesz, że raw trzyma odcienie czerwonego?
Zlituj się. To jak CI program zaprezentuje dane na monitorze to indywidualna sprawa programisty.
Przyjęło się dane o 1 wymiarze prezentować jako czarnoabiałe, co nie znaczy, że reprezentują one wartości luminancji.
@Pokoradlasztuki
ciąg dalszy 2
A prawdziwą luminancję by dostać musiałbyś zdemozaikować i wyliczyć ze wzoru:
L = 0.3 * R + 0.59 * G + 0.11 * B
każdy piksel trzyma intensywność jednej z tych zmiennych R albo G, albo B, bo taki posiada filtr.
szabla
nie pamiętam nazwiska autora - artykuł w Pozytywie
mgkiler
ma rację gdyby to nie było RGb tylko Lab to byłby tam stopien szarosci i jakas paleta barw
Mate
Tez ma racje po dogłębnym przemyśleniu , podobno były w czasach analogów podbnie działające emulsje jak obecne fuji trans ;
SKkamil: raczej Foto Pozytyw, bo Pozytywu był tylko jeden numer. Mam gdzieś test porównawczy z tego okresu, ale muszę go znaleźć.
mgkiler
15 kwietnia 2019, 23:16
@Pokoradlasztuki
ciąg dalszy 2
A prawdziwą luminancję by dostać musiałbyś zdemozaikować i wyliczyć ze wzoru:
L = 0.3 * R + 0.59 * G + 0.11 * B
każdy piksel trzyma intensywność jednej z tych zmiennych R albo G, albo B, bo taki posiada filtr.
---------
no to mamy problem natury zasadniczej
1. Pokaz mi zdanie , w ktorym napisalem " ze matryca rejestruje".
Dokladnie mowiac matryca niczego nie rejestruje , w ogole nie rejestruje.
Najpierw wymyslisz i napiszesz cos blednego , a potem z tym sam polemizujesz . ze to zle. Przypisujesz bledna wypowidz kumus i zaczynasz z ta osoba sdyskusje.
matryca przetwarza jakas cecha fizykalna w postaci sygnalu ciaglego na inna ceche fizyklana w postaci dyskretnej. U nas strumienia swiatla wynikajacego z natezenia oswietlenia na natezenie prudu .
Ale to formalizm , przyjmijmy ze slowo " rejestruje" jest pewnego rodzaju agregatem pojeciowym. Na takie dyskusje czy mozna , czy nie go zastosowac , cignace sie pare dni sie nie zapisuje.
( tym bardziej ze wlasnie dostalem film od jednego z zalogi i pakuje sie do dlaszego ciagu gdyz warunki zapowiadaja sie wysmienite - w sam raz na poczatek sezonu letniego link )
dyskusja czy mozna uzyc slowa czarno - bialy czy nie , specjalnie odkrywcza nie jest i powiedzialbym bardziej na forum lingwistyczne.
Matryca reaguje tylko na jasnosc czyli mowiac potocznie czern - biel , nie rozroznia koloru. Regauje tylko na zmiany amplitudy swiatla , nie reaguje zmianami natezenia pradu na zmiane czestosci swiatla. w tym sensie moze byc w raw zapisana tylko jasnosc . czyli jest to zapis tego co w potocznym znaczeniu nazywamy jasno- ciemnej , czyl cz-b. NIe osmieibym sie twierdzic ze zmian tylko jasnosci w sensie potocznym nie mozna nazwac zmanami w zakresie cz-b.
Napisalem o zapisie w raw " cz.-b" to prawda , dlatego ze wydawalo mi sie slowo "amplituda " jest zbyt trudne a nie chcailem wyjasnisc co to jest amplituda , co czestotiwosc , czym jest faza , ksztalt fali plaskiej , . I chyba mialem racje.
jak moglby wygladac czastkowy obraz ( zwany wyciagiem) w raw mozna sobie przyblizyc , ogladajac w pS obraz rgb , oddzielnie kazdy kanal.
sam raw to cos np w takiej formie :
link
juz wyjasniam.
2. w naturze i jej naukowym opisie np w fizyce mozna dodawac tylko te same wielkosci fizyczne. NIe mozna dodac temperatury do sily , napiecia pradu do natezenia , cisnienia do dlugosci itp. Cos takiego nie jest w naturze mozliwe. Natura nie dodaje temperatury wody do cisnienia powietrza albo ladunku elektrycznego zawartego w blyskawicy do odleglosci miedzy dwiema rzekami.
jesil przytoczyles formule jak wyzej i jest ona suma jakis skladnikow , to kazdy ze skladnikow musi byc tym samym.
jesli wynik jest luminancja , to kazda skladowa tez musi byc luminancja. Musi miec ten sam wymiar.
to co przytoczyles to wzor wedlug ktorego wylicza sie skladowa jasnosci czyli luminancje calkowitego sygnalu. te skladowe czastkowe to tez luminancja , tyle ze dla kazdego kanalu oddzielnie i ta wartosci luminacj czastkowej sa zapisywane w raw.
w raw zapisane sa skladowe czastkowe.
te skladowe czastowe sa zapisem jasnosci , ktora nazywa ie luminancja takze . W fotografii cyfrowej ta luminacja to odpowiedni stopien szarosci
np 220 jest luminancja , odpowiada ona jakiejs tam luminancji czyli jasnosci wystepujacej w naturze.
stopien szarosci czyli jasnosc po zdigitalizowaniu nazywa sie czy chcesz czy nie luminancja . Ogolnie luminancja to cos odbierane przez nas jako jasnosc.
link
mgkiler
15 kwietnia 2019, 23:11
@Pokoradlasztuki
ciąg dalszy
"w raw jest zapisana luminancja , czyli stopien szarosci."
Jak może być zapisany stopień szarości jak już masz filtr przed pikselem, który zaburza Ci tą szarość.
----------------
matryca "widzi" jak daltonista.
w wyidealizowym przypadku w raw sa zapisane takie 3 obrazy , sprytnie przesuniete wzgledem sienie:
link
link
link
po zdemozaikowaniu , zdefiniowaniu przestreni RGB i nalozeniu filtru barwnego jestesmy w przestrzeni RGB
i mozemy zobaczyc cos takiego:
link
na tej zasadzie dziala zapisanie obrazow w raw.
te szczatkowe maja tylko szarosc.
Pokora dzięki!!
Do jakiego zakresu długości fali filtry przed matrycą wycinają pasmo?
Pozdrawiam
niestety , akurat tego nie mam zakodowanego w pamieci , z pewnoscia mozna odnalezc w sieci .
powinno byc waziutko.
@mgkiler
"Jak może być zapisany stopień szarości jak już masz filtr przed pikselem, który zaburza Ci tą szarość. "
Każda matryca ma jakiś filtr przed sobą, te "monochromatyczne" tez odcinają ci pasmo od dołu i góry.
Zrozum w końcu, że światło jako takie nie ma koloru, matryca rejestruje padające fotony, a różnica między sensorem mono a trichromatycznym jest taka, że sensel tej pierwszej matrycy wyłapuje fotony z zakresu np. 380-700 nm, a poszczególne sensele tej drugiej np. z zakresu 380-500 nm lub 500-600 nm. Nie ma czegoś takiego, że jedna matryca rejestruje obraz cz-b, a inna nie cz-b, obie generalnie rejestrują to samo i reprezentacja tych danych (bez demozaikowania) jest monochromatyczna.
"A prawdziwą luminancję by dostać musiałbyś zdemozaikować"
Czy nie prosiłem Cię już, abyś nie używał pojęć, których nie rozumiesz?
@Pokora
"z pewnoscia mozna odnalezc w sieci .
powinno byc waziutko."
No tak, bo wszyscy producenci chwalą się zestrojeniem CFA.
@mate:
Tobie chyba chodzi o to, że matryca bez filtrów widzi obraz czarnobiały - otóż nie.
matryca do czerni i bieli też ma filtr wycinający np podczerwień.
Tak jak mówiłem. To co widzi matryca to nie jest luminancja. To co widzi matryca zależne jest od filtra jaki ma i tyle.
A, że dane są jedno wymiarowe i przyjeło się (bo tak wygodnie) reprezentować je na ekranie komputera jako czarnobiałe to inna sprawa.
Ja mogę napisać program co wyświetla tą pojedynczą składową z rawa z przed demozaikowania w odcieniach czerwonego zamiast w odcieniach szarości. Czy to znaczy, że raw będzie mieć wtedy odcień czerwonego? no nie.
To czym są dane w raw, a jak je pokazują programy komputerowe to dwie rożne rzeczy.
Przykład z obrazem z kamery termowizyjnej - też przyjeło się pokazywać dane z takiej kamery jako czarnobiałe, mimo, że nie jest to prawdziwy czarnobiały obraz - nie ma luminancji. Równie dobrze można by takie dane wyświetlić na zielono, czy niebiesko.
@Pokoradlasztuki:
OK.
Racja, że dyskutujemy już o nazewnictwo.
Dobra. Chyba się rozumiemy :) Peace.
@SKkamil: znalazłem test porównawczy Dynax 9 i EOS-3 w Foto-Kurierze 10/99 pióra Pawła Baldwina. Wyszedł mu remis, a przy AF napisał "Układ AF Canona jest znacznie bardziej zaawansowany, ale minoltowski lepiej dostosowany do działania przy słabym oświetleniu i częściej bywa szybszy."
Przyczyna jest prosta. EOS-3 miał co prawda 45 czujników AF, z czego 7 krzyżowych, ale tylko środkowy działał do F4, a pozostałe do F2,8. W znacznie prostszym, 3-polowym układzie AF Minolty, krzyżowy jest tylko jeden - środkowy, ale przy obiektywach ciemniejszych niż F2,8 będzie to działać dokładnie jak w Canonie.
@mgkiler
"Tobie chyba chodzi o to, że matryca bez filtrów widzi obraz czarnobiały - otóż nie.
matryca do czerni i bieli też ma filtr wycinający np podczerwień. "
Znowu potwierdzasz, że nie potrafisz przeczytać kilku zdań ze zrozumieniem.
Pierwsze zdanie z mojej wypowiedzi, na którą odpowiadasz i którą negujesz:
"Każda matryca ma jakiś filtr przed sobą, te "monochromatyczne" tez odcinają ci pasmo od dołu i góry. "
"Tak jak mówiłem. To co widzi matryca to nie jest luminancja."
link
"Ja mogę napisać program co wyświetla tą pojedynczą składową z rawa z przed demozaikowania w odcieniach czerwonego zamiast w odcieniach szarości."
Dokładnie to samo można zrobić z danymi z matrycy bez CFA.
"Czy to znaczy, że raw będzie mieć wtedy odcień czerwonego? no nie. "
Czyli właśnie potwierdzasz, że dane zapisane przez matrycę mają charakter monochromatyczny.
@mate:
Jak zwał tak zwał.
Dla mnie jak ktoś mówi, że coś jest "czarnobiałe" to znaczy, że ma składową luminancji dokładnie taką jak powinna być na fotografii czarnobiałej.
A jak coś ma składową oznaczającą intensywność... promieniowania termicznego, czy natężenia dźwięku na piksel :) (a czemu nie :) ), czy czegokolwiek to dla mnie nie są to dane czarnobiałe, bo nie mają nic wspólnego z fotografią czarnobiałą.
Lepiej mówić, że są to dane jednowymiarowe, albo mają jedną składową - tyle.
A nie że czarnobiałe - nie rejestrują przecież natężenia światła białego.
Mnie sie wydaje ze tak : np pies nie widzi kolorów ale to ze nie widzi kolorów to oznacza ze ich nie rozróżnia ..? I tu psikus jeśli np mamy matrycowy pomiar swiatła jako osobny czujnik RGB to można dane te wykorzystać do pokolorowania zdjecia z matrycy czarnobiałej ; Pewnie już to robią tylko o tym nie wiemy ;
@SKkamil
"I tu psikus jeśli np mamy matrycowy pomiar swiatła jako osobny czujnik RGB to można dane te wykorzystać do pokolorowania zdjecia z matrycy czarnobiałej"
Taa... Po pierwsze czujnik nie musi kryć całego kadru, po drugie jak chcesz sensownie to zrobić np. z 86 tys. punktów (K-1) na 36 mln punktów?
"Pewnie już to robią tylko o tym nie wiemy"
A kto, po co i w jakim sprzęcie (pytam oczywiście o twoje domysły)?
mgkiler
16 kwietnia 2019, 12:17
Lepiej mówić, że są to dane jednowymiarowe, albo mają jedną składową - tyle.
A nie że czarnobiałe - nie rejestrują przecież natężenia światła białego.
-----------------
jest w poprzednich postach roznie nazywane i w miare jednoznacznie wyjasnione. Jest mowa o zapisie jednowymiarowym , jest mowa o zapisie cz.-b. jest mowa o zapisie luminancji.
watpliwosci wynikaja nie z tego jakie okreslenia zostaly uzyte , tylko z tego ze nie wiedziales co to jest luminancja. Uwazales , ze to nie luminancja jest zapisana raw.
Nie bardzo wiedziales o czym chciales pisac , o czym zreszta mozna sie natychmiast zorientowac .
we wzorze , ktory podales te wartosci RGB to jest wlasnie luminancja parcjalna , juz nie chce mi sie cofac , z tego co pamietam wartosci liczbowe sa podane dla rozdzielczosci tonalnej 8 b. Zreszta Ten wzor nie dotyczy dokladnie zapisu z rawu , gdzie zapis mamy 12 , 14 b.
SKkamil
16 kwietnia 2019, 12:33
Mnie sie wydaje ze tak : np pies nie widzi kolorów ale to ze nie widzi kolorów to oznacza ze ich nie rozróżnia ..? I tu psikus jeśli np mamy matrycowy pomiar swiatła jako osobny czujnik RGB to można dane te wykorzystać do pokolorowania zdjecia z matrycy czarnobiałej ; Pewnie już to robią tylko o tym nie wiemy ;
.......................
to dziala jak matryca zdjeciowa , nie inaczej , tyle tylko ze wymagana jest mniejsza dokladnosc i czulosc.
gdyby miec potrojne pixele , a kazda fotodioda w nim byla wykonana z innego polprzewodnika o okreslonej czulosci na waski zakres czestosci swiatla w zakresie barw dopelniajacych , to filtry RGB nie bylby potrzebne , ale i uzysk nie bylby Jakis wielki. Filtr przepuszcza z szerokiego widma swiatla odpowiednia skladowa . Na te sama skladowa bylby tez uczulony taki pixelek . Transmitancja filtra na okreslona barwe wlasna jest dosyc wysoka. Tak ze jakiegos cudu czy rewolucji nie moznaby oczekiwac.
nexsrex
16 kwietnia 2019, 09:19
Pokora dzięki!!
Do jakiego zakresu długości fali filtry przed matrycą wycinają pasmo?
Pozdrawiam
---------------------
np.:
link
Pies nie widzi kolorów, ale rozróżnia szarości.
@Szabla
"Pies nie widzi kolorów, ale rozróżnia szarości."
Dokładnie. Niektórzy ludzie też potrafią cierpieć na różne zaburzenia, jak np. monochromacja czopków, w której działa pojedynczy system receptorów (niebieskich), mimo to poza oczywiście rozróżnianiem barw, ich widzenie jest względnie normalne i też rozróżniają poziomy natężenia oświetlenia.
mate
ale czujnik to był przykład tego ze można te kolory mniej lub bardziej precyzyjnie oszacowac i podłozyc pod zdjecie czarno białe ; a po drugie skoro sigma robi warstwowe matryce to można zrobić dwuwarstwową i ta druga warstwa RGB nie tworzyła by obrazu a jedynie dawała informacje o kolorze ; Pytanie czy byłby zysk ; i czy już czegos takiego nie robią
Robi, ale szału nie ma.
Takie zycie nawet jak robi to szału czasem nie ma ;
SKkamil
16 kwietnia 2019, 20:55
ale czujnik to był przykład tego ze można te kolory mniej lub bardziej precyzyjnie oszacowac i podłozyc pod zdjecie czarno białe ; a po drugie skoro sigma robi warstwowe matryce to można zrobić dwuwarstwową i ta druga warstwa RGB nie tworzyła by obrazu a jedynie dawała informacje o kolorze ; Pytanie czy byłby zysk ; i czy już czegos takiego nie robią
----------------
odpowiedz na Twoje pytanie padla pod koniec lat 20-tych poprzedniego wieku.
na przeszkodzie stoi zasada nieoznaczonosci Heisenberga.
nie mozna pomierzyc swiatla nie oslabiajac go.
nie mozna w gornej warstwie pobrac do pomiaru calego sygnalu , gdyz trzeba pozostawic czesc dla wartwy dolnej.
aby zmierzyc swiatlo w gornej warstwie nalezy zuzyc jego czesc do pomiaru.
tzn musi ono zostac oslabione . do warstwy dolnej przeszedlby sygnal slabszy . ( newet gdybysmy przyjeli , ze wartwa gorna jest przezroczysta , pobiera tylko swiatlo do pomiaru).
czyli mielibysmy dwa pomiary na slabym sygnale.
o jakosci decyduje odstep sygnal / szum.
w obu wartwach mielibysmy szum jak zwykle a slabszy sygnal.
nie ma aktualnie bardziej sprawnego energetycznie rozwiazania niz z fitrami RGB.
Analiza spektralna widma na kazdym pixelku jest aktualnie technicznie niemozliwa. Taki spektrometr robiacy analize na jednam pixelku ma aktualnie wielkosc pudelka do butow i kosztuje paredziesiat tysiecy eu.
w foevon jest nie inaczej .
warstwa gorna oslabia swiatlo przechodzace nizej , pomiar jest robiony na slabym sygnale , stad foevon szumi bardziej od RGB.
do tego dochodzi dodatkowo absorbcja przez polprzewodnik.
zaleta foevonu - nie ma interpolacji RGB. Ale wiemy , ze daja one dobry obraz tylko na niskich ISO , czyli mocnych sygnalach.
wada interpolacji jest obnizenie rozdzielczosci , ale aktualnie nie jet ona waskim gardlem , jest wyzsza niz wystarczajaca w pryktyce codziennej.
moznaby robic dwa zdjecia jedno po drugim , jedno przez filtry RGB drugie bez , ale wiemy co to sa dwa zdjecia jedno po drugim. Cos podobnego jest juz stosowane - prowdzi to do wzrostu rozdzielczosci obrazowania , obnizenie szumu jest bez wiekszego znaczenia. Wiemy, ze da sie to stosowac tylko dla nieruchomych kadrow.
Kto wam nagadał, że pies nie widzi kolorów? Stare mity?
link
link
@SKkamil
"ale czujnik to był przykład tego ze"
Nie wiesz jak jest zbudowany i działa aparat fotograficzny. Nie po raz pierwszy zresztą.
"to można zrobić dwuwarstwową i ta druga warstwa RGB nie tworzyła by obrazu a jedynie dawała informacje o kolorze"
I pochłaniałaby znaczną część całego pasma, które chcielibyśmy zarejestrować, więc do dolnej warstwy docierałoby znacznie mniej światła.
moznaby sobie wyobrazic cos jak SLT - polprzepuszczalne lustro - czesc sygnalu idzie na matryce bez RGB , czesc na matryce z RGB.
W takim wypadku jakosc obrazowania na matrycy RGB bylaby nizsza niz w tradycyjnym rozwiazaniu , gdyz sygnal slabszy - czesc odprowadzilsmy przeciez do drugiej matrycy ..
dane wyliczone na podstawie slabszego obrazu ( a wiec zaszumione ) bylby przenoszone na obraz cz-b. W sumie lepszy obraz cz- b psulibysmy gorszym obrazem niz w klasycznej matrycy RGB. Problem w tym , ze nie wiemy na ile zmiany koloru sa spowodowane szumem, a na ile rzeczywista zmiana. Szum jest przypadkowy , nie da sie w 100 % usunac.
@Pokora
"moznaby sobie wyobrazic cos jak SLT - polprzepuszczalne lustro - czesc sygnalu idzie na matryce bez RGB , czesc na matryce z RGB."
To już chyba znacznie sensowniejsze byłoby rozwiązanie znane z kamer, czyli pryzmat i 3 matryce, tylko to by wykluczało małe gabaryty (głębokość) puszek.
@waldi72: z tego linka zasadniczo nie wynika, że psy widzą kolory. Kolorowe panele różnią się również jasnością, co łatwo sprawdzić, choćby fotografując na materiale czarno-białym. Badanie najwyraźniej robił psycholog, zamiast fizjologa :)
mate
ale gadacie głupoty matryca dwuwarstwowa nie oznacza wcale rozmieszczenia całej powierzchni pod druga ;
powiedzmy ze masz matrycę 100 mpx , 60 % komórek umieszczone wyżej czarno białe a 40 % niżej RGB w ten sposób masz powierzchnię która tworzy obraz i ta która daje kolor , dodatkowo tak jak pisałem wczesniej ,ze przewagą filmow analogowych jest często matowa powierzchnia - patrz Iliński materiały i procesy fotograficzne , uzyskiwałbys efekt matu przez taki zabieg ;
mate skupiłeś się na konstrukcji sprzętu foto a o macie zapomniałeś ;
@Skkamil
"to można zrobić dwuwarstwową i ta druga warstwa RGB nie tworzyła by obrazu a jedynie dawała informacje o kolorze"
Przecież Sigma zrobiła bardzo podobnie w Foveon X3 Quattro. Z tym, że pierwsza warstwa o wyższej rozdzielczości jest tez warstwą niebieską.
"Jak wskazuje wykres spektroskopowy, matryca Foveon X3 Quattro jest w stanie wykryć szeroki zakres długości fal świetlnych. Wpadliśmy na pomysł aby stworzyć górną warstwę / niebieską warstwę, która przechwytywałaby informacje o jaskrawości, co z kolei doprowadziło nas do utworzenia konstrukcji 1:1:4. Podczas gdy górna warstwa rejestruje zarówno jaskrawość jak i informację o kolorze, środkowa i dolna warstwa o większej powierzchni rejestrują tylko informację o kolorze. Podczas etapu przetwarzania danych obrazu, dane o jaskrawości uchwycone w górnej warstwie przekazywane są do górnej, środkowej i dolnej warstwy, dając informacje o jaskrawości i kolorze dla każdego danego piksela."
@SKkamil
"ale gadacie głupoty matryca dwuwarstwowa nie oznacza wcale rozmieszczenia całej powierzchni pod druga"
A jak inaczej to sobie wyobrażasz?
"powiedzmy ze masz matrycę 100 mpx , 60 % komórek umieszczone wyżej czarno białe a 40 % niżej RGB w ten sposób masz powierzchnię która tworzy obraz i ta która daje kolor"
I jak chcesz dla 60 mln komórek mono uzyskać pełną informację o kolorze (aby nie trzeba było interpolować) z 40 mln komórek RGB (czyli po 13 mln na składową)?
SKkamil
17 kwietnia 2019, 12:40
mate
ale gadacie głupoty matryca dwuwarstwowa nie oznacza wcale rozmieszczenia całej powierzchni pod druga ;
powiedzmy ze masz matrycę 100 mpx , 60 % komórek umieszczone wyżej czarno białe a 40 % niżej RGB w ten sposób masz powierzchnię która tworzy obraz i ta która daje kolor
-------------------------------------------
mnie zawsze wprowadza w zdumienie z jaka latwoscia na forach polskich przychodzi uczestnikom przypisywanie glupoty innym.
To tak jak facet jadacy autostrada pod prad uslyszal w radiu ostrzeznie o jadacym pod prad kierowcy. Pelen oburzenia dzwoni do radia - co to znaczy jeden ! tutaj wszyscy jada pod prad!
jesli dolne nie sa zasloniete przez gorne sensele , to je mozna od razu umiescic w tej samej plaszczyznie w olnych miejscach.
tym samym wielkosc pixeli musi byc mniejsza.
zreszta takie matryce istnieja , ze nad jednym z pixeli usunieto filtr barwny , zapisuje tylko jasnosci. pozostale RGB sa odpowiednio male , dajac tym samym gorsza jakosc obrazu.
Trudno jest znalezc lepsze rozwiazanie do filtrow RGB , dlatego ze Maja wysoka transmitancje - powyzej 90%. straty na nich sa male - przepuszczaja ponad 90% switla barwy wlasnej.
nawet jesli rozlozylbyc swiatlo w pryzmacie na skladowe , to ta barwy na ktora bylby uczulony Pixel , bylaby tylko o ok 10% intensywniejsza od tego co przechodzi przez filr RGB - uzysk zaden.
gdyby filtry rgb mialy transmitnacje dla wlsnaj barwy rzedu np 20 % - to uzysk bylby mozliwy , przy transmitancji powyzej 90% jest minimalny.
@SKkamil
"powiedzmy ze masz matrycę 100 mpx , 60 % komórek umieszczone wyżej czarno białe a 40 % niżej RGB w ten sposób masz powierzchnię która tworzy obraz i ta która daje kolor"
A co ma to dać?? I w czym ma być lepsze od Bayera i pochodnych??
Pokora sztuki
Skoro istnieja to poproszę przykład
mate czytaj ze zrozumieniem ja mówię ze obraz tworzy tylko czarno biała komórka a boczne komórki nie tworzą obrazu czyli taki obraz możesz zapisac od razu w labie ;
Ok nie sprzeczam się rozumiem ze nie miało by to sensu czyli cos takiego raczej na pewno nie powstanie , matowość powierzchni daje odbicie rozproszone natomiast gładka powierzchnia zachowuje prawo równosci kąta padania i odbicia , to mniej wiecej tak jakby porównywać wczesne materiały z kryształami T z późniejszymi np Deltami które n ie były az tak płaskie ;
@SKkamil
"mate czytaj ze zrozumieniem ja mówię ze obraz tworzy tylko czarno biała komórka a boczne komórki"
Jakie znowu boczne? Przed chwilą pisałeś o warstwowości.
Fuji serii Spro miały większe i mniejsze sensele w celu poszerzenia zakresu dynamiki.
SKkamil
17 kwietnia 2019, 13:26
Pokora sztuki
Skoro istnieja to poproszę przykład
-
popros Pdamian , z pewnoscia znajdzie link.
mnie szoda czasu.
tyle, ze to nic dac nie moze , rewolucji nie bedzie, moze Jakis tam niewielki uzysk. Ile swiatla przejal ten Pixel bez filtra , o tyle mniej dostaly pozostale sumarycznie.
musisz zrozumiec czym jest spekrtum swiatla.
pod filtrami RGB wylapujemy prawie ze 100 % odpowiedniej barwy RGB z tego Spektrum. Tego znaczaco nie mozna poprawic.
gdyby udalo sie zanaalizowac cale spectrum widma , to cos innego , ale to jest technicznie na razie niewykonalne.
wykorzystuje sie ceche swiatla , ze znajac 3 barwy mozna odtworzyc kolor i bada sie intensywnosc tych 3 barw w calym spektum. Te 3 barwy udaje sie zidentyfikowac niemal w 100%.
Jednak nie jestem pewny czy mniejsze fotodiody z matryc Fuji Super CCD SR rejestrowały tylko natężenie światła i nie miały filtra barwnego. W każdym razie wystarczy wpisać w Google "WRGB sensor" i znajdziemy masę materiałów. Poza tym na bazie Bayera powstały różne kombinacje filtrów. link
@Tornvald
"Jednak nie jestem pewny czy mniejsze fotodiody z matryc Fuji Super CCD SR rejestrowały tylko natężenie światła i nie miały filtra barwnego"
Miały filtr barwny taki sam jak sąsiadujące z nimi "duże" piksele.
link
Rozwińcie temat o Wielki Wybuch...
mate
Wszystko jedno , zrobienie matrycy która by do analoga była w miare podobna może i w teorii jest możliwe ale było by pewnie bardzo drogie ,żadna cyfra nie ma problemu z cieniami ale ma problemy ze światłami - czyli może ta super płaska powierzchnia ma na to wpływ ..? niech się baron wypowie , pewnie cos tam mu w duszy gra ;
@SKkamil
"Wszystko jedno , zrobienie matrycy która by do analoga była w miare podobna może i w teorii jest możliwe ale było by pewnie bardzo drogie"
Przecież takie matryce są od ponad 10 lat, to jest właśnie Foveon.
"żadna cyfra nie ma problemu z cieniami ale ma problemy ze światłami"
Matryce Super CCD od Fuji nie miały problemu ze światłami.
Matryce mniej upakowane też były bardziej analogowe np Canon 5 zdaniem wielu miał bardzo analogowy obrazek czyli mały piksel większa gładkosc powierzchni ; Jak mówiłem jest pewna granica po której przekroczeniu obraz jest coraz bardziej plastikowy , im powierzchnia bardziej gładka tym więcej odbic lustrzanych ;
Zdjecia z tego Panasonika wyglądają bardzo dobrze ale ocene pozostawiłbym jak się pojawi troszkę zdjeć przy różnych typach oświetlenia np kontrastowym ;
@SKkamil
"Matryce mniej upakowane też były bardziej analogowe np Canon 5 zdaniem wielu miał bardzo analogowy obrazek czyli mały piksel większa gładkosc powierzchni"
Bzdety opowiadasz i tyle.
"Jak mówiłem jest pewna granica po której przekroczeniu obraz jest coraz bardziej plastikowy"
Czyli obraz z A7r II/III (42 Mpix) jest bardziej plastikowy (pomijając już glupotę tego określenia) od A7s (12 Mpix)?
mate
Pozostane przy swojej opinii jeśli ktoś jest przzwyczajony do fotografii cyfrowej to nie będzie dostrzegał różnic , określenie jak określenie , chodzi o to ze np bardziej podobał mi się obrazek z aparatów z filtrem dolnoprzepustowym np K5 ll moim zdaniem lepszy od K 5 ll s - oceniam na przykładzie Pentaxa bo bardziej tam jestem w temacie więcej zdjęć widziałem ; cytuję Filtry dolnoprzepustowe są ważnym elementem technologii cyfrowej. Przykładowo przed zamianą sygnału analogowego na sygnał cyfrowy konieczne jest użycie filtra usuwającego z widma sygnału częstotliwości przewyższające częstotliwość Nyquista. Innym rozwiązaniem jest optyczny filtr dolnoprzepustowy, którym jest płytka z kryształu dwójłomnego znajdująca się przed przetwornikiem optoelektronicznym (np. CCD, CMOS) w cyfrowym aparacie fotograficznym. Ma ona na celu niewielkie rozmycie obrazu padającego na przetwornik, tak aby zapobiec powstawaniu efektów tzw. aliasingu ; Czyli ten kryształ dwójłomny też swoje robił . Obecnie z Pentaxów to może K3 bo nie jest odszumiany lub pierwsza wersja K1 ;
SKkamil
19 kwietnia 2019, 13:22
Matryce mniej upakowane też były bardziej analogowe np Canon 5 zdaniem wielu miał bardzo analogowy obrazek czyli mały piksel większa gładkosc powierzchni
-------------------------
je nie wiem sakd sie biora takie opinie ?
Kompletnie nie rozumiem jak mozna tak bezkrytycznie sie na nie powolywac?
przeciez Canon 5 mial wlasnie duze pixele. powierzchnia zawsze musi byc gladka , matryca przykryta jest gladka plytka ze szkla optycznego i stosowane sa warstwy przeciwodblaskowe.
matryce rysuja bardzo podobnie do analogu , lecz przezrocza.
w stosunku do procesu negatyw - pozytyw inaczej.
wynika to z tego ze " Zero expozycji matrycy " , czyli expozycja odpowiadajca naswietleniu na 18 % nie znajduje sie w srodku zakresu tonalnego . Do swiatel szczytowych mamy ok 3 ev , na lewo do glebokich cieni okolo 2 razy wiecej.
dlatego wiecej mozna rozjasniac cienie , niz sciemniac swiatla.
gdybyc niedoswietlal o 2 - 3 ev tez wyciagalbys swiatla , ale nie daloby sie wycigac az o tyle cienie.
jesli chce sie uzyskac efekt duzej rozdzielczosci tonalnej w swiatlach i obraz " analogowy" to nalezaloby sfotografowac najpierw na sensorze fotochemicznym a nastepnie sfotografowac go sensorem krzemowym .
czyli zrobic negatyw analogiem i sfotografowac oraz odwrocic cyfra.
zeby uniknac nieporozumien - pojecie " zakres" i "rozdzielczosc tonalne "uzywam w tym znaczeniu :
link
Pokora
Tylko po co tak mieszać w zeznaniach skoro kazda cyfra tak ma ? Po prostu trzeba otworzyć zdjecie zeskanowane ze slajdu i tam w światłach są widoczne jakieś elementy a w cyfrze nic tam nie ma oczywiście mówię o zastosowaniu tych samych parametrów naswietlania tej samej sceny ; Oczywiście ,żeby nie było to tylko moja opinia np mam otwarte zdjecie krajobrazowe zimowe i robione prawie pod swiatło na slajdzie i wydaje mi się ze cyfra by mniej jednak zarejestrowała w światłach
Przykładowo chcesz fotografować w technice wysokiego klucza - w studiu nie ma problemu bo stosujesz miękkie oświetlenie ale w pejzażu ..? link w cyfrze w swiatlach nic nie ma nawet dobrej cyfrze ; Wesołych świąt
SKkamil
21 kwietnia 2019, 10:59
Przykładowo chcesz fotografować w technice wysokiego klucza - w studiu nie ma problemu bo stosujesz miękkie oświetlenie ale w pejzażu ..? link w cyfrze w swiatlach nic nie ma nawet dobrej cyfrze
---------------------------------------------------------------
przeciez nie mozesz winic aparatu za to , ze oswietlenie w naturze niekoniecznie jest tak miekkie jak w Studio.
drugie primo to takie , ze w ogole zdjecie pod podanym linkiem wola o pomste do nieba i z high-key nie ma nic wspolnego.
nie za bardzo jestem w ogole zrozumiec po co podajesz Taki przyklad z czapy.
przez nieswiadomosc czy jako zart?
nie za bardzo jestem w stanie ...
Jak to przykład z czapy ? Czy reportera ktoś się pyta czy ma miękkie świato..? Tymczasem w National Geographic zawsze pracowano na slajdach i było ok ;
link
a tu masz kolego zdjecie lekko przeswietlone jakies 1/2 - ev zrobione sigmą z matryca Forevon czyli najbardziej można by rzec analogowa ;
SKkamil
25 kwietnia 2019, 22:42
Jak to przykład z czapy ? Czy reportera ktoś się pyta czy ma miękkie świato..? Tymczasem w National Geographic zawsze pracowano na slajdach i było ok ;
---------------------------------
przyznaje , ze to moja wina , ze nie potrafie zrozumiec wypowiedzi nielogicznych.
niestety mam widac jakies ograniczenie umyslowe ,ze sie nie moge przestawic i uznac sprzecznosci za rownosc.
napisales, cytuje:
"Przykładowo chcesz fotografować w technice wysokiego klucza - w studiu nie ma problemu bo stosujesz miękkie oświetlenie ale w pejzażu ..? link w cyfrze w swiatlach nic nie ma nawet dobrej cyfrze "
i odsylasz do motywu , ktory jest bardzo kontrastowo oswietlony i nie Nadaje sie z tego powodu do obrobki high-key.
to nie jest wina aparatu.
to jest zwyczajnie przeswietlone zdjecie. Scena jest oswietlona kontrastowo , nie miekko jak wspominasz
albo nie wiesz o czym piszesz , albo masz swoista logike myslenia , za ktora ja niestety nie nadazam.
sorry , to moja wina , nie jestem w stanie zrozumiec nielogicznej argumentacji.
pisalem ze " Zero " matrycy nie lezy w srodku jej zakresu tonalnego.
dlatego matryce sa bardziej tolerancyjne na niedoswietlenie niz przeswietlenia.
taka wlasnosc, akurat odwrotnie niz materialow fotochemicznych negatywowych.
Pokora
Pisac oczywiście sobie możesz o zerze czy jedynce ale fakt jest taki ,ze otwieram zdjecie zrobione na slajdzie typowo sylwetkowe oświetlone lampa wbudowaną w aparat i na tym zdjęciu jest kobieta w białej bluzce i tam w tej bieli mimo ze wydaje się mocno przeswietlona w powiększeniu coś jednak widać ;
Niech każdy kto choć troszkę oglądał zdjęć analogowych i cyfrowych to oceni moja opinia jest taka ,że lepsze efekty uzyskiwałem na prześwietlonych lekko slajdach ; Tu nie chodzi o to ,ze cyfra się nie da , często się da przy uzyciu filtrów , światła wypełniającego itp. tylko o to ze te własciwosci cyfry są jeszcze gorsze w światłach od slajdów .Wspominałem o National G i tam widziałem zdjęcia z okresu kiedy jeszcze pracowali na slajdzie ale już cyfra wchodziła i niestety np na metalicznych powierzchniach było średnio ; Dlatego też podtrzymuje opinie ,że systemy gdzie można łatwo przejść na korpus analogowy są lepsze ; Powiedziałbym nawet ze jest wiele osób które by kupiło nowego analoga ;
SKkamil
27 kwietnia 2019, 13:39
Pokora
Pisac oczywiście sobie możesz o zerze czy jedynce ale fakt jest taki ,ze otwieram zdjecie zrobione na slajdzie typowo sylwetkowe oświetlone lampa wbudowaną w aparat i na tym zdjęciu jest kobieta w białej bluzce i tam w tej bieli mimo ze wydaje się mocno przeswietlona w powiększeniu coś jednak widać ;
----------------
co znaczy otwieram zdjecie zrobionem na slajdzie ?
otwierasz czy wyswietlasz ?
jesli otwierasz na monitorze komputera , tzn ze jest to obraz elektroniczny , a wiec da sie pokazac Biel rowniez sprzetem elektronicznym.
Kwestia najpierw znajomosci zasad i poziej umiejetnosci.