Przetwarzanie danych osobowych

Nasza witryna korzysta z plików cookies

Wykorzystujemy pliki cookie do spersonalizowania treści i reklam, aby oferować funkcje społecznościowe i analizować ruch w naszej witrynie, a także do prawidłowego działania i wygodniejszej obsługi. Informacje o tym, jak korzystasz z naszej witryny, udostępniamy partnerom społecznościowym, reklamowym i analitycznym. Partnerzy mogą połączyć te informacje z innymi danymi otrzymanymi od Ciebie lub uzyskanymi podczas korzystania z ich usług i innych witryn.

Masz możliwość zmiany preferencji dotyczących ciasteczek w swojej przeglądarce internetowej. Jeśli więc nie wyrażasz zgody na zapisywanie przez nas plików cookies w twoim urządzeniu zmień ustawienia swojej przeglądarki, lub opuść naszą witrynę.

Jeżeli nie zmienisz tych ustawień i będziesz nadal korzystał z naszej witryny, będziemy przetwarzać Twoje dane zgodnie z naszą Polityką Prywatności. W dokumencie tym znajdziesz też więcej informacji na temat ustawień przeglądarki i sposobu przetwarzania twoich danych przez naszych partnerów społecznościowych, reklamowych i analitycznych.

Zgodę na wykorzystywanie przez nas plików cookies możesz cofnąć w dowolnym momencie.

Optyczne.pl

Artykuły

Sony A7R IV w naszych rękach

17 lipca 2019
Maciej Latałło Komentarze: 41
Komentarze czytelników (41)
  1. mate
    mate 17 lipca 2019, 09:49

    @Redakcja
    "U poprzednika, jego działanie polegało na wykonaniu 4 ekspozycji i złożeniu ich potem w kompozytowy obraz o podwyższonej rozdzielczości."

    Bzdura. U poprzednika rozdzielczość wyjściowa w trybie pixel shift była taka sama jak natywna matrycy, a 4 ekspozycje były składane celem uzyskania pełnej informacji RGB dla piksela wyjściowego, natomiast nie powodowały wzrostu rozdzielczości wyjściowej. Tutaj dodano 4 przesunięcia po pół piksela przy każdym przesunięciu o 1 piksel, stąd mamy 16 ekspozycji i wzrost rozdzielczości wyjściowej przy jednoczesnym składaniu RGGB.

  2. Arek
    Arek 17 lipca 2019, 09:59

    No to przecież jest podwyższona, bo każdy piksel niesie informację :) Dodam słowo "efektywnej", żeby było jasne.

  3. Szabla
    Szabla 17 lipca 2019, 10:25

    Wizjer - identyczny z tym z S1 - to Sony ECX339A link

  4. mate
    mate 17 lipca 2019, 10:42

    @Arek
    "No to przecież jest podwyższona, bo każdy piksel niesie informację :)"

    Nie filozuj, bo dobrze wiesz o co chodzi. Pixel shift w Pentaksie czy Sony (do A7r III włącznie) nie podnosił rozdzielczości wyjściowej obrazu, w przeciwieństwie do działania tego trybu w Olympusie czy Panasoniku.
    A jeżeli chcesz się bawić w semantykę, to równie dobrze można powiedzieć, że w każdej specyfikacji technicznej aparatu wprowadzacie czytelnika w błąd, bo przy pozycji "dostępne rozdzielczości" powinno być "zależnie od obiektywu oraz pozostałych czynników wpływających na przeniesienie detalu".

  5. tempor
    tempor 17 lipca 2019, 10:52

    Nie piszecie nic o obsłudze dotykiem. Jest w końcu, czy nadal tylko AF?

  6. szuu
    szuu 17 lipca 2019, 11:01

    sigma z niecierpliwością czeka na rozstrzygnięcie sporu o rozdzielczość między mate i Arkiem bo teraz nie wie jak reklamować swojego zapowiadanego foveona - 60 czy 20 mpix? ;-)

  7. Szabla
    Szabla 17 lipca 2019, 11:05

    @tempor: na szczęście, pozostało tak, jak było.

  8. Arek
    Arek 17 lipca 2019, 11:11

    mate - nie filozofuje i dobrze wiem o co chodzi. Maciek zastosował skrót myślowy, który po dołożeniu słowa "efektywnej" prawidłowo oddaje sytuację bez wdawania się w szczegóły. EOT.

  9. tempor
    tempor 17 lipca 2019, 11:18

    @Szabla
    "Na szczęście"? Jaja sobie robisz? Po Z7 nie wyobrażam sobie, by w studiu pałować przyciski zamiast od razu wybrać potrzebną opcję na ekranie.

    Sony chyba źle zrozumiało przekaz kampanii "Zły dotyk".

  10. Szabla
    Szabla 17 lipca 2019, 11:19

    @tempor: miziaj sobie, jeżeli chcesz. :)

  11. zbytek3
    zbytek3 17 lipca 2019, 11:52

    A jaki wplyw na cene 7r3 bedzie miala ta premiera? Czy zejdzie ponizej 10 tys? I oczywiscie na inne jeszcze tansze modele?
    A kiedy nastepca 7s2 ?

  12. mokipera
    mokipera 17 lipca 2019, 12:09

    Czy w trybie "full frame" da się robić RAW o mniejszej rozdzielczości?

  13. Szabla
    Szabla 17 lipca 2019, 12:37

    Wymuszając tryb APS-C.

  14. matzll
    matzll 17 lipca 2019, 12:59

    Da się przeciez włączyć kompresję.

  15. matzll
    matzll 17 lipca 2019, 13:05

    sorry, źle doczytałem, głupia odpowiedź z mojej storny, prosze o skasowanie ;)

  16. mokipera
    mokipera 17 lipca 2019, 13:24

    @Szabla: ale w trybie APS-C mam już inny przelicznik ogniskowej. A mnie np. chodzi o zdjęcie np. na najszerszej posiadanej ogniskowej.

  17. Szabla
    Szabla 17 lipca 2019, 13:39

    Z to co wiem, to nie.

  18. Pokoradlasztuki
    Pokoradlasztuki 17 lipca 2019, 17:12




    mate
    17 lipca 2019, 09:49 

    @Redakcja
    "U poprzednika, jego działanie polegało na wykonaniu 4 ekspozycji i złożeniu ich potem w kompozytowy obraz o podwyższonej rozdzielczości."

    Bzdura. U poprzednika rozdzielczość wyjściowa w trybie pixel shift była taka sama jak natywna matrycy, a 4 ekspozycje były składane celem uzyskania pełnej informacji RGB dla piksela wyjściowego, natomiast nie powodowały wzrostu rozdzielczości wyjściowej
    -------------------------------------------------------

    wlasnie ze powodowaly ,

    rozdzielczosc obrazowania , czyli rzeczywista liczba rozroznialnych detali obrazu to na matrycach RGB ok. 50 - 60 % calkowitej liczby pixeli matrycy.

    ( przykladowo na matrycy 24 mpx na obrazie mozna rozroznic np 12 mp roznych detali)

    dzieki temu trikowi sony, zastapiono interpolowane wartosci RGB rzeczywistymi , dzieki czemu rozdzielczosc obrazowania wzrosla mimo tej samej liczby pixeli matrycy . Tzn np zamiast 50 % w klasycznym RGB z interpolacja byc moze teraz bedzie 70 %. Dzieki temu uzyskano wyzsza sprawnosc optyczna ukladu. Rozdzielczosc obrazowania wzrosla , tzn na obrazie o tej samej liczbie pixeli jest teraz wiecej zapisanych detali.

  19. Szabla
    Szabla 17 lipca 2019, 21:10

    Ale rozdzielczość rozumiana jako całkowita ilość pikseli się nie zmienia.

  20. Myszowor
    Myszowor 17 lipca 2019, 22:00

    RAWy to ze 100MB chyba mają, ciekawe jak z celnością AF-C

  21. Szabla
    Szabla 17 lipca 2019, 22:23

    117 MB.

  22. Pokoradlasztuki
    Pokoradlasztuki 18 lipca 2019, 07:53




    Szabla
    17 lipca 2019, 21:10 

    Ale rozdzielczość rozumiana jako całkowita ilość pikseli się nie zmienia.
    --------------------

    trzeba rozrozniac pomiedzy rozdzielczoscia matrycy a rozdzielczoscia obrazowania.

    optyczne pisza o rozdzielczosci obrazu.
    przy tej samej liczbie pixeli rozdzielczosc obrazu wzrosla.

    nie mozna napisac , ze jest to bzdura.

    slowo "rozdzielczosc" bywa uzywane wlasciwie w dworch roznych znaczeniach - jako formalna liczba pixeli z ktorej zbudowany jest obraz , ja uzywam chetniej " wielkosc obrazu"
    - jako liczba/ wielkosc rozroznialnych elementow - wynikajca z rozmycia obrazu. Te rozdzielczosc mierza optyczne w swoich pomiarach.

    dotychczasowy pixelshift ma za zadanie zwiekszenie rozdzielczosci obrazowania przy niezmiennej wielkosci obrazu. Rozdzielczosc optyki w tym zabiegu nie musi byc wieksza. Chodzi tylko o wyeliminowanie interpolacji RGB.

    ( w rzeczywistosci naswietlajac wielokrotnie nawet bez shift i skladajac obraz nastapi poprawa rozdzielczosci obrazowania , ale to jest chyba pomijalne. Stosowano juz w czasach analogu )

    Jesli pixelschift jest realizowany przez naswietlenie z przesunieciem matrycy o wielkosc pomiedzy pixelami , to oczywiscie rosnie wielkosc i rozdzielczosc obrazu . rozdzielczosc optyki jest tu ograniczeniem . Nalezaloby robic shift wraz z obiektywem , albo stosowac optyke o wyzszej zdolnosci rozdzielczej.

  23. barnaba
    barnaba 18 lipca 2019, 09:59

    @Arek
    To przysuwanie kojarzy mi się bardziej z nadpróbkowaniem w celu powiększenia rozdzielczości przetwornika cyfrowego jakim jest matryca. Nie wydaje mi się, aby przesuwanie matrycy było aż tak dokładne - 0,5 pixela. Wystarczy przesuwanie przypadkowe. Im więcej, tym większa rozdzielczość

  24. mate
    mate 18 lipca 2019, 10:32

    @barnaba
    "Nie wydaje mi się, aby przesuwanie matrycy było aż tak dokładne - 0,5 pixela."

    No to niech ci się zacznie wydawać, bo tak jest. Są 2 rodzaje przesunięć, jedno o 1 piksel, aby w danym punkcie rzutowanego obrazu dostać naświetlanie z RGGB, oraz przy każdym przesunięciu o 1 piksel są dodatkowo 4 przesunięcia o 0,5 piksela w każdą stronę, celem zwiększenia rozdzielczości wyjściowej pliku.

  25. Pokoradlasztuki
    Pokoradlasztuki 18 lipca 2019, 10:33

    barnaba
    18 lipca 2019, 09:59 

    @Arek
    To przysuwanie kojarzy mi się bardziej z nadpróbkowaniem w celu powiększenia rozdzielczości przetwornika cyfrowego jakim jest matryca. Nie wydaje mi się, aby przesuwanie matrycy było aż tak dokładne - 0,5 pixela. Wystarczy przesuwanie przypadkowe. Im więcej, tym większa rozdzielczość
    ------------------

    wystarcza przypadkowe , czyli powtarzanie zdjec bez poruszenia aparatem , nigdy nie uda sie rzeczywiscie bardzo dokladnie trafic w te same pixele , stad teoretycznie udaje sie uzyskac poprawe rozdzielczosci obrazowania .
    kwestia software jak te obrazy ze soba polaczyc. Na razie stosuje sie do wyraznej redukcji szumu i przy okazji prawiei , ze niezauwazalnej poprawy rodzielczosci.

    Tak wlasnie robiono w laboratoriach w czasach analogu. Probleme bylo pokrycie zdjec.

    metoda z przesunieciem o pol pixela bedzie chyba efektywniejsza w praktyce.

  26. szuu
    szuu 18 lipca 2019, 10:39

    a uświadamiacie sobie sobie jaki byłby śmiech gdyby producent smartfona opowiedział o nowej ekscytującej funkcji podniesienia rozdzielczości pod warunkiem że wgramy do komputera i specjalnym oprogramowaniem połączymy 16 ujęć? i to jest sony które jakoby przoduje w innowacjach, zobaczcie jakie zacofanie technologiczne jest w tej branży :-|

  27. mate
    mate 18 lipca 2019, 11:06

    @szuu
    "i to jest sony które jakoby przoduje w innowacjach, zobaczcie jakie zacofanie technologiczne jest w tej branży"

    A w którym smartfonie masz kontrolowane przesuwanie matrycy? Czy też nie rozumiesz o co chodzi?
    Pytanie pomocnicze, kto jest głównym dostawca modułów foto do tych smartfonów?

  28. szuu
    szuu 18 lipca 2019, 11:18

    no nie żartuj, w smartfonach stosuje się normalną stabilizację optyki a nie jakieś protezy w postaci przesuwania matrycy.
    a jeżeli producentem jest unitra to co to zmienia w kwestii zacofania branży fotograficznej i tego że smartfon potrafi to co aparat za 18 tys. może będzie potrafił za 5 lat? moduł foto jest tylko jednym z elementów urządzenia do robienia zdjęć.

  29. Pokoradlasztuki
    Pokoradlasztuki 18 lipca 2019, 11:42

    szuu
    18 lipca 2019, 10:39 

    a uświadamiacie sobie sobie jaki byłby śmiech gdyby producent smartfona opowiedział o nowej ekscytującej funkcji podniesienia rozdzielczości pod warunkiem że wgramy do komputera i specjalnym oprogramowaniem połączymy 16 ujęć? i to jest sony które jakoby przoduje w innowacjach, zobaczcie jakie zacofanie technologiczne jest w tej branży :-|

    ----------------

    jest roznica
    w komorkach stosuje sie to w celu ratowania slabych zdjec
    w sony w celu dalszej poprawy dobrych zdjec.

    tzw " fotografia obliczeniowa" polega na tym , ze liczy sie na to, iz dostanie sie z komorki takie zdjecie jak z duzej matrycy.

    sa rozne metody podnoszenia rozdzielczosci i nie chce sie na ich temat wypowiadac , ani tez nie chce przekazywac moich osobistych doswiadczen jako jedynie slusznych.

    osobiscie wole matryce o wiekszych pixelach , czyli mniejszej rozdzielczsoci a jesli trzeba to podnosic rozdzielczosc wydluzaniem ogniskowej. Jest to chyba i szybciej i latwiej. Jesli mam zrobic 16 zdjec i je skladac zeby podniesc rozdzielczosc dwukrotnie ( nawet calkowicie automatycznie ) , to od razu robie dwa zdjecia dluzsza ogniskowa i je skladam. Dla takich operacji motyw i tak musi byc nieruchomy.

    Jest obejscie do pixelshift , od lat , calkiem niezle , wiec nie tesknie.

  30. mate
    mate 18 lipca 2019, 11:51

    @szuu
    "no nie żartuj, w smartfonach stosuje się normalną stabilizację optyki a nie jakieś protezy w postaci przesuwania matrycy"

    Po pierwsze stabilizacja optyki trafiła do smartfonów właśnie z branży foto, więc pisanie w tym kontekście o zacofaniu tejże tylko potwierdza twoje nierozumienie tematu. Po drugie Sony oprócz stosowania stabilizacji matrycy stosuje również stabilizację optyczną. Po trzecie w tym wypadku ruchy matrycy są stosowane w innym celu i jeszcze raz zapytam, który smartfon potrafi ruszać matrycą o 1 czy 0,5 piksela celem chociażby uzyskania pełnego RGB w jednym punkcie i/lub podniesienia rozdzielczości plików?

  31. szuu
    szuu 18 lipca 2019, 12:21

    no właśnie, przecież to nie komórka i można założyć inny obiektyw ale jednak wymyślili to łączenie.
    więc po co? wygoda! w teorii robimy jeden pstryk i już mamy lepszą rozdzielczość z tego samego obiektywu, ale jednak w praktyce jest pod górkę bo aparat nie daje rady tego wykonać. i to jest właśnie zacofanie.

    podobnie dawniej była w aparatach funkcja tylko bracketingu ale bez łączenia zdjęć. dzisiaj jakiś hdr jest już w aparatach choć znowu z powodu zacofania, działa gorzej niż w telefonach. i potem są pytania na forach czemu ajfon zrobił mi lepsze zdjęcie niż profesjonalna lustrzanka canon bo nie niebo nie jest przepalone.
    a 10 lat temu pytanie byłoby odwrotne!

    nie kłócę się, że telefony zawsze robią lepsze zdjęcia :P tylko że im bardziej telefony stają się podstawowym narzędziem fotograficznym tym bardziej rzucają się w oczy niedostatki aparatów spowodowane (między innymi) ograniczoną mocą obliczeniową.

  32. Szabla
    Szabla 18 lipca 2019, 12:38

    Zacofania? Nie masz pojęcia o technologii.

  33. barnaba
    barnaba 18 lipca 2019, 12:40

    @Pokoradlasztuki

    Zgaduję, że nadpróbkowanie (oversampling - patrz np. wiki) jest stosowane w celu zmniejszenia szumów przy długich czasach naświetlania. Funkcję tą można włączyć lub wyłączyć. Czas sczytywania matrycy jest dość długi i przy wielokrotnym skanowaniu odpowiednio przedłuża się.

  34. mate
    mate 18 lipca 2019, 13:06

    @szuu
    "no właśnie, przecież to nie komórka i można założyć inny obiektyw ale jednak wymyślili to łączenie. "

    Napisz miszczu, jakim sposobem sprawisz, aby założenie innego obiektywu dało pełną informację o kolorze w każdym punkcie obrazu? Bo to było pierwotne przeznaczenie funkcji pixel shift u Pentaksa i Sony, która u tego drugiego została rozszerzona o dodatkowe przesunięcia matrycy celem podniesienia rozdzielczości wyjściowej plików.

    "ale jednak w praktyce jest pod górkę bo aparat nie daje rady tego wykonać. i to jest właśnie zacofanie. "

    A po czym wnosisz, że nie daje? Podpowiem ci też, że w telefonie mam funkcję składania zdjęć (aczkolwiek nie powstałych wskutek przesunięć matrycy) i też ów "nowoczesny" telefon miewa z tym problemy.

    "tym bardziej rzucają się w oczy niedostatki aparatów spowodowane (między innymi) ograniczoną mocą obliczeniową."

    Bredzisz.

  35. Pokoradlasztuki
    Pokoradlasztuki 18 lipca 2019, 13:33

    barnaba
    18 lipca 2019, 12:40 

    @Pokoradlasztuki

    Zgaduję, że nadpróbkowanie (oversampling - patrz np. wiki) jest stosowane w celu zmniejszenia szumów przy długich czasach naświetlania. Funkcję tą można włączyć lub wyłączyć. Czas sczytywania matrycy jest dość długi i przy wielokrotnym skanowaniu odpowiednio przedłuża się
    ------------------

    poniewaz szum ma charketer absolutnie przypadkowy , wiec robiac kilka kolejnych zdjec te same punkty obrazowe beda roznic sie luminancja.
    nie jest mozliwe rozdzielenie szumu od sygnalu , tzn nie wiadomo na ile ta lumionancja jest spowodowana szumem a na ile sygnalem.

    ale roznice pomiedzy kolejno naswietlonymi punktami wynikaja z roznic szumu.
    Czyli fluktuacje sa spowodowane szumem.
    usredniajac luminacje , usredniamy szum i sygnal . Sygnal jest na kazdym zdjeciu ten sam wiec srednia bedzie ta sama , srednia szumu bedzie nizsza od maksimum. dzieki temu uzyskuje sie spadek poziomu szumu.

    troche inaczej jest z rozdzielczoscia , to bylo juz stosowane w fotografii analogowej , ale w warunkach domowych bardzo trudne do przeprowadzenia.
    fotografowano Serie zdjec tego samego obiektu , nie zmieniajac polozenia aparatu . negatywy mozna bylo zlozyc ( to byl Problem ) . Usrednil sie szum ( ziarno ) , ale wskutek pewnej przypadkowosci poszczegolnych ujec na kilku zdjeciach uzyskano lacznie wiecej informacji. Zdjecia miedzy soba sie minimalnie roznily. Zdjecie zlozone bylo suma informacji z pojedynczych zdjec . Jesli na kilku zdjeciach ten sam punkt obrazowy sie powtarzal , to oczywiscie w wyniku byl to jeden ten sam punkt , ale na niektorych obrazach byly zarejestrowane punkty , ktorych nie bylo na innych , wlasnie wskutek przypadkowosci , kadry nie byly jednak absolutnie identyczne. Ostatecznie po zlozeniu obraz zawiertal wiecej detalu niz kazde ze zdjec pojedynczych.

    w tym aparacie stosowane jest przesuniecie o polowe odleglosci miedzy pixelami , dzieki czemu zwieksza sie rozdzielczosc przy zachowaniu tej samej wielkosci pixeli ( zaleta). Oprocz tego przez przesuniecie 4 razy o jeden Pixel udaje sie uniknac interpolacji RGB. W sumie uzysk na rozdzielczosci , mozliwy jest takze na szumach.

  36. tomek__
    tomek__ 19 lipca 2019, 11:50

    Tu jest błąd:
    Aparat oferuje rozdzielczość 4K bez przycięcia obrazu. W trybie Super 35 mm (1.5x crop) mamy do czynienia z odczytem wszystkich pikseli

    Tam nie ma cropa albo można powiedzieć crop 1.0

  37. komisarz_ryba
    komisarz_ryba 19 lipca 2019, 18:02

    Jak widze a7r3 to byl (i jest) dalej dobry zakup. A7r4 niczym nie imponuje (mi). Moze w praktyce wyjda jakies wartosciowe roznice, ale na razie wyglada mi to na porazke. Ot, wieksza rozdzielczosc, dla tych komu 42mpix nie wystarcza. Tyle, ze ta rozdzielczosc wzrosla bardzo nieznacznie, 20%.

    A a7r3 kosztuj 10k w sklepie, gdy czroka to 17k. Sensu brak. Sony sie pospieszylo, mogli poczekac i wypuscic cos fajniejszego, ale w sumie nie przeszkadza mi to, bo porzucam mysli o upgrade bez zadnego zalu czy glebszego zastanowienia.

  38. Szabla
    Szabla 19 lipca 2019, 18:14

    @komisarz_ryba:
    - rozdzielczość wzrosła o 45%
    - A7RIII w momencie premiery kosztował 15000 zł.

  39. magix
    magix 21 lipca 2019, 13:12

    >>Trzeba przyznać, że Sony poważnie podeszło do trybu filmowania w A7R IV...

  40. PDamian
    PDamian 23 lipca 2019, 20:08

    @magix
    Raczej nikt poważnie stawiający tylko na filmowanie go nie kupi.

  41. asp
    asp 29 lipca 2020, 14:48

    Ciekawe jak te Sony wypadnie na tle nowych bezlusterkowców Canona

Napisz komentarz

Komentarz można dodać po zalogowaniu.


Zaloguj się. Jeżeli nie posiadasz jeszcze konta zarejestruj się.


Następny rozdział