Optyczne.pl

Partnerzy



proclub.pl - Profesjonalny Sklep Fotograficzny, Profesjonalny Sklep Foto, Sklep Fotograficzny, Sklep Foto, Sklep wideo, Sklep video, sprzęt Foto, sprzęt Fotograficzny, sprzęt video, sprzęt wideo, produkty fotograficzne, produkty Foto, produkty video, produkty wideo, akcesoria Foto, akcesoria fotograficzne, akcesoria video, akcesoria wideo, kamery video, kamery wideo, Aparaty fotograficzne, aparaty cyfrowe, kamery cyfrowe, Lustrzanki, bezlusterkowce, obiektywy zoom, Macro, Makrofotografia, Monitory, filtry, filtry Foto, filtry fotograficzne, filtry video, filtry wideo, wypożyczalnia sprzętu Foto, CPS, Macro fotografia, warsztaty fotograficzne, szkolenia, studio fotograficzne, wyposażenie studia,  zdjęcia, fotografia, kamera gopro, Hero Black, phantom, phantom 2,  full Frame, Canon, Sony, Panasonic, Olympus, Pentax, Nikon, Leica, Fujifilm, 
Lumix, Alfa, Sandisk, Hoya, Lowepro, Zoom, PowerShot, Ixus, EOS, Cinema, Legria, pełna klatka, Manfrotto, statywy, torby fotograficzne, torby Foto, torby video, torby wideo, futerały fotograficzne, plecaki fotograficzne, oświetlenie studyjne, GoPro, dji, Hero, ilce, Eizo, spiker, tamron, Zeiss, Tokina, gh4, om-d, lumix, dron, qadrotopter,  akcesoria, pen, nex, obiektywy, aparaty, kamery, zdjęcia, LensPen, Canon akcesoria, Sony akcesoria, Panasonic akcesoria, Olympus akcesoria, Leica akcesoria, Fujifilm akcesoria, Pentax akcesoria, Nikon akcesoria, GoPro akcesoria, karty pamięci.



Aktualności

Google Guetzli - pliki JPEG mniejsze o 35 procent

Google Guetzli - pliki JPEG mniejsze o 35 procent
20 marca
2017 11:19

Firma Google chwali się nowym algorytmem o nazwie Guetzli, który o 35 proc. może zmniejszyć rozmiar pliku JPEG bez utraty jego jakości.

Google wyjaśnia, że na proces kompresji obrazów JPEG składają się etapy polegające na transformacji przestrzeni barw, dyskretnej transformacji cosinusowej (DCT) oraz kwantyzacji. Algorytm Guetzli skupia się konkretnie na tym ostatnim etapie - poprawiając efekt końcowy, tak aby zachowana była równowaga pomiędzy jakością obrazu (ilością strat), a jego rozmiarem.

Efektem ma być wspominana wcześniej redukcja wielkości pliku aż o 35 proc., bez widocznej utraty jakości obrazka, a co za tym idzie zmniejszenie ilości pobieranych danych oraz szybsze ładowanie grafik na stronach internetowych.

Szczegóły można znaleźć na Google Research Blog - tutaj.

fot. Unsplash, pixabay.com, CC0 Public Domain


Komentarze czytelników (30)
  1. mancebo
    mancebo 20 marca 2017, 12:56

    No oby... bo już tych wynalazków było miliony :)

    Pozdrawiam

  2. mokipera
    mokipera 20 marca 2017, 13:32

    Tylko jakie to ma dziś znaczenie że jpg będzie 35% mniejszy? Przy dzisiejszych dyskach i transmisjach danych.

  3. tripper
    tripper 20 marca 2017, 13:36

    No jak jesteś flickrem czy googlem to ma duże znaczenie (liczone w milionach dolarów). Dla amerykanów też ma duże znaczenie, przy ich adopcji szybkiego internetu. A ja bym też się nie obraził o to, że moje jotpegi będą miały lepszą jakość.

  4. espresso
    espresso 20 marca 2017, 13:39

    @mokipera,

    co do tego mają dyski i transmisje?

  5. store10
    store10 20 marca 2017, 13:51

    Ale to "już jest" jpeg2000 na falkach i jakoś się nie spopularyzowal. H265 też na falkach, AAC też na falkach. Falki średnio 2x lepsze od DTC. Plik zajmuje 2x mniej, a jakość ta sama

  6. PiotrKrochmal
    PiotrKrochmal 20 marca 2017, 15:22

    Nikogo nie interesują nasze dyski prywatne.
    Problemem i kosztem są powierzchnie zajmowane przez chmury. Instagram, FB, itp itp. Tam każdy % mniej zajętego serwera i transmisji to konkretne pieniądze.
    jakoś rok temu pojawiła się informacja o 2 miliardach zdjęć dziennie na FB tak a propo skali problemu.
    A czemu rozwijają JPG? bo odczyta go wszystko :).

  7. TS
    TS 20 marca 2017, 15:33

    Ja też myślę, że niepotrzebnie kombinują. Zysk niewielki, a potem okaże się, że nowego formatu nie obsługuje akurat potrzebne nam oprogramowanie. No i pytanie czy w ogóle jest zysk, bo przy ściąganiu z sieci pewnie jest (mniej przesyłanych danych), ale przy przeglądaniu z dysku SSD może okazać się, że nowy algorytm jest wolniejszy i zdjęcie wolniej się wczytuje.

  8. TS
    TS 20 marca 2017, 15:34

    Ale jak ludzie zbojkotują to i tak format upadnie, nie raz już tak było :)

  9. Tytan
    Tytan 20 marca 2017, 16:21

    W opisie powinno być "transformacji kosinusowej", a nie "cosinusowej".

  10. krsto
    krsto 20 marca 2017, 16:42

    Szkoda, że BPG się nie przyjęło, a miało duże szanse - kodek (h265) w przeglądarkach internetowych jest już. link

  11. snufkin
    snufkin 20 marca 2017, 17:29

    @store10:
    Te formaty na większą skalę nigdy się nie przyjmą. Z bardzo oczywistego powodu - są obarczone różnymi patentami i innymi problemami natury „własności intelektualnej“, co je w zasadzie dyskwalifikuje w starciu z nawet taką nędzą jaką jest JPG.

  12. cissic
    cissic 20 marca 2017, 17:31

    Algorytm JPG to kompresja stratna, więc jaki brak straty?

  13. deel77
    deel77 20 marca 2017, 17:48

    @TS

    A jak mają zbojkotować jpeg? Przecież jeżeli zaadoptuje to np. Adobe to pliki eksportowane z LR czy Photoshopa będą w tym właśnie formacie (no chyba że będzie wybór).

  14. cissic
    cissic 20 marca 2017, 18:00

    Jeszcze jedno "a co za tym idzie zmniejszenie ilości pobieranych danych oraz szybsze ładowanie grafik na stronach internetowych." - tu nie chodzi o grafiki a o rastry. Wektory (SVG), które są dzisiaj standardem (strony responsywne) będą ładować się przecież tak samo. Sorry, że się czepiam, ale...

  15. cissic
    cissic 20 marca 2017, 18:04

    @ dell77

    Ciekawe jak sobie radzi ten format z plikami o najniższym stopniu kompresji. Na tym przykładzie mamy tylko medium i small

  16. seboc
    seboc 20 marca 2017, 18:52

    JPG najdoskonalszym znanym standardem nie jest, opublikowano lepsze i sie nie przyjely.
    Cos mi sie wydaje, ze Google na sile, z pozycji monopolisty, bedzie promowal nowy format i zarabial na licencjach zmuszajac producentow sprzetu i oprogramowania do ich nabywania.

  17. matthias
    matthias 20 marca 2017, 19:43

    Utrata jakości niestety jest. Nie ma nic za darmo.
    Na tych samplach widać, że algorytm google wraz ze zmniejszeniem pliku zabrał ze sobą niektóre informacje o kolorze:

    link

  18. komor
    komor 20 marca 2017, 19:53

    Dzieci drogie, dzieci... Czytanie ze zrozumieniem jednak jest niemodne.
    @seboc: Przecież napisane jest, że algorytm jest open-source, więc jakie licencje?
    @Wszyscy: to jest nowy algorytm generowania pliku JPG, a nie jakiś nowy format JPG. O ile nie trafi się na jakąś bombę, to powinien zdekompresować go dowolny dekoder plików JPG. Oczywiście w praktyce znajdzie się taki, który się na czymś wyłoży, ale wystarczy, że prawidłowo będzie to działać w przeglądarkach internetowych i wiodących aplikacjach (Adobe i reszta bandy). Mali się dostosują albo i nie. Zawsze jakiś bałaganik z formatami jest i nic tego nie zmieni.
    @Wszyscy 2: Co do braku straty to oczywiście chodzi o porównanie do standardowej - owszem, stratnej - kompresji JPG, czyli jakość po kompresji jest porównywalna, a plik wynikowy mniejszy. W tym sensie brak straty, że w porównaniu do standardowego algorytmu.

  19. sektoid
    sektoid 20 marca 2017, 19:59

    Po co z nimi dyskutujesz ? Chcą zaistnieć, a mogą tylko hałasem.

  20. cissic
    cissic 20 marca 2017, 20:11

    @ komor

    To nie jest wiedza tajemna, niedostępna dla nas szaraczków. Wystarczyło by dobrze przetłumaczyć to jedno krótkie zdanie "a new open source algorithm that creates high quality JPEG images with smaller file sizes" i by nie było mojej uwagi. Dobrze napisany artykuł charakteryzuje się logicznym i zgodnym z prawdą wyłożeniem zagadnienia. Right?

  21. cissic
    cissic 20 marca 2017, 20:23

    @ sektoid

    Bo dyskusja to podstawowa forma komunikacji w naszym gatunku. Nawet jeśli się pisze pierdololo by zaistnieć, jak to zgrabnie ująłeś. Istotna jest jednak treść i siła przekazu

  22. pomydor
    pomydor 20 marca 2017, 21:45

    eeeetam... szanujacy sie fotograf nie zna pojecia jpg.;DDDDDD

  23. komisarz_ryba
    komisarz_ryba 20 marca 2017, 21:50

    Co za beznadziejny news, nie dosc ze mylacy to jeszcze zero istotnych informacji.

    Po pierwsze zadna to rewolucja, bo adobe kompresuje z podobna efektywnoscia od lat.

    Po drugie, kompresja google jest bardzo powolna i bardzo pamieciozerna - 10GB ramu i kilka minut zeby skompresowac 36mpix plik.

  24. fotopstryk
    fotopstryk 20 marca 2017, 23:45

    komisarz_ryba, na jakim procesorze masz ten komp z tymi 10 GB RAM? A moze 10 GB masz, ale HDD?

  25. DonYoorando
    DonYoorando 20 marca 2017, 23:57

    ...super wiadomość dla wszystkich fotografujących komórkami z 200mp ..... i oglądających zdjęcia na ekranach 4cale, przykrytych plastikowym półprzezroczystym ochronnym ustrojstwem..... megapikseloza jest żałosna, nawet bardziej od megazoomomani...

  26. TS
    TS 21 marca 2017, 14:16

    No właśnie, nawet załóżmy, że każdy program będzie potrafił to odczytać i zapisać, to jednak działa wolniej. Przyznaję, że wcześniej nie doczytałem, ale to powinno się znaleźć w newsie, a nie że trzeba szperać po źródłach. W każdym razie jak przy eksporcie 100 plików czas kompresji wydłuży się tak jak pisze Google (teraz niech inni sobie doczytają ile ;p), to zysk na rozmiarze jest dla mnie zbyt mały. Ale może komuś się przyda.

  27. krakn
    krakn 21 marca 2017, 19:01

    Na dyskach to sobie panowie trzymamy RAW, JPG robi się do pokazywania w sieci.
    Ktoś tam pisał o Flicker, akurat flicker to trzyma bełną jakość zdjęć, jaką można zrobić w JPG 100%
    Google ma kłopot, nie mówiąc o FB. A dla osób wysyłających zdjęcia hurtem to w 99% nie ma znaczenia. Bo i tak są robione kamerką z przodu telefonu i tak są robione telefonem na połowę matrycy bo telefonem trzymanym w pionie i tak są rozmazane bo z toalety , windy czy klubu.
    Takich śmieci jest najwięcej,
    A Wyobraźcie sobie że od kilku lat, do serwerowni FB codziennie dostarczany jest nowy serwer dysków wielkości ogromnej szafy. A żeby to wszytko zasilić, FB serwerownia, ma taki sam dostęp to sieci energetycznej jak spora firma przemysłu ciężkiego. Już nie pamiętam ile tego biorą, ale spore odpowiednik sporego miasteczka. Zmnieszenie gufnianych fotosmieci to mniej dysków, to mniej prądu, przy takiej skali to ogromne oszczędności. FB i tak już kompresuje paskudnie zdjęcia :> nawet jak zaznaczysz wysyłkę HD to to zjecie gdy sciągnąć z powrotem na dysk to do niczego już się nie nadaje poza wysłaniem nazad na FB :)) I o to chodzi w tym całym zamieszaniu. Reszta kwestia kodowania i dekodowania to pikuś. Jak będą chcieli to są wstanie zrobic wtyczki, czy zaimplementować w aktualizacji i po sprawie. Wszytko zależy od tego jak bardzo będzie zalezało google na wprowadzeniu tego kompresora.

  28. krakn
    krakn 21 marca 2017, 19:07

    deel77, zawsze masz wybór w programach do jakiego formatu i jaki stopień kompresji ma być zastosowany, jeżeli dany format ma taką możliwość. Do wydruku stosuje się formaty bez stratne i w szerszej przestrzeni barw zazwyczaj Adobe, do wyświetlania na monitorach degraduje się do sRGB bo zapisując w kolorach Adobę co monitor to będą inne kolory i zapisuje się z kompresją jaka jest potrzebna. Zdjecia do galerii bez kompresji, a zdjęcia / grafiki poglądowe to nawet i 50% Bo po co więcej?

  29. TS
    TS 22 marca 2017, 14:58

    Nie wiem jak to dokładnie jest na fejsie, ale czy nie wystarczyłoby gdyby z automatu skalowali zdjęcia większe od, powiedzmy, FHD? Po co lepiej kompresować tony pustych pikseli...

    Co do trzymania na dysku, to wszystkie zdjęcia jakie zrobiłem wywołuję do 1600 px na dłuższym boku (do niedawna brałem 1200), a jeśli mam tylko w jpg, to skaluję do tej rozdzielczości. Chodzi o to, by wygodnie i szybko przeglądać, pokazać znajomym, itp. Dlatego algorytm, który będzie mi to robił godzinami jest tylko kulą u nogi. Oczywiście wybrane do wydruków wywołuję w odpowiedniej rozdzielczości.

    A poza tym co to za sztuka wymyślić algorytm, który policzy coś dokładniej, ale wolniej.

  30. mariuszkolacz
    mariuszkolacz 11 kwietnia 2017, 16:02

    @cissic, cały patent właśnie na tym polega, że algorytm optymalizuje zdjęcie praktycznie bez utraty jego jakości, przy założeniu że pracujemy z domyślną wartością 95%. Testy które przeprowadzam wskazują, że nowy algo jest zarąbisty, można uzyskać zmniejszenie pliku nawet do 60%. Autorzy oszacowali, że 35%, moim zdaniem delikatnie mówiąc poszli asekuracyjnie. Jeśli do optymalizacji użyjemy dodatkowo Leanify można uzyskać zaskakujące wyniki.

    PS. Dla Guetzli stworzyłem GUI na Windows, które ułatwia optymalizację:
    link

Napisz komentarz

Komentarz można dodać po zalogowaniu.


Zaloguj się. Jeżeli nie posiadasz jeszcze konta zarejestruj się.