12 Reaktionen

Mozilla stellt mozjpeg 2.0 fertig, Facebook investiert in Entwicklung

Geschätzte Lesedauer:

Vor wenigen Monaten hat Mozilla mozjpeg vorgestellt, einen Encoder für JPEG-Grafiken, welcher geringere Dateigrößen und damit schnellere Ladezeiten von Webseiten ermöglichen soll. Mozilla hat nun Version 2.0 fertig gestellt, außerdem investiert Facebook in die weitere Entwicklung.

Anfang März hat Mozilla mozjpeg erstmals vorgestellt. Mozjpeg basiert auf libjpeg-turbo und soll unter Beibehaltung größtmöglicher Kompatibilität zu bestehenden JPEG-Decodern eine verbesserte Kompression und damit kleinere Dateigrößen bieten. Weitere Details zur Motivation hinter mozjpeg liefert der Ankündigungs-Artikel zu mpzjpeg 1.0.

Mit der neuen Version mozjpeg 2.0 soll die Dateigröße von JPEG-Bildern im Vergleich zu libjpeg-turbo ohne Kompatibilitätsverluste um durchschnittlich fünf Prozent geringer sein, für einige Bilder könne der Unterschied noch größer sein. Die wichtigste Neuerung gegenüber der Vorversion ist eine Trellis-Quantisierung sowohl für Baseline- als auch für progressive JPEG-Dateien. Mozjpeg 1.0 hatte lediglich die Kompression progressiver JPEG-Dateien verbessert.

In diesem Zusammenhang hat Mozilla außerdem bekannt gegeben, dass Facebook mozjpeg 2.0 testet, um die Kompression der Bilder auf Facebook zu verbessern, und 60.000 Dollar in die Weiterentwicklung mozjpeg 3.0 investiert. Außerdem hat Mozilla eine aktualisierte Studie veröffentlicht, welche sich mit WebP, JPEG XR und EVC-MSP im Vergleich zu JPEG hinsichtlich Kompressionseffizienz beschäftigt. Im Vergleich zur im letzten Oktober veröffentlichten Studie nutzt diese unter anderem aktuellere Versionen der entsprechenden Encoder und nimmt nun auch mozjpeg mit in den Vergleich auf.

Unabhängige Berichterstattung unterstützen.

Unterstütze wirklich unabhängige und Fakten-basierte Berichterstattung zu Mozilla, welche nicht das Ziel hat, Schlagzeilen zu produzieren, sondern objektiv zu informieren.

Dieser Artikel wurde von Sören Hentzschel verfasst.

Sören Hentzschel ist Webentwickler aus Salzburg. Auf soeren-hentzschel.at informiert er umfassend über Neuigkeiten zu Mozilla. Außerdem ist er Betreiber von camp-firefox.de, der ersten Anlaufstelle im deutschsprachigen Raum für Firefox-Probleme aller Art. Weitere Projekte sind firefox.agenedia.com, firefoxosdevices.org sowie sozone.de.

10 Kommentare - bis jetzt!

Eigenen Kommentar verfassen
  1. schrieb am :

    Kannst du mal erklären warum Dateigröße eingespart wird?

    Wenn die Datei auf dem Server liegt bleibt sie doch so wie sie ist, egal welche lokale Bibliothek man hat. Die Bilder müssten doch grundlegend neu kodiert werden – wie stellt man das an?

    Grüße

  2. Antares
    schrieb am :

    Ich bin ja durchaus technisch bewandert, aber was zur Hölle ist eine Trellis-Quantisierung? Das klingt für mich nach dem kleinen Bruder vom Flux-Kompensator und der hat ja eigentlich nichts mit dem Internet zu tun. 😉

  3. Simon
    schrieb am :

    60.000USD klingt irgendwie immernoch ziemlich wenig, wenn man bedenkt, wieviel Kosten Facebook sich nur durch eine 10% höhere Komprimierung sparen könnte 😉 Aber die haben bestimmt auch intern schon ziemlich optimierte Kompressionsverfahren.

  4. Sören Hentzschel Verfasser des Artikels
    schrieb am :

    @maltris:

    Kannst du mal erklären warum Dateigröße eingespart wird?

    Wenn die Datei auf dem Server liegt bleibt sie doch so wie sie ist, egal welche lokale Bibliothek man hat. Die Bilder müssten doch grundlegend neu kodiert werden – wie stellt man das an?

    Die Dateigröße wird beim Speichern der Datei eingespart. 😉

  5. Sören Hentzschel Verfasser des Artikels
    schrieb am :

    @Antares:

    Ich bin ja durchaus technisch bewandert, aber was zur Hölle ist eine Trellis-Quantisierung? Das klingt für mich nach dem kleinen Bruder vom Flux-Kompensator und der hat ja eigentlich nichts mit dem Internet zu tun. ;)

    http://de.wikipedia.org/wiki/Trellis-Quantisierung

    Mozilla hat halt leider nicht die Ressourcen, um einen Turbomodus zu entwickeln und zu betreiben, und gerade bei mobile zählt jeder kbit weniger. ;)

    Der Turbomodus war doch ein Proxyserver, oder? Mozilla arbeitet nämlich an einem Proxy, aber ich weiß gerade nicht, ob das vergleichbar mit Opera Turbo ist.

  6. Sören Hentzschel Verfasser des Artikels
    schrieb am :

    @Simon:

    60.000USD klingt irgendwie immernoch ziemlich wenig, wenn man bedenkt, wieviel Kosten Facebook sich nur durch eine 10% höhere Komprimierung sparen könnte ;) Aber die haben bestimmt auch intern schon ziemlich optimierte Kompressionsverfahren.

    Ob Facebook andere optimierte Kompressionsverfahren für JPEG-Bilder hat, weiß ich nicht, gut möglich, in jedem Fall setzt Facebook auch auf das WebP-Format für Browser, die das unterstützen. Da wird auch bei einem beachtlichen Teil der Nutzer Bandbreite gespart.

  7. schrieb am :

    Und wie kann ich jetzt als normaler Mensch nach diesem Verfahren meine Bilder komprimieren?

    Und muss das auf Clientseite dann auch unterstützt werden?

  8. Sören Hentzschel Verfasser des Artikels
    schrieb am :

    Und wie kann ich jetzt als normaler Mensch nach diesem Verfahren meine Bilder komprimieren?

    Grundsätzlich: Indem du mozjpeg an der Stelle verwendest, an welcher du üblicherweise libjpeg-turbo nutzt. Allerdings ist das eher nichts, was normale Menschen im Sinne durchschnittlicher Nutzer machen, der durchschnittliche Nutzer betrachtet ja nur Bilder, und Anwendungen, die Bilder speichern, müssten eben diesen Encoder implementiert haben.

    Und muss das auf Clientseite dann auch unterstützt werden?

    Falls du damit die Programme meinst, welche die Grafik schließlich anzeigen, mozjpeg ist kompatibel zu bestehenden JPEG-Decodern, eine besondere Unterstützung für die Anzeige dieser Bilder ist also nicht notwendig.

  9. Antares
    schrieb am :

    Der Turbomodus war doch ein Proxyserver, oder? Mozilla arbeitet nämlich an einem Proxy, aber ich weiß gerade nicht, ob das vergleichbar mit Opera Turbo ist.

    Bei Opera Turbo wird die Seite über die Server von Opera geleitet, unwichtige Sachen wie Flash-Inhalte rausgefiltert, Bilder komprimiert und erst das wird dir dann an deinen Webbrowser ausgeliefert. Insofern… ja, wäre ein Proxy, aber entsprechend groß sind auch die Serverfarmen, die Opera laut eigener Aussage dafür betreiben muss. Und ich glaub nicht, dass Mozilla dafür das Geld hat, höchstens dass Mozilla Research vielleicht was vorlegt, wie man mit Firefox auf seinem eigenen Server sowas betreiben kann, aber mehr kann ich mir nicht vorstellen. 😉

  10. Sören Hentzschel Verfasser des Artikels
    schrieb am :

    Ich hab mich noch nicht genauer damit befasst, ich weiß daher nur, was die Tage in Zusammenhang mit dem „Janus“-Projekt angekündigt worden ist:

    As many of you may be aware, myself and a small team (Eugen and Sylvain) have been working on a proxy server. The goal is to increase privacy (via a secure connection), reduce bandwidth usage, and improve latency.

    https://mail.mozilla.org/pipermail/mobile-firefox-dev/2014-July/000798.html

    Mehr zu Janus:
    https://wiki.mozilla.org/Mobile/Janus

Und jetzt du! Deine Meinung?

Erforderliche Felder sind mit einem Asterisk (*) gekennzeichnet. Die E-Mail-Adresse wird nicht veröffentlicht.
  1. Nach Absenden des Kommentar-Formulars erfolgt eine Verarbeitung der von Ihnen eingegebenen personenbezogenen Daten durch den datenschutzrechtlich Verantwortlichen zum Zweck der Bearbeitung Ihrer Anfrage auf Grundlage Ihrer durch das Absenden des Formulars erteilten Einwilligung.
    Weitere Informationen