Re: Braucht man heute zum Surfen mit dem Firefox schon einen Multicore CPU?

From: Polytropon <freebsd(at)edvax.de>
Date: Tue, 29 Oct 2013 01:51:22 +0100

On Mon, 28 Oct 2013 11:49:08 +0100, Marc Santhoff wrote:
> On Mo, 2013-10-28 at 09:24 +0100, Marcus Franke wrote:
> > Moin,
> > > On Sun, 27 Oct 2013 10:16:34 +0100, Heino Tiedemann wrote:
> > > > Hallo,
> > > >
> > > > Braucht man heute zum Surfen mit dem Firefox schon einen Multicore CPU?
> > >
> > > Das kommt auf die Seiten an, die man zu besuchen wünscht, und
> > > auf den Webbrowser, der dafür "notwendig" ist. Mit dem Aufkeimen
> > > von HTML5 und dem immer stärkeren Einsatz von CSS und JavaScript
> > > als Ablösung für "Flash"-Interaktionsinhalte steigen natürlich
> > > die Anforderungen an den Browser. Mit "client side processing"
> > > geht's logisch weiter.
> > >
> > > Ärgerlich? Klar. Notwendig? Hmm... wahrscheinlich.
> > >
> > > Ausweg: Neuen Rechner kaufen. Kaufen kaufen kaufen! :-)
> >
> > Auf einem Single-Core Rechner solltest du einen anderen Browser benutzen. Auf den
> > ganzen Images für die Raspberry PI’s ist z.B. Midori enthalten.
> >
> > Firefox ist, wie schon geschrieben, ein universales Tool. Webseiten ersetzen inzwischen
> > deine Textverarbeitung oder die Tabellenkalkulation. Spielen kann man in ihnen auch.
> > Die Beispiele sind quasi unendlich. All diese Aufgaben kann der Firefox heute abdecken.
> > Es ist vermutlich gar nicht mal unbedingt der Firefox, der so viel Leistung verlangt, ich
> > denke es ist eher die Javascript Engine, die sich gerne nimmt, was da ist.
>
> Hübsch, diese[r|s] Midori. Ich bin auch auf der Suche nach etwas
> Leichgewichtigerem als Firefox.

Und _den_ Browser hatte ich vergessen zu erwähnen. :-)

> Eine Frage dazu:
> Ich gehöre zu den wandelnden Fossilien, die auch schonmal eine
> HTML-Seite speichern. Sei es zur späteren Auswertung offline oder um zu
> einem Themenkreis gesammelte Information dauerhaft festzuhalten.

Dann empfehle ich Dir wget, wo Du einfach die Adreßzeile des
Browsers "hinten rankopierst" (z. B. an ein Alias mit den
erforderlichen Optionen). Typischer Anwendungsfall:

        % wget -r -l 0 -k -nc <Adresse>

Kritisch ist hier -l <Tiefe> (der Linkverfolgung), aber -k ist
sehr praktisch: Es konvertiert absolute in relative Verweise,
so daß Du die Kopie auch lokal benutzen kannst, ohne daß der
Browser dann versucht, Inhalte "von extern" abzurufen. Siehe
dazu "man wget" für Details.

Du bist übrigens kein Fossil, auch ich bin so hinterlistig und
speichere Online-Inhalte lokal ab, z. B. Schaltpläne oder
Webseiten mit Anleitungen. Manchmal verschwinden nämlich
auch Dinge aus dem Internet. :-)

Mit wget kann man einzelne Seiten genau so prima abziehen wie
vollständige Webseitenkonglomerate, auch das Filtern ist
möglich (z. B. nur Bilddateien abziehen).

> Kann Midori nicht richtig speichern oder bin ich zu doof?
>
> Es wird zwar das HTML, aber keine Bilder gespeichert. Bei Informationen
> zu Elektronik mit enthaltenen Schaltungen oder in Bildern gerenderten
> Formeln ist das schon ziemlich blöd, nutzlos sozusagen.

Schau mal, ob das Formatfeld im "Speichern unter..."-Dialog
eine Auswahl bereithält. Bei Opera zu Vergleich gibt es:
HTML file, HTML file with images, Web Archive (*.mht) und
Text File (*.txt).

> Ein Dateiname für die Seite wird auch nicht vorgegeben, aber damit kann
> ich leben.

Ein Haufen von "index.html" nützt einem ja auch nichts. :-)

-- 
Polytropon
Magdeburg, Germany
Happy FreeBSD user since 4.0
Andra moi ennepe, Mousa, ...
To Unsubscribe: send mail to majordomo(at)de.FreeBSD.org
with "unsubscribe de-bsd-questions" in the body of the message
Received on Tue 29 Oct 2013 - 01:51:40 CET

search this site