Centralfloridavocalarts

Centralfloridavocalarts

SCARICA UN INTERO SITO WEB UBUNTU

Posted on Author Vora Posted in Ufficio


    Per scaricare un sito, per consultarlo off line, o per farlo vedere a degli amici, che non hanno la connessione ad internet, potete usare un. centralfloridavocalarts.com › Internet › Articoli. Usiamo il terminale del Pinguino per scaricare completamente in locale un sito web da consultare offline in qualsiasi momento. wget è un programma da riga di comando molto popolare che permette di scaricare da internet file tramite protocolli http e ftp. Una delle caratteristiche avanzate di.

    Nome: un intero sito web ubuntu
    Formato:Fichier D’archive
    Sistemi operativi: iOS. Windows XP/7/10. MacOS. Android.
    Licenza:Gratuito (* Per uso personale)
    Dimensione del file: 51.49 Megabytes

    La maggior parte dei browser moderni mettono a disposizione la possibilità di salvare una pagina web in locale, ma come comportarsi se si vuole scaricare un intero sito web? Esistono tanti strumenti in rete che permettono di scaricare anche interi siti web sul proprio PC, ed in questo articolo vi riportiamo le migliori soluzioni esistenti per scaricare siti sul proprio sistema, sia per Windows che per Linux.

    Scegliete la cartella di destinazione dove scaricare il sito oppure lasciate quella predefinita. NET Framework 3. HTTrack HTTrack è un programma molto più completo rispetto a WebCopy anche se ha il difetto di presentare una grafica davvero molto vecchia, in stile Windows 98 per intenderci.

    Riferimenti Questo articolo mostra come scaricare un intero sito web sul proprio computer in modo da poterne consultare il contenuto anche quando non si dispone di una connessione internet attiva. Alcuni siti non permettono di eseguire questa operazione a causa della presenza di alcune restrizioni.

    Aprire il terminale

    Si tratta di un programma in grado di scaricare in locale l'intera struttura di un sito web comprensiva dei relativi contenuti. Nel web sono disponibili gratuitamente numerosi programmi di questo tipo.

    Ecco un piccolo elenco dei più utilizzati: [1] X Fonte di ricerca HTTrack — è disponibile per sistemi Windows e Linux e permette di scegliere quali parti di un sito web si vogliono scaricare e quali devono essere scartate; WebRipper — è disponibile solo per piattaforme Windows. Questa applicazione permette di scaricare tutti i contenuti di un sito web a partire dalle foto, dai video e dai collegamenti ipertestuali fino ad arrivare al codice HTML e alla formattazione del testo; DeepVacuum — disponibile solo per Mac.

    Come sicuramente avrai visto sulla pagina di download del sito ufficiale , HTTtacks è disponibile anche per Linux, ma oggi vorrei proporti una soluzione diversa utilizzando Wget, un comando molto potente e versatile disponibile per tutte le distribuzioni Linux.

    Vediamo allora come scaricare un sito nel computer con Linux.

    Wget è un programma da riga di comando molto popolare che permette di scaricare da internet file tramite protocolli http e ftp. Una delle caratteristiche avanzate di Wget è il mirroring, cioè la possibilità di creare una copia locale di un sito, inclusi fogli di stile, immagini e altri file di supporto.

    Tutti i link interni vengono seguiti da Wget e scaricati in locale, fino al raggiungimento della copia completa sul computer.

    Come hai potuto vedere questo semplice comando è molto potente e le opzioni che ho utilizzato sono solo una piccola parte di quelle disponibili. Per poterle visionare tutte puoi leggere le manpages con il comando: man wget Ora che hai visto come scaricare un sito nel computer con Linux puoi usare Wget per fare una copia locale dei siti che ti interessano, per leggerli comodamente quando non sei connesso ad Internet.

    Cyotek WebCopy Windows — si tratta di un software, in lingua inglese, che consente di scaricare un sito Web o parte di esso applicando, al bisogno, regole restrittive per i contenuti. È gratuito.

    Funziona da Terminale. Autore Salvatore Aranzulla Salvatore Aranzulla è il blogger e divulgatore informatico più letto in Italia.

    Noto per aver scoperto delle vulnerabilità nei siti di Google e Microsoft. Collabora con riviste di informatica e cura la rubrica tecnologica del quotidiano Il Messaggero.


    Articoli simili: