• Script n°3 : Tableau trois colonnes

    Étape 3: La prochaine étape consistait à faire un tableau en 3 colonnes et où dans la troisième colonne il y aurait les pages aspirées, c'est à dire l'aspiration des urls qui étaient stockés dans le dossier URLS.

    Pour cela nous nous sommes servi de la commande wget.

    Petit rappelle: Wget est une commande non interactive de téléchargement de fichiers à partir du Web. Wget nous permet le simple téléchargement d'un fichier, mais aussi et c'est ce qui nous intéresse le plus, la recopie en local de tout ou d'une partie d'un site qui sera par la suite consultable hors-ligne.

    Voici donc notre script :

     

    A la commande wget nous avons ajouté l'option -O qui nous permet d'indiquer où le fichier va être stocké.

    En lançant le script ci-dessus dans le terminal:


    Nous aspirons les pages correspondant à nos Urls et les enregistrons dans le fichier PAGES-ASPIREES. On vérifie si les pages aspirées sont stockés au bon endroit:


    et nous obtenons alors notre tableau à trois colonnes:


    Une petite remarque sur la commande wget est qu'elle permet de reprendre un téléchargement échoué dû par exemple dans notre cas à une rupture de connexion, ce qui fait le mérite de cette commande!


  • Commentaires

    1
    SF
    Mardi 20 Novembre 2012 à 20:52

    Le résultat attendu à cette phase de travail semble atteint.

    Reste encore des choses à améliorer : l'encodage de vos fichiers d'URLS, on en parle demain.

    • Nom / Pseudo :

      E-mail (facultatif) :

      Site Web (facultatif) :

      Commentaire :


    Suivre le flux RSS des commentaires


    Ajouter un commentaire

    Nom / Pseudo :

    E-mail (facultatif) :

    Site Web (facultatif) :

    Commentaire :