Taille: 3567
Commentaire:
|
Taille: 3601
Commentaire: crypté -> chiffré + corrections mineures
|
Texte supprimé. | Texte ajouté. |
Ligne 35: | Ligne 35: |
nom_utilisateur:mot_de_passe_crypté | nom_utilisateur:mot_de_passe_chiffré |
Ligne 52: | Ligne 52: |
Pour crypter les mots de passe, il y a plusieurs solutions: | Pour chiffrer les mots de passe, il y a plusieurs solutions : |
Ligne 55: | Ligne 55: |
* Le plus simple reste l'utilisation de {{{htpasswd}}}. | * Le plus simple reste l'utilisation de la commande {{{htpasswd}}}. |
Ligne 58: | Ligne 58: |
}}} demandera le mot de passe de toto et créera le fichier {{{/home/nom_utilisateur/.htpasswd}}}[[BR]] |
}}} demandera le mot de passe de toto et créera le fichier {{{/home/nom_utilisateur/.htpasswd}}} <<BR>> |
Ligne 68: | Ligne 68: |
== Interdire l'accès en ssh aux autres utilisateurs du cr@ns == | == Interdire l'accès en ssh aux autres utilisateurs du Cr@ns == |
Ligne 70: | Ligne 70: |
Ce n'est qu'une histoire d'autorisation sur le dossier en question: | Ce n'est qu'une histoire d'autorisation sur le dossier en question : |
Ligne 78: | Ligne 78: |
Pour empêcher les moteurs de recherches comme google d'indexer vos pages, rien de plus simple, il faut créer un fichier robots.txt | Pour empêcher les moteurs de recherches comme google d'indexer vos pages, rien de plus simple, il suffit de créer un fichier {{{robots.txt}}} |
Ligne 80: | Ligne 80: |
Ce fichier ce place à la racine de vos pages (dans le dossier www) et peut contenir les commandes suivantes : | Ce fichier se place à la racine de vos pages (dans le dossier {{{www/}}}) et peut contenir les commandes suivantes : |
Restreindre l'accès a certains fichiers déposés sur Zamok
Sommaire
Avec un fichier .htaccess
En utilisant un fichier .htaccess, on peut restreindre l'accès à certains dossiers stockés dans www. Pour cela il faut créer deux fichiers:
un fichier nommé .htaccess dans le dossier dont on veut restreindre l'accès;
un fichier nommé .htpasswd dans /home/nom_utilisateur.
Contenu du fichier .htaccess
# .htaccess AuthUserFile /home/nom_utilisateur/.htpasswd AuthGroupFile /dev/null AuthName "Acces restreint" AuthType Basic <Limit GET POST> Require valid-user </Limit>
Qui fait référence au chemin d'accès du fichier .htpasswd
Contenu du fichier .htpasswd
Ce fichier contient une liste des utilisateurs autorisés. La syntaxe de la liste est la suivante:
nom_utilisateur:mot_de_passe_chiffré
Exemple: On autorise deux utilisateurs:
papa qui a pour mot de passe noel;
pere qui a pour mot de passe fouettard.
Qui donne le fichier suivant:
# .htpasswd papa:KZjIAGTjhe4Ys pere:pC2IXXpDUjAl.
Pour chiffrer les mots de passe, il y a plusieurs solutions :
- savoir le faire de tête (mieux vaut être salement nerd pour ça)
savoir se tourner vers des gens qui savent le faire, comme par exemple ce site: http://perso.nerim.net/htpasswd.php
Le plus simple reste l'utilisation de la commande htpasswd.
htpasswd -c /home/nom_utilisateur/.htpasswd toto
demandera le mot de passe de toto et créera le fichier /home/nom_utilisateur/.htpasswd
Puis
htpasswd /home/nom_utilisateur/.htpasswd toto
Pour modifier le mot de passe de "toto" ou rajouter d'autres couples "login/mot de passe" (changer "toto" en conséquence) Plus d'informations sur cette commande en faisant man htpasswd sur zamok
On notera que le fichier .htpasswd sera lisible par tous les utilisateurs du Cr@ns. C'est pas le mieux en termes de sécurité même si les mots de passes qu'il contient sont chiffrés.
Interdire l'accès en ssh aux autres utilisateurs du Cr@ns
Ce n'est qu'une histoire d'autorisation sur le dossier en question :
chmod -R g-rwx,o+r le_dossier chmod o+x le_dossier
Préciser aux robots d'indexation quelles pages peuvent être indexées
Pour empêcher les moteurs de recherches comme google d'indexer vos pages, rien de plus simple, il suffit de créer un fichier robots.txt
Ce fichier se place à la racine de vos pages (dans le dossier www/) et peut contenir les commandes suivantes :
- User-Agent: permet de préciser le robot concerné par les directives suivantes. La valeur * signifie "tous les moteurs de recherche".
- Disallow: permet d'indiquer les pages à exclure de l'indexation. Chaque page ou chemin à exclure doit être sur une ligne à part et doit commencer par /. La valeur / seule signifie "toutes les pages du site".
Le fichier robots.txt ne doit contenir aucune ligne vide !
Voici des exemples de fichier robots.txt :
- Exclusion de toutes les pages :
User-Agent: * Disallow: /
- Exclusion d'une ou plusieurs pages :
User-Agent: * Disallow: /repertoire/chemin/page.html Disallow: /repertoire/chemin/page2.html Disallow: /repertoire/chemin/page3.html
- Exclusion de toutes les pages d'un répertoire et ses sous-dossiers :
User-Agent: * Disallow: /repertoire/