Cum pot sa imi protejez site-ul de HTTrack website copier.

Pentru a scăpa de copiii care vă copiază tot în HTML, parcurgeți următoarele:

Intrați în public_html, și căutați fișierul .htaccess ( dacă nu apare, solicitați printr-un ticket să vă editeze ei. Unele firme au acces restricționat).

Dați edit la .htaccess și sub tot ce aveți acolo ( sau dacă nu aveți nimic) inserați acolo, următoarele:

RewriteCond %{HTTP_USER_AGENT} ^HTTrack [OR]

RewriteCond %{HTTP_USER_AGENT} ^SiteSucker [OR]

RewriteCond %{HTTP_USER_AGENT} ^WebZip [OR]

RewriteCond %{HTTP_USER_AGENT} ^WebCopier [OR]

RewriteCond %{HTTP_USER_AGENT} ^Zeus

RewriteRule ^.*$ no_download.html [L]

Apoi, tot în public_html, creați un fișier nou: robots.txt (adică numele robots, extensia txt, de la fișier text) . Sau îl faceți întâi în PC și-i dați upload.

În robots.txt inserați următorul cod:

User-agent: AhrefsBot

User-agent: Baiduspider

User-agent: EasouSpider

User-agent: Ezooms

User-agent: YandexBot

User-agent: MJ12bot

User-agent: SiteSucker

User-agent: HTTrack

Disallow: /

Robots.txt poate fi pus și pe subdomenii, însă trebuie neapărat să fie în public_html, alături de .htacccess.

Și-apoi gata. Nu se mai poate folosi HTTrack și nici câteva programe similare.

Succes!

Leave a Reply

Your email address will not be published. Required fields are marked *