Meine eigene Homepage - Wie schütze ich mich vor Hackern und Bots?
Hacker sind ein leidiges Problem für jeden Betreiber einer Homepage. Wer morgens seine Seite aufmacht und diese defaced findet wird sicher nicht amüsiert sein, deswegen hier einige Tipps um das Risiko zu minimieren und Hackern so wenig Möglichkeiten wie möglich zu bieten.
/wedata%2F0018575%2F2011-06%2FPortrait-of-a-styled-professional-model-Theme-teen.jpg)
Sicher programmieren
Sicher zu programmieren ist leider ein unerfüllbarer Traum, denn egal wie sorgfältig man vorgeht, es gibt fast immer eine Möglichkeit den Code zu missbrauchen und sich Zugang zu einer Seite zu verschaffen. Wer eine eigene Homepage selber machen will, der sollte für die eigene Homepage darauf achten, seine Zugänge mit sicheren Passwörtern zu sichern und sich nur über gesicherte Verbindungen einzuwählen.
Dann sollte man sich über die bekannten vergangen Sicherheitsprobleme seiner gewählten Programmiersprache informieren und diese nicht wiederholen.
Besonders bei Skripten die die Eingaben direkt wieder auf der Homepage ausgeben, sollte man vorsichtig sein.
Aktualität
Da viele Homepage Besitzer heute ihre Webseite mit einem CMS machen, ist es für die Hacksr sehr viel einfacher geworden diese feindlich zu übernehmen. Wenn im Quelltext schon ein powered by cms Version 1.xy prangt, dann muss man nur sehen, ob es dafür schon einen Hack gibt und voila, ruckzuck ist die Homepage in fremden Händen.
Hier sollte man zum einen tunlichst darauf achten, immer die neueste Version am Start zu haben, zum anderen sind die Hinweise welche Version welches CMS man verwendet wirklich nur für die Hacker interessant und man sollte diese nicht im Quelltext ausgeben.
Wem die zum Teil in wöchentlichen Intervallen statt findenden Updates zu viel Arbeit sind, der sollte zusehen sich ein gehostetes Angebot zu besorgen. Dann liegt die Verantwortung für die Upadates beim Hoster.
Bots aussperren
Eine weitere Landplage sind so genannte Bots die automatisiert auf Homepages zugreifen und diese mit Inhalten und sinnlosen Kommentaren zustopfen. Hier sollte man auf Captchas zurückgreifen. Dies sind für Roboter möglichst nicht zu entziffernde Zeilenfolgen, die der User eingeben muss, um einen Kommentar hinterlassen zu können. Noch eleganter ist das Aussperren mittels htaccess, leider ist diese Methode aber sehr aufwändig und bedarf der ständigen Anpassung der Datei und kann auch dazu führen, dass auch erwünschte Besucher davon getroffen werden und nicht mehr den vollen Umfang der Seite nutzen können.