MyDevil – działający kod rabatowy z promocją

Dziś krótki artykuł, w którym chciałbym zwrócić uwagę na ciekawe okazje kupienia serwera w firmie hostingowej MyDevil.net, która to figuruje w naszym rankingu na stronie głównej.

A nawet by można rzec, że bardzo ciekawe okazje zakupienia nowego hostingu (lud przedłużenie istniejącego), bo z obniżką sięgającą nawet -70%.
Firma MyDevil cyklicznie organizuje promocje dla nowych i obecnych klientów. Z reguły promocje są na święta (Bożego Narodzenia, Wielkanocne), wakacje i Black Friday, ale zdarzają się i bez większej okazji, trzeba po prostu śledzić ich stronę.

Promocje w MyDevil.net są z reguły z rabatem 40-50% taniej za dowolny plan hostingowy. Ale ważne jest też, że ów promocje działają z lojalnościowym kodem rabatowym od innych użytkowników, które obniżają cenę hostingu o kolejne 20%. Więc jak łatwo policzyć, że podczas każdej promocji, możesz wykupić lub przedłużyć hosting aż o 70% taniej.

To jest dużo, bo przy najtańszym pakiecie, który normalnie kosztuje 200 zł, dzięki promocji zapłacisz 60 zł. I tak właściwie można od promocji do promocji.

Jak wcześniej wspominałem, żeby podczas promocji obniżyć jeszcze cenę o te kolejne 20%, musisz podczas składania z użyć kodu rabatowego od innych użytkowników. Dlatego tutaj dzielimy się z Tobą takim kodem:

Kod rabatowy -20% działający z promocjami w MyDevil:

6HD2U7XTMN

(możesz go skopiować do schowka)

Warto żebyś sobie tą stronę (lub sam kod) zapisał w zakładkach, żeby podczas kolejnej promocji nie szukać po internecie, tylko mieć pod ręką.


Jakie dostępne są autoinstalatory w SeoHost.pl

Autoinstalatory (lub instalatory) aplikacji internetowych to ciekawa usługa firm hostingowych. Dzięki nim, zwłaszcza początkujący webmasterzy mogą w szybki i prosty sposób zainstalować CMSa, system blogowy WordPress czy inną aplikację webową na swoim serwerze. Instalacja takiej aplikacji zazwyczaj odbywa się jednym kliknięciem, bez potrzeby wgrywania plików źródłowych, konfiguracji bazy danych itp., jak to przebiega podczas instalacji ręcznej. Co ciekawe z reguły wszystkie aplikacje są darmowe, na licencji Open Source, więc nie trzeba ponosić dodatkowych kosztów.

W tym artykule pokazuje, jak to wygląda na przykładzie hostingu firmy SeoHost.pl, która znajduje się w naszym rankingu hostingów.

Autoinstalatory dostępne są tutaj w po zalogowaniu na konto hostingowe w zakładce menu Dodatkowe funkcje -> Installatron Applications Installer -> Katalog aplikacji. Dostępnych aplikacji webowych jest kilkadziesiąt i są podzielone na kategorie. Poniżej wymieniamy pełną listę, żebyś miał na 100% pewność że będzie dostępna ta, której potrzebujesz.

Aplikacje społecznościowe

W tej kategorii, znajdują są różnego rodzaju społecznościówki typu fora internetowe, wiki, czaty, kalendarze czy narzędzia do pracy grupowej.

Pełna lista (w SeoHost):

  • phpBB
  • MediaWiki
  • BlaB
  • phpMyChat
  • Dada Mail
  • phpList
  • Site Recommender
  • FluxBB
  • MyBB
  • mylittleforum
  • Simple Machines Forum
  • Vanilla Forums
  • XMB Forum
  • Booked
  • LuxCal
  • WebCalendar
  • Admidio
  • Elgg
  • HumHub
  • Jcow
  • pH7Builder
  • DokuWiki
  • PmWiki
  • WikkaWiki

Systemy Zarządzania Treścią

To chyba najczęściej wybierana kategoria, dlatego że jest w niej najpopularniejszy system blogowy na świecie – WordPress, do tego inne systemy blogowe, CMSy, portale czy frameworki.

Pełna lista:

  • WordPress
  • Drupal
  • Joomla
  • b2evolution
  • Dotclear
  • Geeklog
  • LifeType
  • PluXml
  • Serendipity
  • Textpattern
  • ClassicPress
  • CMS Made Simple
  • Composr CMS
  • Concrete CMS
  • Contao
  • GetSimple
  • ImpressPages
  • LEPTON
  • liveSite
  • Microweber
  • MODx
  • Omeka
  • phpwcms
  • PyroCMS
  • SilverStripe
  • TYPO3
  • WebsiteBaker
  • Chamilo
  • Gibbon
  • Moodle™ LMS
  • phpMyFAQ
  • e107
  • Mahara
  • PHP-Fusion
  • Subrion
  • Tiki Wiki CMS Groupware
  • Xoops
  • Zikula
  • CakePHP
  • Code Igniter
  • Coranto
  • Laravel
  • Nette
  • Smarty
  • Symfony
  • Zend Framework

e-Commerce i Biznes

W tej kategorii znajdą coś dla siebie webmasterzy, planujący postawienie portalu biznesowego, typu sklep internetowy, system CRM, HeplDesk, system do fakturowania, portal dla biur nieruchomości czy innego rodzaju projekty.

Pełna lista:

  • Magento
  • PrestaShop
  • Dolibarr
  • FrontAccounting
  • Open Real Estate
  • OpenBiblio
  • OrangeHRM
  • Feng Office
  • GLPI
  • Group Office
  • SuiteCRM
  • Vtiger
  • YetiForce
  • Zurmo
  • Blesta
  • BoxBilling
  • ClientExec
  • InvoiceNinja
  • Simple Invoices
  • WHMCS
  • Crafty Syntax Live Help
  • FreeScout
  • HESK
  • Live Helper Chat
  • Mibew Messenger
  • osTicket
  • Anuko Time Tracker
  • Collabtive
  • Kanboard
  • Mantis
  • phpMyAdmin
  • The Bug Genie
  • Traq
  • Mautic
  • Osclass
  • Revive Adserver
  • AbanteCart
  • CE Phoenix Cart
  • CubeCart
  • LiteCart
  • OpenCart
  • osCommerce
  • Shopware
  • WeBid
  • Zen Cart

Zdjęcia i pliki

W tym dziale aplikacje webowe odpowiedzialne za zarządzenie plikami i zdjęciami. Dzięki nim możesz stworzyć na stronę, galerię zdjęć lub postawić swój własny hosting plików (alternatywę dla OneDrive itp.)

Pełna lista:

  • Piwigo
  • Nextcloud Hub
  • Coppermine
  • Gallery
  • iGalerie
  • Lychee
  • TinyWebGallery
  • Zenphoto
  • Codiad
  • GateQuest File Manager
  • OpenDocMan
  • ownCloud
  • ProjectSend
  • Pydio
  • SeedDMS

Ankiety, statystyki i różne

Pozostałe aplikacje i skrypty php, za pomocą których stworzysz na stronie sondy, statystyki, formularze, czytniki rss itp.

Pełna lista:

  • LimeSurvey
  • Advanced Poll
  • Simple Poll
  • Matomo
  • Open Web Analytics
  • Seo Panel
  • Roundcube
  • Form Tools
  • webtrees
  • selfoss
  • SimplePie
  • Tiny Tiny RSS
  • Search Engine Project
  • SiteBar
  • Wallabag
  • YOURLS
  • iTron Clock

Wszystkie powyższe aplikacje i skrypty możesz zainstalować jednym kliknięciem na swoim serwerze w Seohost.pl. Jedynie co to musisz zdefiniować na jakiej domenie ma być on zainstalowany, jaka wersja skryptu, wersję językową oraz dane dostępowe administratora aplikacji.


Blokowanie robotów w robots.txt i .htaccess

Wyszukiwarki internetowe opierają swoje działanie na analizie kodu i treści zindeksowanych stron. Ale żeby móc to zrobić, muszą najpierw dobrze poznać strony i to nie tylko stronę główną, ale i wszystkie jej podstrony. Do tego procesu używane są roboty sieciowe, nazywane również botami lub pająkami. Są to specjalne programy, które są podstawowymi elementami każdego silnika wyszukiwarki. Ich rolą jest odwiedzanie wszystkich stron i podstron, a następnie kopiowanie ich zawartości do systemu indeksującego wyszukiwarki internetowej. Roboty te podążają wszystkimi hiperłączmi (linami URL) umieszczonymi na stronie.

Robotami sieciowymi w obrębie serwisu, każdy webmaster może sterować. W tym sensie sterować, że może im powiedzieć czy mogą indeksować daną stronę czy nie. Często bowiem się zdarza, że roboty internetowe nie służą wyszukiwarkom internetowym, a osobom wyszukującym miejsc do publikowania spamu. Takie roboty mogą powodować niepotrzebne obciążenia serwerów, więc lepiej je blokować. Do tego używa się plików robots.txt lub zapisów w plikach .htaccess. Ta druga metoda jest bardziej skuteczna na niestandardowe roboty, gdyż one z reguł w ogóle nie biorą pod uwagę instrukcji w plikach robots.txt. Dlatego opiszemy tutaj dwie metody.

robots.txt – blokowanie robotów sieciowych

Zadaniem plików robots.txt jest kontrolowanie działania robotów sieciowych. Dzięki nim określisz jakie roboty mogą mieć dostęp do zasobów serwisu, a które nie. Możesz też uściślić, które katalogi i podstrony serwisu nie powinny być indeksowane przez wyszukiwarki.

I tak, jeśli strona www ma być indeksowana przez wszystkie przeglądarki, to zawartość pliku robots.txt, powinna wyglądać tak:

User-agent: *
Allow: /

Jeśli danego katalogu (np. podstron administracyjnych), wyszukiwarki nie powinny indeksować, trzeba użyć poleceń:

User-agent: *
Disallow: /admin/

Jeśli natomiast chcesz zablokować indeksowanie wszystkim przeglądarkom oprócz Google, to możesz połączyć ze sobą kilka poleceń:

User-agent: *
Disallow: /


User-agent: Googlebot
Allow: /

Lista nazw (User-agent) robotów najpopularniejszych wyszukiwarek:
Googlebot – wiadomo 🙂
Bingbot – Bing
DuckDuckBot -DuckDuckgo
Slurp – Yahoo!
YandexBot -Yandex
Baiduspider – Baidu

Webmasterzy najczęściej chcą jednak, aby jak najwięcej wyszukiwarek zindeksowało ich serwisy. W takim przypadku powinni wstawić plik robots.txt z poleceniami z przykładu pierwszego.

.htaccess – blokowanie robotów

W pliku .htaccess najskuteczniej zablokujesz roboty, które są dla Ciebie niepożądane i nie chcesz aby marnowały transfer i zamulały hosting, na którym znajduje się Twoja strona internetowa. W tym przypadku podstawową rzeczą jest ustalenie adresów IP robotów które chcesz zablokować. Najlepiej można to zrobić przeglądając logi serwera lub skorzystać z jakiś blacklist w internecie.

Gdy już posiadasz takie adresy, to wystarczy dodać odpowiednie linijki kodu do pliku .htaccess (który z reguły już istnieje w katalogu głównym Twojego serwisu):

order allow, deny
deny from 1.1.1.1
deny from 2.2.2.2

W miejscu 1.1.1.1 i 2.2.2.2 należy wstawić adresy IP blokowanych robotów sieciowych. Oczywiście blokować można większą ilość adresów sieciowych, a nawet i całych klas adresów.