Mittwoch, 19. Februar 2014

google webmaster tools

bei den WEbmaster tools kann man die Seite analysieren lassen.

HTML Seite mit SEOquake analysieren, hier kann man auch die Keyword density feststellen! Diese sollte bei 3-4% liegen. Aber soviele Keywords wie möglich rein hauen und mir Text auffüllen. Text kann auch ganz unten stehen, wo keiner hinscrollt.

Blindtext: lorem ipsum in google eingeben

was die Suchmaschine ausliest kann man bei Spider Simulatoren checken, z.B.  http://www.webconfs.com
falls man das Menu als erstes stehen hat, kann man so das Ergebnis optimieren:
im Quelltext hinter <body> Kommentar bauen:
<!-- <div>keyword1, keyword2,keyword3...</div> //-->
=> Dieser Div-container wird nicht angezeigt, aber seoquake liest es aus und die Seite hat mehr Chancen nach vorne zu kommen. Aber nicht übertreiben (kein Stuffing)...

WEbmaster
Sitemaps.xml: sehr wichtig, hier wird angezeigt, welche Unterseiten indexiert sind. Wir brauchen eine Sitemap, die nur für den Robot gedacht ist. Ist was anderes als die Sitemap.htlm, die auf meiner Website ist.Erstellen unter : http://www.xml-sitemaps.com/. Nur website eingeben (hauptseite), alles andere unverändert lassen (standard-einstellung)
mit FTP auseinandersetzen, damit man das auf den Server stellen kann!
sitemap.xml runterladen. Diese Datei muss dann auf den Server geladen werden.
Jimdo: Seo: XML Sitemaps, wird automatisch aktualisiert
Einstellungen: permalinks: Beitragsname (also ohne Nummern und Buchstaben hinter der Website)

Sitemap von Jimdo in Google Webmastertool einfügen

robots.txt,.htaccess sollte auch eingefügt werden.

3 Dateien gehören in das Root-Verzeichnis, die von Robots ausgelesen werden. Diese Dateien liegen auf dem Server, wo meine Startseite (index.php) liegt:
  • .htaccess
  • robots.txt
  • sitemap.xml
  • sitemap.xml.gz => komprimierte Sitemap, die schneller auf Smartphones angezeigt wird. Dass man die .gz verwendet, muss man in der .htaccess Datei angeben! Wie, siehe unter .htaccess
ob man die Website mit oder ohne www. angibt, wird in der .htaccess-Datei verankert

Weiterleitung mit code 301: von einer Domain zur anderen Domain und damit zur Website.
google eingeben .htaccess301 und auf die erste Quelle gehen. rauskopieren:
RewriteEngine On
Options +SymLinksIfOwnerMatch
RewriteCond %{HTTP_HOST} ^antonundsophie.de
RewriteRule (.*) http://www.antonundsophie.de/$1 [R=301,L]

in neuem Textdocument eingeben (also jede beliebige Domainadresse eintragen, ob mit oder ohne www). Ginge auch mit kinderartikel.de und www.antonundsophie.de. Man kann soviele Adressen untereinander schreiben und Domains weiterleiten wie folgt:

RewriteEngine On
Options +SymLinksIfOwnerMatch
RewriteCond %{HTTP_HOST} ^antonundsophie.de
RewriteRule (.*) http://www.antonundsophie.de/$1 [R=301,L]


RewriteCond %{HTTP_HOST} ^anton-und-sophie.de
RewriteRule (.*) http://www.antonundsophie.de/$1 [R=301,L]


RewriteCond %{HTTP_HOST} ^kinderartikel.de
RewriteRule (.*) http://www.antonundsophie.de/$1 [R=301,L]


speichern unter Dateiname : .htaccess und alle Dateien (auf Desktop)
Dann kommt auf dem Desktop eine Datei, die auf den Server geladen werden muss. Dann ist die Weiterleitung aktiviert.

robots.txt:
User-Agent: *
Disallow: /
kein Roboter darf alle Seiten ins Internet stellen!
Das * steht für: Alle
Der / steht für: Root-Verzeichnis

Das bedeutet, dass diese Seite gar nicht auftaucht. Sinnvoll z. B. für alle, die ihre Website gerade aufbauen und der Crawler nur unfertige Seiten vorfindet.
weitere Domains kaufen:
http://www.united-domains.de/de-domain/

Lange Permalinks verkürzen mit diesem Schnipsel:

# BEGIN Gzip Compression
AddEncoding gzip .gz
<filesmatch "\.js\.gz$">
AddType "text/javascript" .gz
</filesmatch>
<filesmatch "\.css\.gz$">
AddType "text/css" .gz
</filesmatch>
<ifmodule mod_rewrite.c>
RewriteEngine On
RewriteBase /
RewriteCond %{HTTP:Accept-encoding} gzip
RewriteCond %{REQUEST_FILENAME} \.(js|css)$
RewriteCond %{REQUEST_FILENAME}.gz -f
RewriteRule ^(.*)$ $1.gz [QSA,L]
</ifmodule>
# END Gzip Compression

# Dieser Code ist für die .htaccess gedacht
Domain (Accept-encoding) und gewünschte endung (REQUEST_FILENAME) eingeben

zurück zu WEbmaster Tool:
Aktueller Status:
crawling Fehler sollten möglichst nicht da sein! Wenn welche da sind und ich kann die korrigieren, dann kann ich angeben, dass der Fehler korrigiert ist.

HTTP Fehlercode in wikipedia zeigt an, welcher Fehler zu welchem Fehlercode gehört.

man muss die Domain mit www. und ohne www. hinzufügen . In die Seite gehen, die ich pflege, und auf das Rädchen oben rechst geben. Website Einstellungen. Bevorzugte Domain anklicken. Es reicht, diesen Prozess bei der präferierten WEbsite zu machen.

KLAUSUR:
Nachschreibklausur: Bitte erläutern Sie in ein paar Sätzen, was die Bezeichnungen robots, sitemaps, htaccess fabrizieren
Weiterleitung www. klärung, dass es Seiten mit und ohne www gibt
Keyword Density 3- max 6% (3-4% normal)
Was sollte Sie bei on page Optimierung möglichst nicht tun: nicht mit Greyhead arbeiten, weisse Shrift auf weissem Hintergrund (nur bei wirklich harter konkurrenz oder bei Test)
Was sollten Sie bei on page Opt. tun: streuen Sie backlings auf Facebook -> nein, da off page!!!
1xH1 und mehrmals H6
Für die Suchmaschinenopt. ist wichtig, dass überall in der Robots.txt-datei drin steht no index und no follow -> nicht anklicken, da quatsch

Mit der robots Datei im Head kann man Befehle für die einzelnen Seiten angeben. Mit dem robots.txt Datei auf dem Server kann  man ganze Kapitel ausschließen

strukturierte Daten: ist nur interessant, wenn man programmieren will, für uns nicht interessant
Data Highlighter: hier kann man per Mausklick die Daten hervorheben.
Markierung starten, Startseite oder Unterseite eingeben. Wenn man z.b. Produkte taggen will, kann man auch eine Unterseite angeben und er sucht sich alle ähnlichen Seite raus (ähnliche Seiten anklicken).
mit der linken Maustaste über den Produktnamen fahren und Name anklicken. So viele Angaben wie möglich machen, damit man möglichst viel Platz auf der Suchseite bekommt.
Man kann so viele Markierungen anlegen wie man möchte
HTML Verbesserungen: hier werden Verbesserungsvorschläge angezeigt
EXKURS: w3c Validator bei google eingeben: hier werden die HTML Fehler angezeigt, man hat als Laie aber keinen Einfluss auf Fehlerbehebung
Sitelinks (z.B. Kontakt, Leistungen...):

Wenda IT & Web | Onlinemarketing Agentur Dortmund

wenda-it-web.de/

Lassen Sie uns die Arbeit machen! Wir analysieren einmalig kostenlos Ihre Domain. Sie entscheiden ob Sie Wenda IT & Web weiter in Anspruch nehmen wollen.
Sie haben diese Seite am 16.02.14 besucht.
Kontakt
wenda-it-web.de/kontakt/
Kontaktieren Sie uns! Haben Sie Fragen? Wir möchten Ihnen ...
Vom Schüler zum Kunden zum ...
wenda-it-web.de/vom-schuler-zum-kunden-zum-partner-e-lunte/
Vom Schüler zum Kunden zum Partner, E-Lunte. von rrwenda ...
Leistungen
wenda-it-web.de/leistungen/
Wenda IT & Web - Onlinemarketing, E-Business ...
AGB
wenda-it-web.de/agb/
Zudem erkennt es die vorliegenden Wenda IT & Web ...


Diese Daten werden von Google automatisch angezeigt und je älter die Seite, desto mehr Sitelinks. Werden aber nur bei einer spezifischen Firmennamensuche angezeigt. wenn mann Sitelinks nicht dargestellt haben möchte (z.b. AGBs), kann man Google das hier bei "Sitelinks abwerten" mitteilen. Man hat nur keinen Einfluss darauf, ob google das auch macht.

Suchanfragen:
hier kann man die Suchwörter sehen, unter denen die Leute gesucht haben. Hier sind auch Keywords drin, auf die man nicht optimiert hat, sondern unter denen die Leute gesucht haben und wo meine Seite erschienen ist.
Wenn ich z.B. ein Wort mit Potential habe, untersuche ich das erstmal mit SEOquake auf die Density und würde das hier erstmal optimieren. Vielleicht reicht das schon, um weiter nach oben zu kommen.

mit Änderungen: Durchschntl. Positions Änderungen rechts: -30 -> Google Penalty bekommen
Vergleich letzter Monat zum vorangegangenen Monat

TIPP: Blog oder News Seite ist super, da hier viel kostenloses Potential liegt!

KLAUSUR
Meta Keywords ist für google uninteressant, nur für die anderen Suchmaschinen. für google ist die Meta description interessant

Links zu Ihrer Website: von welchen backlinks kommen die Besucher
Backlinks machen meine Seite stark (Vertrauensflüsse), sehr gut für die Suchmaschine!!

interne links: related posts unter einem Blog oder kommentar. Hier verlinkt man intern auf weitere Kommentare (plug in von Wordpress), z.B. vom Block zum Produkt und zurück, wie ein Spinnennetz sollten die Website aufgebaut sein
Manuelle Maßnahmen: Spam. Eine Website wird injiziert und spamt andere zu.

Indexierungsstatus: wie schnell wächst meine Website, wieviele Seiten sind indexiert (natürliches Wachstum)
content Keywords: zu welchen Themen stuft mich Google ein
URLs entfernen: wenn man die robots.txt schon eingerichtet hat, aber der Crawler war schon dan und die Seite ist schon im Index, dann kann ich die Anfrage zu URL-Sperrung hier stellen

Crawling Fehler: Fehlermeldung beim Crawling
Crawling Statistiken: hier kann man sehen, ob meine Seite regelmäßig gecrawlt werden (eigentlich immer zackenstufen gut. Bekommt man nur mit täglich neuem Inhalt hin) und wie schnell meine Seite geladen wird (grüne Kurve)
Abruf wie durch Google:wenn hier Fehlermeldungen kommen kann man den Crawler nochmal kurz vorbei schicken, um zu sehen, ob der Fehler behoben wurde. Dazu den Link von der Fehler-URL oben eingeben und auf Abrufen gehen. Hier kann man auch neue Seiten schneller ins Internet bringen.
Blockierte URL: hier kann die angelegten robots.txt anschauen und testen, man kann hier aber keine robots.txt einstellen
Sitemaps: siehe oben
URL-Parameter: nur interessant, wenn die Website mit Parameter arbeitet. Z.B. bei Amazon produkt -> code in der URL nach Amazon.de. Dann kann man hinzufügen: diesen Parameter eingeben,...
=> nur für Website-Entwickler!!!

Andere Ressourcen: interessante Tests (Test Tools )und weitere Tools. Merchant center, places...
Test Tool: hier kann mein Testen

Gesicht einfügen auf der SEO Seite ("rel author"), aber nur, wenn man ein google + Profil hat:
google +: Bild drin haben, Einstellungen, über mich, Kasten "links", hier meine Website einfügen.
Jetzt auf Website gehen. Ein Code sollte möglichst auf jede Unterseite einfügt werden oder in den Footer. Dazu gehe ich in meinen Quelltext.
In der Google Suche (rel author in google eingeben und auf die Seite Support.google.de)  hole ich mir den Code und individualisiere ihn mit meinem Google+ Code (URL): Zwischen " und ? den eigenen Profil Google+ Code einsetzen.
Einfach in den Footer oder an eine andere Stelle einfügen.
Im Test für strukturierte Daten kann man das jetzt testen.

google Labs: das ist nur ein Versuchstool!


Inbound-Marketing (englisch inbound „ankommend“) ist eine Marketing-Methode, die darauf basiert, von Kunden gefunden zu werden. Es steht im Gegensatz zum klassischen Outbound-Marketing, bei dem Nachrichten an Kunden gesendet werden[1], wie es per Postwurfsendung, Radiowerbung, Fernsehwerbung, Flyer, Spam, Telefonmarketing und klassischer Werbung üblich ist. Kunden bedienen sich immer häufiger des Internets, um Informationen über Produkte zu erhalten, und sind über klassische Werbebotschaften weniger erreichbar. Daher versucht Inbound-Marketing, mit Produktinformationen und relevanten Inhalten dort in Erscheinung zu treten, wo sich Kunden auf ihrer Suche befinden. Im Mittelpunkt von Inbound Marketing steht der Inhalt, der über Blogs, Podcasts, Web-Videos, E-Books, White Paper, Gastartikeln etc. veröffentlicht und über Suchmaschinenoptimierung, Social Media Marketing, E-Newsletter, PR den potentiellen Kunden zugänglich gemacht wird, um sie im weiteren Verlauf als Kunden zu gewinnen.

1 Kommentar:

  1. Danke für die Informativen Kenntnisse,
    Hier lernst Du anhand unserer hochwertigen Erfahrungen, wie Du innerhalb kürzester Zeit Erfolgreich und Selbstständig wirst..
    http://fevzigürer.com

    AntwortenLöschen