Update: Deleted Domain reanimieren

Geduld, Geduld – aber am Ende zeigten die Reaktivierungsmaßnahmen doch eine erste Wirkung.
Das Problem ist nur – es ist nicht nachvollziehbar, welche der Aktionen am Ende dazu führte, dass auch Backlinktest.com weitere Links gefunden hat. Dennoch – es sind nur 4 weitere Links gefunden worden. Ich vermute, dass es das Setzen der Direktlinks am 10./11.07.14 war. – Aus diesem Grund werde ich die verbliebenen Linkgeber auch noch direkt anlinken und in 4 bis 5 Wochen noch einmal das Ergebnis überprüfen.

stat1

facebooktwittergoogle_plusredditpinterestlinkedinmailby feather

Experiment: Deleted Domain reanimieren

Heute gibt es hier ein klitzekleines Experiment mit einer gelöschten Domain, die ich aufgestöbert habe. Ziel ist es, diese Domain wieder marktfähig zu machen (nicht, sie zum Ranken für irgendwelche Keywords zu bringen), da sie nach einer ersten Inaugenscheinnahme schöne Backlinks besitzt.

Zumindest zeigte mir der Backlink-Checker von backlinktest.com, den ich für den schnellen Zwischendurch-Test gern benutze, 6 Links an, von denen einer von zdnet.de gesetzt wurde.

bt

Der Freizeit-Domainsnapper hört wahrscheinlich an dieser Stelle auf. 6 Backlinks sind ein wenig mager, der Pagerank der linkgebenden Seiten ist auch kein Brüller und die Domain selber hat auch nur einen “Zweier”. (PR ist egal? Ja sicher, aber nicht,wenn du eine Domain verkaufen möchtest… )

Mich machte allerdings der zdnet-Link neugierig. So eine Seite verlinkt nicht mal einfach so, also folgte ich dem angezeigten Link und kam zu einer Story, an die ich mich selbst auch noch recht gut erinnern kann:

2006 kam der Provider ARCOR auf die glamouröse Idee, das teutonische Internet von Schmuddelseiten zu befreien und sperrte kurzerhand die Durchleitung von youporn und Kollegen in seinem Netz. Völlig neu war den Verantwortlichen damals offenbar, dass auf einem Server beim Hoster durchaus mehrere Internetpräsenzen liegen können, die dann kurzerhand mitgesperrt werden (und auch wurden), wenn man die IP des ganzen Servers blockiert.
Dieser Dschihad (jetzt crawlt die NSA endlich katzenkacke) gegen die Unzucht im Netz schlug natürlich Wellen und die URLs der Kolateralschäden wanderten durch die Nachrichten.

Meine Folgerung daraus: Es müssen noch ganz andere Backlinks existieren – wir nehmen einen anderen Checker. Meine Wahl fiel auf ahrefs.com, von dem ich weiß, dass er recht gründlich zu Werke geht. Allerdings ist das Tool kostenpflichtig und bringt im Demo-Modus nur einen Teil der Links ans Tageslicht. Aber was sahen meine trüben Augen?

ah

Da waren ja richtige Schwergewichte dabei… Hab ich hier einen Rohdiamanten?

Da ich wirklich nur ein Hobby-Domainer bin, kommt eine Bezahlvariante eines Backlink-Checkers nicht in Frage – bleibt also nur eine Möglichkeit: Wir suchen manuell in unser aller Suchmaschine. Und werden fündig.

Zu den Links von zdnet, Spiegel, tomshardware und golem gesellten sich noch heise, winboard und andere Webseiten. Die Freude war groß und die Domain schnell durch mich konnektiert. Denn wenn auch angeblich der Page Rank keine Rolle mehr spielt, ist doch der “Trust” einer Seite eine wichtige (naja, für SEOs) Kenngröße für den Wert einer Seite bzw. Domain. Und dieser “Trust” entsteht, wenn andere Seiten mit ihrerseits viel “Trust” einen Link setzen.

Trust heißt Vertrauen – man meint also, dass Google Seiten nach ihrer Vertrauenswürdigkeit beurteilt und das wiederum Einfluß auf die Position im Suchergebnis nimmt. Und vertrauenswürdig aus Suchmaschinensicht sind die großen und seriösen Webseiten und Newsportale. Sagt man. Glaube ich sogar.

Soweit die Vorgeschichte. Jetzt geht es darum, die Domain wieder marktfähig zu machen, sprich interessant für einen möglichen Käufer.

Es gibt vielerlei Gründe, eine “Gebraucht-Domain” zu erwerben. Sei es der Name, den man schon immer gesucht hat oder eine gewisse Popularität, sei es ein bestimmtes Keyword oder – und den Fall betrachten wir hier, ein bestimmtes Backlinkprofil. Auch bei letzterem gibt es verschiedene Beweggründe: Manche möchten Backlinks zu einem bestimmten Thema, manchen geht es nur um die Anzahl und manchen geht es um den “Trust”. Hier sehe ich meine Zielgruppe.

Was aber, wenn der interessierte Käuer den “falschen” Backlink-Checker nutzt und so wie ich im ersten Anlauf nur einen kleinen Teil der Links angezeigt bekommt, weil die anderen Backlinks irgendwo in den ruhenden Tiefen des WWW vergraben sind? Dann sinkt vielleicht sein Interesse. Darum lautet die Aufgabe, die “Geheimlinks” auch in backlinktest.com wieder sichtbar zu machen, denn diese Seite erfreut sich einer hohen Popularität. Aber wie stellt man das an?

Meine Vermutung ist, dass die entsprechenden Links gefunden werden, wenn die verschiedenen Crawler der Suchanbieter Google, Yahoo, Bing etc. dazu animiert werden, nach langer Zeit mal wieder auf den linkgebenden Seiten vorbeizuschauen. Und wie bringt man sie dorthin? Genau. Durch Links…

Also gilt es, die verschiedenen Seiten aktiv und dofollow anzulinken und zwar von Seiten, die derzeit aktiv gepflegt werden und auf denen die Crawler deshalb des Öfternen nach Neuigkeiten suchen.

Eine andere Möglichkeit ist es, die eigentlich für Blogs vorgesehenen Ping-Dienste zu nutzen, die dann ihrerseits bei den Suchmaschinen Bescheid geben, dass sie mal vorbeischauen sollten.

Eine dritte Möglichkeit zeigte mir ein User im Abakus-Forum, der berichtete, dass die Nutzung eines URL-Verkürzungs-Dienstes die von mir angestrebten Sichbarkeitsergebnisse der Backlinks zeitigte.

An dieser Stelle beginnt das Experiment.

Die Grafik ganz oben zeigt den Sichtbarkeitszustand am heutigen 10.07.2014 auf backlinktest.com

Ziel ist, die angezeigten Links wenigstens auf 20 zu erweitern. 23 verlinkende Domains habe ich insgesamt gefunden.

Zur Vorbereitung suchte ich in der “waybackmachine” nach den früheren Inhalten der Seite und stellte eine kleine index.html ins Netz, damit die wertvollen Backlinks nicht länger ins leere zeigen und dann mache ich mich an die Reanimation:

In erster Instanz nutze ich also Pingdienste, um die schlummernden Backlinks zu wecken.
Ich nutze pingomatic.com und twingly.com, die ich über den Tag verteilt, mit den gefundenen Backlink-Seiten füttere. Dazu die URL-Verkürzer-Veriante und einige Direktverlinkungen, die sich aber über mehrere Tage hinziehen.

Wir halten fest:

10.07.2014 – Pingen von 23 linkgebenden URLs

10.07.2014 – Verkürzen der 23 linkgebenden URLs mittles bit.ly und pingen meines Nutzerprofils

10.07.2014 – Verlinken meines bit.ly-Profiles

10.07.2014 – Setzen von Direktlinks mit ein wenig Kontext (6 von 23)

—-

11.07.2014 – Setzen weiterer 6 Direktlinks auf die Linkgeber, jetzt 12 von 23

——- Wird fortgesetzt ——-

Stay Tuned.

facebooktwittergoogle_plusredditpinterestlinkedinmailby feather

Hallo, hier ist Inga…
der neue Trend bei Kommentar-Spam

Am Anfang fällt es gar nicht auf… Denn Spam-Kommentare auf dem Blog sind auch nicht mehr das, was sie einmal waren. OK, abgesehen, von den hunderten Müllkommetaren aus Übersee, die mir mein Askimet zuverlässig rausfischt… Nein, der Spammer SEO von heute muß sich schon ein wenig mehr ins Zeug legen, um hier und anderswo einen DoFollow-Backlink zu erhaschen, schließlich gibt es fast kein Blog mehr, wo der Inhaber die Kommentare nicht manuell prüft und freischaltet.

Also muß der fleißige Suchmaschinenoptimierer seine Zeit nun damit verbringen, den Beitrag wenigstens zu überfliegen und sich einen einigermaßen glaubwürdigen Kommentar aus dem Großhirn kratzen. Das kostet Zeit und graue Zellen – und zumindest erstere ist bekanntlich Geld. Ärgerlich also, wenn der blöde Blogger den mühsam zusammengeschleimten Kommentar im Endeffekt dann doch entlarvt und dem Orkus übergibt…

Es gibt aber für alles eine Lösung – und der aktuelle Workaround baut auf Psychologie – die Kommentatoren heißen zwar nicht mehr “Kredit ohne Schufa” und “Viagra for free” – dafür heißen sie jetzt Jasmin, Annika und Kathrinchen…

Jaaaa – welcher pickelige, hornbebrillte und bewegungsunfähige Webmaster kann dazu schon nein sagen… Verirrt sich doch die holde Weiblichkeit auf sein Blog und läßt sich sogar dazu herab, einen lobenden Kommentar unter den Beitrag zu setzen….

…der linkt zwar zu irgendeiner Lottobude, aber hey – wenn man picklig, hornbebrillt und bewegungsunfähig ist, kann man eben nicht alles haben.

Keine Ahnung, ob die Masche wirklich so erfolgreich ist – ich fürchte ja, sonst wäre es ja keine Masche, allerdings reklamiere ich für mich, dass ich bei den Kolleginnen Kommentatorinnen schon aus Prinzip erstens auf die verlinkte Seite und zweitens ins Impressum derselben schaue.

Und wen sehe ich dann dort?

Den Bernd, den Uwe und den Hannes – aus der Traum von Kathrinchen… *schnüff*

facebooktwittergoogle_plusredditpinterestlinkedinmailby feather

Endlich! Wird private Arbeitsvermittung nach 14 Jahren von der Umsatzsteuer befreit?

“Ihr kriegt doch 2000 Euro, wenn ihr mich vermittelt!”

Der typische Satz eines Unwissenden, wenn es um die Honoration eines privaten Arbeitsvermittlers in der Stammtischdiskussion ging…

14 Jahre lang beteten die Vermittler das Mantra der Steuerlast zurück:

Von den 2000 Euro zahle ich gleich mal 400 wieder als Umsatzsteuer an den Staat zurück und von den verbleibenden 1600 Euro gehen wiederum rund 30% nocheinmal als Einkommenssteuer an den Staat zurück, womit überschlagen 1100 Euro netto bleiben. Da ist aber weder Krankenversicherung noch Altersvorsorge bezahlt.

Nun scheint sich zumindest im Bereich der Umsatzsteuer etwas zu tun, denn ein Antrag zur Änderung des Umsatzsteuergesetzes, genauer $4 desselben ist auf dem Weg in die Umsetzung.

a) Nach der Nummer 15a wird folgende Nummer 15b eingefügt:
„15b. Eingliederungsleistungen nach dem Zweiten Buch Sozialgesetzbuch, Leistungen der aktiven Arbeitsförderung nach dem Dritten Buch Sozialgesetzbuch und vergleichbare Leistungen, die
von Einrichtungen des öffentlichen Rechts oder anderen Einrichtungen mit sozialem Charakter erbracht werden. Andere Einrichtungen mit sozialem Charakter im Sinne dieser Vorschrift sind Einrichtungen,
a) die nach § 178 des Dritten Buches Sozialgesetzbuch zugelassen sind,…

Quelle: Drucksache 18/1529, Artikel 8, Punkt 2

Der Buchstabe a) – also die letzte Zeile des Zitates, beinhaltet die privaten Arbeitsvermittler, die ja bereits seit April 2012 eine Trägerzertifizierung nach AZAV vorhalten müssen.

Am 13.06.2014 passierte der geänderte Gesetzentwurf ohne Probleme den Bundesrat:

Drucksache 184/14 (Beschluss), Punkt 26 (Seite 40)

Eine längst überfällige steuerliche Einstufung der privaten Arbeitsvermittlung als Träger mit dem Ziel der Eingliederung von Personen in den Arbeitsmarkt und damit deren Gleichstellung mit anderen, parallel agierenden und längst umsatzsteuerbefreiten Einrichtungen ist somit auf dem Weg. Herzlichen Glückwunsch meinen ehemaligen Kollegen und Danke an jene, deren jahrelanges zähes Ringen mit der Politik nun endlich Früchte zu tragen scheint.

facebooktwittergoogle_plusredditpinterestlinkedinmailby feather

EDU-Backlinks, GOV-Backlinks leichtgemacht

Viele Besucher finden meinen Blog, weil sie in Google auf diesen Beitrag treffen:

Die Jagd nach den EDU-Backlinks

Allerdings ist der Beitrag nun schon ein wenig in die Jahre gekommen, und viele Tips sind inzwischen obsolet. Darum habe heute einmal die PHP-Region im Hirn aktiviert und für Euch ein kleines Script zusammengeschrieben, welches zumindest für den Grey-Hat-Bereich

Backlink via Redirect

eine Menge Arbeit abnimmt. Hinterlegt sind einige .gov- und -edu-Seiten, die über den bei SEOs bekannten Redirect-Trick einen Link zur eigenen Homepage generieren, den man dann nur noch von Google indexieren lassen muß. Soweit, so alt.

Neu (jedenfalls im Moment) ist, dass aus den kursierenden Listen nur jene URLs gewählt wurden, die auch noch funktionieren und – was der eigentliche Witz am Script ist – dass es für Euch einen Block HTML-Code generiert, wo die fertigen Links zum Indexieren einbaufertig für Eure Seite zur Verfügung gestellt werden.

Probiert es aus, HIER gehts zum Backlink-Generator.

Erfahrungsgemäß ist die Sache nicht zwingend in Googles Interesse, also würde ich die Injektortechnik auch nicht unbedingt für die wichtigsten Seiten verwenden. Auch die Wirksamkeit solcher Links ist umstritten, denn wie ich vor Zeiten hier schon schrieb, sind die Google-Mitarbeiter weder mit der Kneifzange auf die Welt gekommen, noch auf der Buttermilch hergeschwommen.

Nichtsdestotrotz ist es allemal ein hübsches Tool für das eine oder andere Experiment :)

Have Fun!

facebooktwittergoogle_plusredditpinterestlinkedinmailby feather

MHD bei Blogparaden?
Beitrag zur Blogparade von perfect-seo.de

Dies ist mein Beitrag zur aktuellen Blogparade von Lothar zum Thema:

Warum müssen Blogparaden ein Verfallsdatum haben?

Einführend für Nichtblogger sei zunächst der Begriff Blogparade aus meinem Verständnis heraus geklärt: Bei einer Blogparade (oder Blogkarneval) stellt ein Blogger ein Thema zur Diskussion, zu welchem weitere Blogger auf ihren eigenen Blogs ihre Meinung niederschreiben. Soweit – so allgemein.

Eingebürgert hat sich die Verfahrensweise, dass der Starter der Parade einen Stichtag setzt, zu dem er/sie die eingereichten Beiträge auswertet und eine kleine Zusammenfassung mit den oft sehr unterschiedlichen Themenbehandlungen der Teilnehmer veröffentlicht, gegebenenfalls mit einem abschließenden Fazit.

Lothar als Ausrichter dieser Blogparade stellt die Verfahrensweise nun keck in Frage und stellt die Überlegung an, wozu Blogparaden eigentlich überhaupt ein Ende-Datum haben müssen und ob es nicht sinnvoll wäre, eine Parade einfach open end mit stets neuen Beitragszugängen interessant und lebendig zu halten.

Nun… bei Seiten mit großem Bekanntheits- und besonders Beliebtheitsgrad mag das durchaus funktionieren und bestimmte Themen können auch nach Ablauf üblicher Paradelaufzeiten noch Scharen von Bloggern zu eigenen Themenbearbeitungen inspirieren. Doch als Regelfall taugt diese Idee nicht wirklich, denn:

  • Blogger sollten zu aktuellen Themen schreiben. Wenige Themen sind tatsächlich Dauerbrenner.
  • Der Paraden-Initiator muß auch die Möglichkeit zur Auswertung seiner Parade bekommen – nur wenige dürften endlos Zeit haben, um ständig die neuesten Beitragseingänge zu sichten und zu verarbeiten. Es wäre nicht schön für Teilnehmer, die sich Gedanken um ein Thema machen, wenn der Initiator sie dann irgendwann ignoriert, weil ihn seine vielleicht vor Jahren ausgeschriebene Blogparade schon gar nicht mehr interessiert.
  • Ich möchte gern die Zusammenfassung der eingereichten Beiträge lesen, besonders bei umfangreichen Paraden, wo der Einzelne nicht nachkommt, die verfaßten Artikel alle zu sichten.
  • Ich möchte gern das Schluß-Statement des Eröffners lesen – nur andere zur Arbeit animieren und selber nix tun, zählt nicht :)
  • am Ende geht es auch darum, mittels Blogparadenteilnahme andere Blogger für den eigenen Blog zu interessieren. Durch Teilnahme an einer hornalten Blogparade wird mir das nicht gelingen, denn die Themenkarawane ist längst weitergezogen und bis auf den Initiator wird kaum jemand (außer den eigenen Bloglesern) darauf aufmerksam werden

Und was spräche FÜR eine Endlos-Parade?

Nichts. Auch große Dauerthemen gliedern sich in aktuelle Schwerpunkte, die ggf. sogar Stoff für mehrere interessante Blogparaden hergeben. – Und die Originalität der Idee einer Endlosparade wird seeehr schnell abgegriffen sein. Erinnert Ihr Euch noch an die One-Million-Pixel-Site? Einer hatte die Idee und gutes Geld verdient – der zweite schon nichtmehr. Und danach wars auch schon völlig out. Also würde ich auf den Neuartigkeitsfaktor einer Open-End-Blogparade nicht setzen.

Mein Fazit, meine Meinung und mein Wunsch: Laßt die Paraden so wie sie sind – mit Ablaufdatum. Wer eine für ihn interessante Blogparade entdeckt, die ausgelaufen ist, kann ja dennoch drüber schreiben und seinen Beitrag als Comment beim Initiator verlinken. Es sei denn, er ist nur auf den schönen In-Content-DoFollow-Link aus – dann wird diese Variante natürlich uninteressant :) – Aber wollen wir nun Leser oder Links? – Das könne glatt die Eingangsfrage zu meiner nächsten, natürlich befristeten, Parade werden…

facebooktwittergoogle_plusredditpinterestlinkedinmailby feather

Blogs vs. Social Media – Auswertung der Blogparade

Es ist vollbracht – die erste Blogparade des Katzenkacke-Blogs ist beendet und ob der überschaubaren Reichweite meines Blogs freue ich mich sehr, dass es am Ende tatsächlich eine kleine Parade geworden ist.

Den Aufruf zur Parade findet Ihr hier nocheinmal zum Rekapitulieren.

Gefragt war, wie es in Zeiten von Facebook & Co. um die eigentliche Bloggerei bestellt ist, hat sie in Gegenwart ausufernder und immer neuer Social-Media-Kanäle eine Zukunft? Wo warten die Leser der Posts, Tweets und Abhandlungen? Das Thema liefert, wenn man darüber nachdenkt, eigentlich Stoff für ein Buch – aber da ich schon beim Bloggen unter Schreibblockaden leide, fange ich so etwas lieber gar nicht erst an.

Relative Einigkeit stellte sich bei den Mitstreitern der Parade sehr schnell ein, wenn es darum ging, das Blog gegenüber dem Social-Media-Kanal zu verorten, kurz zusammengefaßt: Der Blog ist ausführlich und nachhaltig, doch

Social Media ist Fastfood

Oder wie Claudia von “Tipptrick” es diplomatischer ausformuliert:

Der Nachteil ist, dass dort so viel veröffentlicht wird, dass alle Posts immer weiter nach unten rutschen und auch nicht mehr so gut gefunden werden.

während Hans von den “tages-gedanken” es erotisch auf den Punkt bringt:

Manchmal hat man auch mal Lust auf einen Quicky. Ist ja auch soweit OK. Dann bieten sich Twitter, Google+ und wie sie alle heißen mögen natürlich an

Dass sich Blogs und Social-Media-Kanäle nicht konkurrierend gegenüberstehen müssen, sondern sich zu Synergien ergänzen können, meinen sowohl Claudia

In der Regel machen Blogger in sozialen Netzwerken Werbung für ihre Blogs und posten nach Veröffentlichung eines neuen Artikels.

als auch die Kollegen von “Lecturio“:

Bei Lecturio werden beide Formen gemixt: Blogbeiträge werden über Facebook beworben und verlinkt.

Hans drückt es klassenkämpferisch aus :) :

“Gemeinsam ist man stark”.

Einen etwas rigideren, aber lesenswerten Beitrag hat Peter von nerd-o-mania eingeliefert, der dem Bild von friedlicher Koexistenz einen sarkastischen Reality-Check verpaßt, dem ich mich gedanklich verbunden fühle. Die Quintessenz lautet: Bloggen macht Arbeit. Bloglesen macht aber auch Arbeit – und die scheut ein Großteil des potentiellen Publikums, was es dem Blogger wegen ausbleibender Feedbacks auch nicht leichter macht.

Natürlich sind wir alle Blogger und darum nicht ganz wertungsneutral, wenn es um die Bloggerei geht, aber so optimistisch wie Alex von “wpzweinull” würde ich es nicht sehen:

Ich denke, dass die Blogs locker die nächsten dreissig Jahre überleben werden

Ich bin ja seit den frühen Neunzigern im WWW unterwegs und habe nicht nur die technische, sondern auch die intellektuelle Entwicklung im Netz miterlebt… Nein, ich behaupte, in 30 Jahren bloggt niemand mehr. (Ich darf das behaupten, 2044 bin ich Humus und kann für meine Aussage nicht mehr zur Verantwortung gezogen werden…) – weil es niemand mehr liest.

Ich bin ziemlich sicher, dass der Trend zu leichtverdaulichen und schnell vergessenen Nachrichtenströmen anhält. Einfach aus Bequemlichkeit. Firmen, die jetzt erst auf den Trichter der Bloggerei kommen, sind eigentlich schon um Etliches zu spät dran. Natürlich wird insbesondere im Wirtschaftssektor der Blog für ausführliche Information zu Produkten und Leistungen seinen Bestand haben, allerdings könnte man dafür auch einfach HTML-Code zusammenschreiben, “Blogs” haben viele Firmen imho doch nur, weil der Praktikant sich mit WordPress oder Joomla auskennt.
Im Moment erleben wir, so scheint es, eine Art Übergangsphase. Die ersten Blogger bloggen nicht mehr in herkömmlichen Blogs, sondern verlagern das Bloggen zu Facebook & Co. – nicht nur einen Teaser, sondern ganze Beiträge. Unabhängig von der Halbwertszeit der Beiträge scheinen sie doch dort ihre Leser besser abholen zu können.
Das wird sich ausweiten, denke ich und weitere Social-Media-Kanäle werden die Möglichkeit einräumen, unter ihren Fittichen zu bloggen. Ich sehe also persönlich einigermaßen schwarz für die Zukunft der Bloggerei, auch weil der Begriff mehr und mehr mit Werbung und Spam besetzt wird. Das nervt nicht nur mich (siehe hier), sondern auch Peter:

Nicht vergessen sollte man auch, dass das Niveau der Blogs verwässert wird durch die ganzen “Tante Trudes Produkttest-Blogs”, die als Auftragsblogger für Hallimash und Co. halbgaren Quark über Dinge die keiner braucht, schreiben. Als Einführung irgend einen dümmlichen Zweizeiler und dann eine Review in höchsten Tönen, die selbst Münchhausen die Schamesröte ins Gesicht treiben würde, zu einem Schrott-Produkt, das auf Fotos schon aussieht als würde es sein technisches Leben bereits aushauchen, wenn man versucht es aus der Verpackung zu pfriemeln.

Der Blog ist tod, es lebe der Blog – Danke fürs Mitmachen und Danke fürs Lesen. Ich freue mich auf weitere Wortmeldungen im Kommentarbereich.

facebooktwittergoogle_plusredditpinterestlinkedinmailby feather

Argh! Update…

Tja, sowas kommt von sowas… Da ruft mir doch das WordPress-Dashboard freudig entgegen, dass ein Update meines Themes verfügbar sei und ich Trottel klicke auch noch auf “mach doch”… Nun, da werde ich wohl den Abend damit verbringen, das Erscheinungsbild wieder auf den alten Stand zu coden. Verdammte Axt aber auch! Und mal wieder kein Backup… Ausgerechnet ich und kein Backup – Hach ich könnte mich gerade in den Hintern beißen :)

facebooktwittergoogle_plusredditpinterestlinkedinmailby feather

Die Bloggerseuche – sind wir nicht alle ein bischen blogga?

Blogger – das war mal der Begriff für Menschen, die ihre Meinung oder ihre Erlebnisse in Regelmäßigkeit der Netzgemeinde zur Verfügung stellten, der (das) Blog war das passende Werkzeug. Eine verschworene Gemeinschaft, oft politisch motiviert, die Einheitsmedien und ihre Einheitsmeldungen zu überbrücken und den Leser ungefilterten Zugang zu den verschiedensten Aspekten des Weltgeschehens zu gewähren. Blogs waren lesenswert für jene, die gern den einen oder anderen Blick üer den eigenen Tellerrand riskierten, oft intellektuell angehaucht und wenn schon nicht immer mit Wissen, dann zumindest mit Meinung geschrieben. Kurz – Blogs waren Information und Blogger die Robin-Hoods des Informationszeitalters.

Doch dann zeigte sich in mittelgrauer Vorzeit, dass unser aller Suchmaschine offenbar die Beiträge von Blogs recht weit vorn in den Suchergebnissen zeigt. Sicher nicht mit der Absicht, den anderen, damals üblichen statischen HTML-Seiten zu schaden, sondern mit der Erkenntnis des beschränkten Suchalgoritmus, dass Blogs ja stets aktuell und damit findenswert sind und der gewöhnliche Googler ja auch stets die neuesten Meldungen lesen möchte. Das erkannten natürlich auch ganz schnell jene Leute, die damals SEO betrieben und mit seinerzeit recht einfachen Mitteln Internetpräsenzen in den Suchergebnissen nach vorn pushen konnten: Der Blog wandelte sich vom Werkzeug der Informanten zum Werkzeug des Teufels Suchmaschinenoptimierers. Jeder Mist, der über Werbeklicks Geld einspielen sollte, wurde nun mittels eines Content Management Systems (vereinfacht: Blogsoftware) veröffentlicht, um vorn in Googles Ergebnissen zu erscheinen und Klicker anzulocken. Und plötzlich waren alle möglichen Licht- und dunklen Gestalten BLOGGER.

Das Ergebnis der Blog- und Bloggerinflation ist heute, dass wahrgenommen jede Website, und sei sie noch so klein und sinnbefreit auf fetten Blog-Scripten aufgesetzt ist. Und ebenso jedwede Möglichkeit, den Menschen Werbung unterzujubeln. Der Blog als Informationsmedium spaltete sich in unzählige Unterbloggattungen auf, deren überwiegende Anzahl dem Kohlescheffeln auf die eine oder andere Art dient. Damit läßt sich ja durchaus leben und umgehen, aber das Problem ist, dass sich nun tatsächlich jeder bezahlte Lippenstifttester als Blogger bezeichnet und die einschlägigen Treffpunkte für Blogger geflutet sind mit Beautyblogs, Testblogs und provisionsbehafteten “Vergleichs” – Blogs – dem Blogger vom alten Schlag bleibt nur die Flucht ob der Verdrängung und der schleichende Untergang in der Isolation – denn neue Netzbenutzer suchen und besuchen seinen Blog nicht mehr – der Begriff ist bei ihnen mit “Werbeplattform” oder Spam assoziiert und nicht mit freier Information. Noch gibt es Leuchttürme enthusiastischer Informationsverbreiter, doch ihre Sichtbarkeit schwindet für eine Generation, die Suchmaschinen nicht mehr bedienen kann und Webadressen ins Googleformular tippt… Der deutsche Linkgeiz gibt den letzten echten Blogs dann den Rest, denn verlinkt wird nach PageRank (2014!) und “Sichtbarkeitsindex”, nicht nach Informationsgehalt.

Vielleicht sollte der eine oder andere, der etwas zu sagen hat, wieder auf die guten alten statischen HTML-Seiten zurückgreifen, könnte ja sein, dass Googles Algoritmus darüber so erschrickt, dass er diesen Fund als besonders wertvoll einstuft und weit vorn listet… Wer weiß das schon? Immerhin kann Google sicher sein, dass es sich bei solch einer Entdeckung um kein Spamblog handelt :)

facebooktwittergoogle_plusredditpinterestlinkedinmailby feather

Meta Tags optimieren

Gastblogger: Sammy Zimmermanns

Erfolgreiche Webprojekte bieten einen besonderen Mix, welcher am Ende den großen Erfolg ausmacht. Neben gut recherchierten Texten, sollte in diesem Zusammenhang auch die Suchmaschinenoptimierung nicht zu vergessen werden. Die Suchposition, die einem die Suchmaschine zuweist, entscheidet über den Erfolg oder Misserfolg einer Webseite. Wer sich nur auf sein Glück verlässt, liefert seine Webseite dem Treiben der anderen Marktteilnehmer aus, und lässt sie letztendlich über den wirtschaftlichen Erfolg seiner Webseite entscheiden. Zum Glück gibt uns das SEO genügend Werkzeuge an die Hand um dem entgegenzusteuern.

Die Rolle der Meta Tags

Es gilt hier die Rolle der Meta Tags besonders hervorzuheben. Lange Zeit galten diese als Oldschool und als nicht mehr wichtig, doch spielen diese im Zusammenspiel mit dem eigenen Suchergebnis eine wichtige Rolle. Es gilt neben der richtigen Länge von Meta Title und Meta Description, auch den passenden Inhalt zu finden. Knackig, auf den Punkt und dabei mit einem passenden Keyword versehen – dies muss heutzutage der Ansatz sein. Genau aus diesem Grunde sind beide Meta Tags zudem überaus entscheidend für den SEO Erfolg einer Webseite im World Wide Web. Die genaue Definitionen der Meta Tags können interessierte hier nachlesen.

Die Suchmaschinenoptimierung als Chance für den Erfolg

Die Suchmaschinenoptimierung (SEO) bietet Webmastern viele Möglichkeiten. Sie sollten neben der Offpage Optimierung (Linkaufbau) auch auf die Meta Description oder Meta Title achten, also Bestandteile, die zur so genannten OnPage Optimierung gehören. Nur wer beide Maßnahmenbereiche ordentlich anwendet erzielt ein optimales Ranking.

Die eigene Webseite durch gute Meta Tags optimieren

Der Erfolg in Suchmaschinen ist eng mit einer gut optimierten Webseite verbunden. Der beste Einstieg dafür ist die OnPage Optimierung, also alle Bereiche, die der Webmaster/ Betreiber direkt selber auf der Webseite beeinflussen kann. Dazu gehört zu jeder Unterseite eine ordentliche Meta Description und Meta Title, denn hiermit werden den einzelnen Suchmaschinen doch sehr wichtige Signale übermittelt, welche auch in den Suchergebnissen, bzw. in der Anzeige zum Tragen kommen. Titel und Beschreibung sollten sich an den gebotenen Content ausrichten und das Versprechen des Suchmaschineneintrages voll einlösen. Dafür hat ein guter SEO Texter genau 56 Zeichen Platz für den Title und bis zu 156 Zeichen inklusive Leerzeichen für die Beschreibung. Zudem sollte der Titel und die Beschreibung Neugier bei Leser wecken und zum klicken auf den Suchmaschineneintrag anregen. Das ist eine hohe Kunst und nicht jeder kann seine Gedanken auf nur 156 Zeichen beschränken und Neugier beim Empfänger auslösen. Da dieser Bereich des SEO immer Wichtiger wird und direkten Einfluss auf den ROI hat, haben sich spezielle SEO Texter, auf das Schreiben dieser sehr wichtigen Meta Daten spezialisiert.

Über den Autor

Dieser Artikel wurde von Sammy Zimmermanns verfasst, der als Freier Journalist und SEO Texter arbeitet. Sie können mit Ihm über oder facebook in Kontakt treten.
 

facebooktwittergoogle_plusredditpinterestlinkedinmailby feather