Beiträge von mayer

    Guten Morgen,


    die letzte CSS Anweisung benötigt keine ( ;), wichtig ist css-Datei so klein wie möglich zu halten, bei 2000 Zeilen kommen da schnell einige überflüssige Zeichen zusammen.


    Ich habe das eben mal durchgetestet:


    Wie ich oben beschreiben habe funktioniert das nicht, die css Anweisung erscheint nicht mal im header im Seitenquelltext (da bin ich nun schon sehr verwundert).


    Als ich die CSS - Anweisung in meine global CSS-Datei (bundle-css) hinein kopiert habe, hat die Anweisung wunderbar funktioniert...

    Guten Morgen Holger,


    auf Zahnrad im container klicken, nun öffnet sich die Darstellung auf der linken Seite bei CSS-Klasse z.B: class-container-holger (die Bezeichnung kannst du bestimmen wie du magst) eintragen.


    Der Eintrag der notwendigen CSS kann unter anderem hier erfolgen:


    Webseite - Einstellungen - CSS folgenden Eintrag machen:


    Code
    <style>
    @media screen and (max-width: 400px){
    .class-container-holger {
    display: none
    }
    }
    </style>


    Die screen-width (400px) kannst du dann individuell für deine Bedürfnisse anpassen. Den style-tag benötigst du nur einmal für all deine zusätzlichen css Angaben ... Je nach Projekt wird es notwendig, die css-Anweisung mit einem "important" zu versehen. Also dann:


    Code
    <style>
    @media screen and (max-width: 400px){
    .class-container-holger {
    display: none !important
    }
    }
    </style>

    Hallo Steffen,


    ich kenne mich mit dem werksmäßigen Shop Tool auch nicht so genau aus ... Auf den jeweiligen Produktseiten habe ich ausschießlich den Highlight Artikel eingebaut, welcher die Infos über die Artikel im Shop bekommt. Beschreibungstext, Bild ... habe ich separat eingebaut. Habe mir das Widget Highlight Artikel kopiert und den Code angepasst, d.h. ich habe unter anderem die metas alle herausgenommen und habe jeder Artikelseite separate meta daten im Attribut mitgegeben, welche im header ausgegeben werden. Dies ist sicherlich mit einem Pflegemehraufwand verbunden, nutzt man jedoch Attribute wird 90% automatisch aktualisiert. Hierbei habe ich dann bei jedem Produkt die Möglichkeit wirklich alles individuell einzustellen.

    Auf den jeweiligen Kategoryseiten habe ich für die Darstellung der Produkte einen eigenen Code entwickelt und mit den Produktseiten verlinkt. Somit verwende ich ausschließlich das Widget Highlight-Artikel und Warenkorb.

    Hallo,


    es kann auch mit dem neuen Seitenquelltext zusammenhängen. Durch das geänderte Layout ist der html code auch komplett anderst.


    So wie hanabi schon erwähnte, optimiere mal die Bilder. Desweiteren kann du den Seitenquelltext auch mal über https://validator.w3.org/ prüfen um eventuelle Fehler zu eliminieren.


    Ich hatte schon mal ein ähnliches Problem, gleiches Layout aber Content total überarbeitet. Danach hat es mir die Seite vom ranking her zerhauen. Da der neue Content nach meinem Gefühl viel besser war, habe ich einige Wochen gewartet und siehe da mittlerweile rankt die Seite besser als die alte.


    Eventuell auch mal die interne Verlinkung checken und diese so abgleichen wie vor dem relunch (ganz wichtiger Punkt link juce!!!)

    Wenn es das ist was ich meine, dann die Datei mit dem Pixel-code einfach als Datei uploaden. Dann sollte FB Zugriff auf den Code haben.

    Hallo,

    Ich hatte mit dem widget video ein Video eingebunden, leider passt sich die Größe nicht auf unterschiedliche screen sizes an.

    Habe im widget keine weitere einstellungsmöglichkeiten gefunden...

    Ja dann hilft ein preload nicht, es müsste nachgeladen werden. Hab nun das sharif widget auf ein paar Seiten rausgenommen und die pagespeed hat sich im Schnitt um mehr als 10 % verbessert. Da nun google in der nächsten Zeit noch mehr Wert auf die Pagespeed legt und darüber nachdenkt ob in den Suchergebnissen bereits anzugeben, ob eine Webseite schnell oder langsam lädt, wird die pagespeed sicherlich irgendwann noch mehr Auswirkungen auf die pagespeed haben.

    Ebenfalls wäre es sinnvoll der font ein "font-display: swap" mitzugeben.

    Kopieren wollte ich das widget eigentlich nicht, dann ist es nicht mehr updatefähig.


    Ich verstehe nicht warum die Inhalte für das widget gleich geladen werden müssen. Wenn jemand den Artikel teilen will, dann kann er das erst wenn er beim jeweiligen widget ist. Somit ergibt es für mich keinen Sinn warum die Inhalte gleich bei Seitenaufruf geladen werden. Ich habe ein request mehr und es geht auch auf Kosten der pagespeed.

    Hallo liebes Zeta Team,


    ist es möglich, dass ich beim Widget sharif dem Link ein (rel="preload") mitgebt?


    Code
    <link href="assets/js/shariff/shariff.complete.css" rel="stylesheet">

    Das tool spuckt schon einiges aus, wobei nicht alles wichtig ist. Wichtig ist die TOP3 Ergebnisse zu durchleuchten, alles was die haben sollte ich auch abdecken. Wichtig ist content Lücken finden und content anpassen.

    Ich halte das so, wenn ich schon auf Platz 1 ranke passt das, auch wenn tools mir noch so viel sagen. Hier bringt es momentan nichts weiter oprimieren, kostet nur Zeit welche man für andere Seiten braucht.


    Wichtig ist auch zu unterschieden was google will und was rankt, wenn die ersten Plätze z.B. 20 Produkte in der Kategorie zeigen und ich habe selber nur 4, dann werde ich das niemals vorne rein ranken. Auch wird es schwer vorne rein zu ranken, wenn seit über einem Jahr immer die gleichen vorne mit dran sind, hier hilft nur starker content Aufbau um ein Spezialisten Status in den Augen von Google zu bekommen. Spezialisten Status hilft sehr wenn die Domainrate niedrig ist und vorne dran nur pages mit hohen Domainraitings sind.

    Bestes Beispiel gib mal stifado in google ein da ranke ich als Miniseite mit einer DR von 25 sehr gut, alle anderen Seiten haben minimum eine DR von 70. Das Thema ist zu vielfätig um das alles zu pauschalieren, es Bedarf immer einer individuellen Lösung. Auch helfen die US Seiten sehr um content Aufbau zu betreiben, was dort funktioniert kann hier auch sehr gut funktionieren.

    Ich hab nun mal folgende urls getestet:


    http://www.taste-of-koroni.de

    taste-of-koroni.de

    http://www.taste-of-koroni.de/

    https://www.taste-of-koroni.de/index.php


    alle leiten weiter auf https://www.taste-of-koroni.de

    sollte also passen. Wenn seorch 4 URL findet, dann sollte es auch 4 gleiches Seiten geben mit unterschiedlichen urls (dies kann ich aber nicht reproduzieren).

    "Die Seite ist unter 4 URL zu erreichen" ist von seorch falsch interpretiert, ich teste mit ahrefs und screamingfrog da bekomme ich keine Fehlermeldungen.

    Google hat nur eine Version indexiert, auch ist es ratsam einen canonnical in den header zu setzen. Selbst wenn dann mehrere Versionen rumschwirren sollten, dann weiß google was die richtige Seite ist.

    Hallo Nemessis,


    ich kenn mich da auch relativ wenig aus, bei mir schaut das so aus:


    # ----------------------------------------------------------------------

    # | Umleitung von non-www auf www

    # ----------------------------------------------------------------------


    RewriteEngine on

    RewriteCond %{HTTP_HOST} ^taste-of-koroni.de [NC]

    RewriteRule (.*) https://www.taste-of-koroni.de/$1 [R=301,L]


    # ----------------------------------------------------------------------

    # | Umleitung https

    # ----------------------------------------------------------------------


    RewriteEngine On

    RewriteCond %{HTTP_HOST} !^www\.taste-of-koroni\.de [NC]

    RewriteRule (.*) https://www.taste-of-koroni.de/$1 [R=301,L]


    vieleicht hilft dir das, probiers einfach mal.

    Hallo,


    ich habe das auch mal überprüft.


    chrome - console

    osano.js:1 ERROR[Non-compliant]: Osano's Consent Manager is not the first `<script></script>` tag to be executed. Relying on Osano's Consent Manager, it must be the first script to load to ensure all locale


    so wie ich das intepretiere sollte der script Eintrag so weit wie möglich oben im Header eingebaut werden. Villeicht mal probieren.


    Hanabi sorry, dass ich dir noch nicht geantwortet habe...


    Ich beschäftige mich nun schon seit einer Woche den ganzen Tag nur um DSGVO und Cookies. Ich hab und muss noch einiges in Erfahrung beim Provider als auch in diversen anderen Foren in Erfahrung bringen. Vorsichtshalber habe ich nun google reCapcha, GA, Newsletter alles entfernt um bis eine Lösung gefunden wird einigermaßen sicher zu sein. Momentan kann ich keine cookies auf meiner Seite erkennen ...

    Auch habe ich nun ein Abo bei recht24 und habe mir da mal ne gescheite Datenschutzerklärung und diverse andere Sachen erstellt.

    Guten Morgen,


    bezüglich dem Hinweis von Thomas, habe ich mal mein Nachrichtenformular überprüft:

    Zitat

    Die verlinkte Seite im Handbuch sollte m. E. noch um einen Hinweis zur gesicherten Übertragung via SMTP (Shop und Formular) ergänzt werden in der Art "Bei einem Versand rein über PHP erfolgt die Übertragung unverschlüsselt. Wir empfehlen einen Versand via SMTP mit Verschlüsselung. Die entsprechenden Konfigurationsdaten erfragen Sie bitte bei Ihrem Hoster der Mailadresse.". Hanabi

    Ich habe ein shop, Formular und alle Seiten sind .php.


    Einen SMTP-Server (optional) habe ich nicht, alle e-Mails werden auf meinem Webserver oder dem E-Mail Server hinterlegt.

    Besteht hier meinerseits Handlungsbedarf? Ist die Übertragung sicher (gesetzeskonform)? Muss ich den User auf ingendwas hinweisen? Muss ich über den SMTP-Server in Zukunft arbeiten?


    Ebenfalls verwende ich reCAPCHA, hier besteht ja wohl ebenfalls ein Problem ... Gibt es hierzu Erfahrungen ob es bei nichtverwendung zu mehr Spam Mails kommt. Momentan habe ich es im Einsatz und bekomme täglich so ungefähr 4-6 Spam Mails.


    Fragen über Fragen mit der wunderbaren DSGVO.

    dampfer  fragezzeichen mir liegt wirklich auch sehr viel daran GA etc. Weiterhin nutzen zu können und wäre über eine Lösung mehr als glücklich.

    . Meine Meinung, sollte zp einen Anwalt einschalten, wird dieser ebenfalls eine Lösung aversieren, User aktiv zum zustimmen anzuhalten...

    Für YouTube gibt es bereits eine Lösung gesetzeskonform Codes einzubinden.

    Warum gibt es das von GA nicht... Weil GA nur von Daten leben kann, welche durch eine gesetzeskonforme Umsetzung der dsgvo nicht mehr gegeben sind.

    So wie ich das in meiner nische in Erfahrung gebracht habe sind 100% der shops abmahnfähig.

    Die Diskussion hier ist der Wahnsinn, so wie die gesetzeslage momentan ist gibt es hierfür keine (beste Möglichkeit).

    Ich will keine Werbung für das plugin machen was ich vorgeschlagen habe ( ich hab das selber auch noch nicht getestet) aber ich kann mir vorstellen, dass anschließend die seite dsgvo konform ist. Dann bin ich glücklich aber meine trakings werden unbrauchbar. Wie Hanabi schon erwähnte, wenn sich alle daran halten, dann haben alle die gleichen Spielregeln, aber so ist es nun mal nicht. Fakt ist Mitbewerber ob wissend oder nicht werden weiterhin tracken auch auf die Gefahr hin abgemahnt zu werden.

    .

    Die dsgvo kann ich in gewissermaßen schon verstehen und nachvollziehen... Der User muss aktiv einwilligen... Die Auswirkungen kann sich jeder selber ausmalen.

    .

    Ich habe den Support in den letzten Jahren wirklich sehr zu schätzen gelernt. Meine Meinung, für die Entwickler bei zp ist irgendetwas zu programmieren kein Problem und das auch in kürzester Zeit.

    .

    Die Frage ist nur, was sollen sie den programmieren???? Gesetzeskonform... Dann sind alle glücklich, aber das tracking funktioniert nicht mehr.

    .

    Villeicht mal darüber nachdenken und einen wirklich funktionierenden Vorschlag machen...

    ich habe jetzt mal interessehalber bei:

    https://www.esprit.de/

    und bei

    https://www2.hm.com/de_de/index.html


    nachgeschaut. Das sind ja wahrlich keine kleinen Firmen. Ich konnte im Quelltext keinen Eintrag finden welcher mit (GA) zu tun hat. Aber hier fehlt mir erhlich gesagt auch die Erfahrung um das korrekt zu prüfen.


    Ich denke beide Firmen müssen irgendwelche Auswertungen erstellen um gezielte Werbung zu machen. Beide Firmen werden sicherlich auch unter Beobachtung von Anwaltskanzleien stehen, um eventuell Geld herausschlagen zu können, wenn dort Fehler zu finden sind.


    Für mich scheint es, dass es den Firmen bei der momenten Gesetzeslage zu heiß ist die Seiten zu tracken und Gefahr laufen abgemahnt zu werden.


    Bitte verbessert mich wenn ich das jetzt falsch interpretiert habe.


    So wie Hanabi schreibt will die DSGVO, dass man bei irgendwelchen Cookie Bannern als user aktiv werden muss, also explizit einen Haken setzen muss um Einwilligungen zu erteilen. Aber da das vermutich niemand macht, kann GA auch nicht mehr funktionieren, da die Daten zu wenig sind.

    Kostenpflichtig hin oder her, wer sicher gehen will, der muss Geld in die Hand nehmen. Wie Hanabi schon erwähnte ist der Seitenbetreiber dafür verantwortlich. In wordpress oder anderen Systemen sind Gewisse plugins ebenfalls kostenpflichtig. Das Problem ist, dass jede Webseite individuelle Einstellungen benötigt.


    Meiner Meinung ist das von mir genannte plugin nicht so schlecht, aber letztendlich wieder unbrauchbar, da die Kontrollkästchen im vorraus nicht gesetzt werden können und letztendlich füllt niemand die Kontrollkästchen aus.


    Das ganze Thema ist ein Chaos, und man läuft Gefahr, dass man abgemahnt wird.

    Was ich bei dem Tool auf den ersten Augenblick sehen kann,


    https://monobunt.at/blog/nnpro-cookiebot-reseller-cookies/


    die Kontrollkästchen können bereits mit Häckchen bestätigt werden. Das heißt für mich, wenn der User O.K. drückt, habe ich alle Bestätigungen und Einverständnisse.


    Problem bei leeren Kontrollkästchen, kein user wird jemals sich das druchlesen und auswählen welches Kontrollkästchen er auswählt. Die meisten user werden nur den Button O.K drücken und somit wird Analytics unbrauchbar da keine Daten mehr verarbeitet werden können.


    Was meinst du Hanabi , sehe ich das richtig?

    Guten Morgen,


    der Thread hat mich dazu bewogen noch einmal alles auf den Prüfstand zu stellen:


    Ich habe in sämtlichen social-media Portalen das Impressum und die Datenschutzerklärung via link eingefügt.

    Videos entferne ich vorsichtshalber auch mal.


    Da die DSGVO nicht einfach zu verstehen ist und vieles Auslegungssache ist, habe ich einen Anbieter gefunden welcher Cookie Codes gegen Entgeld anbietet.


    https://www.cookiebot.com/de/


    Bei größeren Seiten betragen die Kosten monatlich 9€ netto. Ich bin am überlegen ob ich das machen soll. Die Kosten sind denke ich ein muss da eine Abmahnung um einiges teurer wäre. Auf goolge analytics bei einem Online-Shop zu verzichten, nur aufgrund der DSGVO ist nicht gut und nachteilig und es wird weniger Umsatz regeneriert.

    Ja das wäre mir ehrlichgesagt auch am liebsten gewesen. Das Problem ligt an der Zeile "Füllmenge: 500 ml (2,31 € / 100 ml)" diese muss ich individuell in jedem Artikel in der Beschreibung angeben. Somit fehlt mir die describtion. Tests mit css ausblenden und einen anderen Inhalt anzuzeigen hat nach langem probieren nicht funktioniert. Auch habe ich keine Chance ein Produktbild bereitzustellen, da in den microdaten die Bilder vom Artikelstamm ausgespielt werden.

    Ah O.K. dann sollte das passen, wenn die Seiten so ausgeschlossen werden können.


    Bisher habe ich screamingfrog verwendet um jeweis eine getrennte sitemap für Bilder und Seiten zu erstellen. Leider sind es jetzt mehr als 500 urls und darüber benötigt man eine Lizens.

    Beim überprüfen der automatisch erstellen sitemap.xml von ZP ist mir folgendes aufgefallen:


    Es sind keine Bilder, pdf-files aufgeführt

    Es werden ebenfalls url mit noindex tag aufgeführt (roboto.txt bin ich mir nicht mehr ganz sicher)

    Also Code umgestellt, die sturkturierte Daten sollten bis auf das Bild automatisch ausgefüllt werden: (siehe Anhang)


    <script type="application/ld+json">

    {

    "@context": "https://schema.org/",

    "@type": "Product",

    "name": "<$= page.name $>",

    "image": "https://www.taste-of-koroni.de/media/images/taste-of-koroni-olivenoel-extra-nativ-500ml.jpg",

    "description": "<$= page.description $>",

    "brand": "#attribute(brand)",

    "sku": "<$= article $>",

    "offers": {

    "@type": "Offer",

    "url": "<$= page.absoluteUrl $>",

    "priceCurrency": "EUR",

    "price": "11.55",

    "priceValidUntil": "2020-11-01",

    "availability": "https://schema.org/InStock",

    "itemCondition": "https://schema.org/NewCondition"

    }

    }

    </script>


    Nun finde ich leider den Platzhalter für:


    "price" nicht

    die "sku" funktoniert auch noch nicht.


    Somit hat sich der Aufwand in Grenzen gehalten und mit einfügen des Codes muss nur noch das Bild händisch eingefügt werden, alle anderen Daten werden vom System zusammengesucht.


    Nun ist es auch machbar den Highlight-Artikel auszublenden, wenn Produkt nicht mehr verfügbar ist :)

    Ich habe das noch nicht ausprobiert, aber ich denke das sollte so klappen. Problem es sind einfach zu viele offene Baustellen (siehe Anhang)


    Großes Problem kein Bild vorhanden, da ich das Bild separat vom Highlight Artikel Code eingebunden habe.

    Das Thema Beschreibung hatten wir ja schon in der Vergangenheit, hier ist es mit CSS display: none... auch nicht ohne weiteres Machbar hier eine ordentliche Beschreibung reinzu bekommen und die Füllmenge herauszubekommen. Auch fehlt der Brand. Mit der Verfügbarkeit könnte evtl. mit Ihren Angaben funktionieren


    Nochmal das liegt alles nicht an ZP, die Probleme habe ich mir selber eingebrockt. Ich weiß wie ich das alles hinbekomme um die strukturierten Daten so zu generieren wie es sein soll, einzigster Knackpunkt ist der Pflegeaufwand.