Come Recuperare una Password da WordPress: Una Guida su come Fare

Come Recuperare una Password da WordPress: Una Guida su come Fare

Come recuperare una password da WordPress per riavere l’accesso al proprio sito.

In realtà recuperare la password precedente non è possibile essendo cifrata, ma può essere facilmente sostituita. La procedura da seguire non è complicata, sono sufficienti 5 minuti di tempo per superare questo ostacolo, basta sapere solo dove mettere le mani. Se sei afflitto da questo problema lo potrai risolvere leggendo questo articolo.

Read more

Rich Cards di Google nella Search Console: Invogliare al Click

Rich Cards di Google nella Search Console: Invogliare al Click

Le Rich Cards di Google hanno come scopo di migliorare la visualizzazione di determinati contenuti sul mobile e incrementare il numero delle visite sul sito grazie ad un’esposizione che dovrebbe risultare più invitante.

Il nuovo tool che è accessibile tramite il nostro account Google mette a disposizione sia il codice da inserire nelle nostre pagine web, sia un tool per verificare che non vi siano errori.

Google dopo le pagine AMP per accelerare la visualizzazione delle pagine web, adesso mette a disposizione un nuovo strumento orientato al mobile per migliorare la visualizzazione di determinate informazioni sugli smartphone, in effetti è l’equivalente del rich snippets usato per la visualizzazione dal Pc.
Read more

Condividere post su Twitter con un Plugin di WordPress

Condividere post su Twitter con un Plugin di WordPress

Condividere post su Twitter: come sfruttare un blog per aumentare il numero delle condivisione dei propri articoli sul social da 140 caratteri.

WordPress con la sua vasta gamma di plugin ci viene anche in questo caso in aiuto grazie a “Click e Tweet” scaricabile dalla piattaforma di WordPress che consente di condividere il nostro articolo su Twitter facendo uso del semplice testo all’interno del post.

Read more

Come Usare Robots.txt: Evitare la Duplicazione delle Pagine e Altro

Come Usare Robots.txt: Evitare la Duplicazione delle Pagine e Altro

Come usare robots.txt per evitare che le pagine risultino duplicate.

Uno dei problemi che spesso sorge è la duplicazione dei contenuti che i bot rilevano nei siti web, duplicazioni che si generano in modo automatico causati dalla pubblicazione di commenti o da altri fattori. Per evitare questo inconveniente alla radice possiamo impostare una semplice riga di comando nel file robots.txt.

Read more

Come adeguarsi alla Cookie Law Italiana con Google Analytics?

Come adeguarsi alla Cookie Law Italiana con Google Analytics?

Come adeguarsi  alla Cookie Law con il sistema di analisi statistiche Google Analytics?

La normativa per la privacy prevede che i cookie con scopo di profilazione rilasciate da applicazioni terzi devono essere bloccati e accettati solo dietro esplicito consenso del navigatore, mentre se i cookie sono rilasciati da un sistema di statistica interno, e pertanto i dati non vengono inviati su un server esterno, allora i cookie sono considerati tecnici e quindi non necessitano di un’autorizzazione preventiva da parte degli utenti per essere scaricati sul loro computer.

Read more

Come Usare Robots.txt: Guida agli Esempi Pratici

Come Usare Robots.txt: Guida agli Esempi Pratici

Vediamo come usare robots.txt e su come bloccare una risorsa alla scansione del crawler.

Come già indicato nell’articolo precedente su come impostare il file robots.txt, adesso cerchiamo di capire come possiamo bloccare i bot per evitare che una pagina oppure una intera directory venga scansionata e quindi indicizzata dai motori di ricerca.

Ricordo, inoltre, che tali direttive sono equivalenti a suggerimenti, pertanto il crawler non è obbligato a rispettare le impostazioni del file robots.txt.

Read more

File Robots.txt: Come Realizzarlo e a Cosa Serve

File Robots.txt: Come Realizzarlo e a Cosa Serve

Il file robots.txt serve per segnalare ai bot cosa scansionare. Il contenuto di questo file testuale rappresenta una richiesta, ma non necessariamente viene rispettata dai bot (crawler) che visitano le nostre pagine web.

La linea guida di Google sconsiglia di usare questo metodo per creare delle zone riservate del sito. Per evitare che un bot possa accedere a un’area privata si consiglia, infatti, di creare una directory accessibile tramite password.

Read more