SEO: Meilleures opportunités de mots clés à distance de frappe

SEO: Meilleures opportunités de mots clés à distance de frappe

L’utilisation de Python pour automatiser les processus de référencement peut être intimidante pour les nouveaux utilisateurs, du moins au début.

Dans cette colonne, vous trouverez un script facile à utiliser que vous pouvez télécharger et exécuter sur votre (vos) propre(s) site(s) en suivant simplement les instructions.

Si vous pouvez explorer un site Web et exporter une liste de mots-clés, vous pouvez utiliser ce script. C’est parfait si vous apprenez juste Python.

Et si vous vous sentez plus aventureux, vous pouvez suivre la répartition du code et les explications.

Ce script Python réduit le temps nécessaire pour trouver ces opportunités en supprimant la plupart du travail manuel.

Il se charge même de l’analyse initiale des données en vérifiant si les opportunités sont valables.

Ceci est utile pour toute personne disposant d’un site Web de taille moyenne/grande, ainsi que pour les agences qui souhaitent automatiser ce processus pour un grand nombre de clients dans un court laps de temps.

Voici un exemple de ce que nous allons faire aujourd’hui :

Une feuille Excel documentant les opportunités de mots-clés sur la page générées avec PythonCapture d’écran de Microsoft Excel, octobre 2021

Ces mots-clés se trouvent dans le titre de la page et H1, mais ne pas dans la copie. L’ajout naturel de ces mots-clés à la copie existante serait un moyen facile d’augmenter la pertinence de ces mots-clés.

Publicité

Continuer la lecture ci-dessous

En prenant l’indice des moteurs de recherche et en incluant naturellement tous les mots clés manquants pour lesquels un site est déjà classé, nous augmentons la confiance des moteurs de recherche pour classer ces mots clés plus haut dans les SERP.

Ce rapport peut être créé manuellement, mais cela prend beaucoup de temps.

Nous allons donc automatiser le processus à l’aide d’un script Python .

Aperçu de la sortie

Voici un exemple de ce à quoi ressemblera le résultat final après l’exécution du rapport :

Feuille Excel montrant et exemple de mots-clés qui peuvent être optimisés en utilisant le rapport de distance de frappeCapture d’écran de Microsoft Excel, octobre 2021

Le résultat final prend les cinq premières opportunités par volume de recherche pour chaque page et les place soigneusement horizontalement avec le volume de recherche estimé.

Publicité

Continuer la lecture ci-dessous

Il affiche également le volume de recherche total de tous les mots-clés d’une page à portée de main, ainsi que le nombre total de mots-clés à portée de main.

Les cinq premiers mots-clés par volume de recherche sont ensuite vérifiés pour voir s’ils se trouvent dans le titre, H1 ou la copie, puis marqués VRAI ou FAUX.

C’est génial pour trouver des gains rapides! Ajoutez simplement le mot-clé manquant naturellement dans la copie de la page, le titre ou H1.

Commencer

La configuration est assez simple. Nous avons juste besoin d’une exploration du site (idéalement avec une extraction personnalisée pour la copie que vous souhaitez vérifier) ​​et d’un fichier exporté de tous les mots-clés pour lesquels un site se classe.

Cet article vous guidera à travers la configuration, le code et créera un lien vers une feuille Google Colaboratory si vous souhaitez simplement rester coincé sans le coder vous-même.

Pour commencer, vous aurez besoin de :

  • Une exploration du site Web.
  • Une exportation de tous les mots-clés pour lesquels un site se classe.
  • Cette feuille Google Colab pour écraser les données de crawl et de mots clés.

Nous l’avons appelé le rapport de distance de frappe car il signale les mots-clés qui se trouvent facilement à une distance de frappe.

(Nous avons défini la distance de frappe en tant que mots-clés classés aux positions 4 à 20, mais en avons fait une option configurable au cas où vous souhaiteriez définir vos propres paramètres.)

Rapport à distance frappante : pour commencer

1. Explorez le site Web cible

  • Définissez un extracteur personnalisé pour la copie de la page (facultatif, mais recommandé).
  • Filtrez les pages de pagination du crawl.

2. Exportez tous les mots-clés que le site classe pour l’utilisation de votre fournisseur préféré

  • Filtrez les mots-clés qui se déclenchent en tant que lien de site.
  • Supprimez les mots-clés qui se déclenchent sous forme d’image.
  • Filtrez les mots-clés de marque.
  • Utilisez les deux exportations pour créer un rapport de distance de frappe exploitable à partir du mot-clé et des données d’exploration avec Python.

Publicité

Continuer la lecture ci-dessous

Explorer le site

J’ai choisi d’utiliser Screaming Frog pour obtenir le crawl initial. N’importe quel robot d’exploration fonctionnera, tant que l’exportation CSV utilise les mêmes noms de colonne ou qu’ils sont renommés pour correspondre.

Le script s’attend à trouver les colonnes suivantes dans l’export CSV d’exploration :

"Address", "Title 1", "H1-1", "Copy 1", "Indexability"

Paramètres d’exploration

La première chose à faire est de se diriger vers les principaux paramètres de configuration dans Screaming Frog :

Configuration > Araignée > Crawl

Les principaux paramètres à utiliser sont :

Explorer les liens internes, Canoniques et le Pagination (Rel Next/Prev) réglage.

(Le script fonctionnera avec tout le reste sélectionné, mais l’exploration prendra plus de temps !)

Paramètres d'exploration de la grenouille hurlante recommandésCapture d’écran de Screaming Frog, octobre 2021

Ensuite, c’est à la Extraction languette.

Publicité

Continuer la lecture ci-dessous

Configuration > Spider > Extraction

Paramètres d'exploration d'extraction Screaming Frog recommandésCapture d’écran de Screaming Frog, octobre 2021

Au strict minimum, nous devons extraire le titre de la page, H1, et calculer si la page est indexable comme indiqué ci-dessous.

L’indexabilité est utile car c’est un moyen facile pour le script d’identifier les URL à déposer en une seule fois, ne laissant que les mots-clés éligibles pour être classés dans les SERP.

Si le script ne trouve pas la colonne d’indexation, il fonctionnera toujours normalement mais ne fera pas la différence entre les pages qui peuvent et ne peuvent pas être classées.

Publicité

Continuer la lecture ci-dessous

Configuration d’un extracteur personnalisé pour la copie de page

Afin de vérifier si un mot-clé est trouvé dans la copie de la page, nous devons définir un extracteur personnalisé dans Screaming Frog.

Configuration > Personnalisé > Extraction

Nommez l’extracteur « Copier » comme indiqué ci-dessous.

Extraction personnalisée Screaming Frog affichant les options par défaut pour extraire la copie de la pageCapture d’écran de Screaming Frog, octobre 2021

Important: Le script s’attend à ce que l’extracteur soit nommé « Copier » comme ci-dessus, alors vérifiez bien !

Enfin, assurez-vous Extraire le texte est sélectionné pour exporter la copie sous forme de texte, plutôt qu’en HTML.

Publicité

Continuer la lecture ci-dessous

Il existe de nombreux guides sur l’utilisation d’extracteurs personnalisés en ligne si vous avez besoin d’aide pour en configurer un, je ne vais donc pas y revenir ici.

Une fois l’extraction définie, il est temps d’explorer le site et d’exporter le fichier HTML au format CSV.

Exportation du fichier CSV

L’exportation du fichier CSV est aussi simple que de modifier le menu déroulant affiché sous Interne vers HTML et en appuyant sur le bouton Exporter.

Interne > HTML > Exporter

Screaming Frog - Exporter les paramètres HTML internesCapture d’écran de Screaming Frog, octobre 2021

Après avoir cliqué Exportation, Il est important de s’assurer que le type est défini sur le format CSV.

Publicité

Continuer la lecture ci-dessous

L’écran d’exportation doit ressembler à ce qui suit :

Paramètres d'exportation CSV HTML internes de Screaming FrogCapture d’écran de Screaming Frog, octobre 2021

Astuce 1 : Filtrage des pages de pagination

Je recommande de filtrer les pages de pagination de votre crawl soit en sélectionnant Respect Suivant/Précédent sous le Avancée paramètres (ou simplement en les supprimant du fichier CSV, si vous préférez).

Paramètres Screaming Frog à respecter Rel / PrevCapture d’écran de Screaming Frog, octobre 2021

Astuce 2: Enregistrer les paramètres d’exploration

Une fois que vous avez configuré l’exploration, il vaut la peine d’enregistrer les paramètres d’exploration (qui se souviendront également de l’extraction personnalisée).

Publicité

Continuer la lecture ci-dessous

Cela vous fera gagner beaucoup de temps si vous souhaitez réutiliser le script à l’avenir.

Fichier > Configuration > Enregistrer sous

Comment enregistrer un fichier de configuration dans screaming frogCapture d’écran de Screaming Frog, octobre 2021

Exportation de mots-clés

Une fois que nous avons le fichier d’exploration, l’étape suivante consiste à charger votre outil de recherche de mots clés préféré et à exporter tous les mots clés pour lesquels un site se classe.

L’objectif ici est d’exporter tous les mots-clés pour lesquels un site se classe, en filtrant les mots-clés de marque et ceux qui se déclenchent en tant que lien annexe ou image.

Publicité

Continuer la lecture ci-dessous

Pour cet exemple, j’utilise le rapport de mots clés organiques dans Ahrefs, mais cela fonctionnera tout aussi bien avec Semrush si c’est votre outil préféré.

Dans Ahrefs, entrez le domaine que vous souhaitez enregistrer Explorateur de sites, et choisissez Mots-clés organiques.

Paramètres de l'explorateur de site AhrefsCapture d’écran de Ahrefs.com, octobre 2021

Explorateur de site > Mots-clés organiques

Ahrefs - Comment configurer l'exportation des mots-clés organiques pour lesquels un site se classeCapture d’écran de Ahrefs.com, octobre 2021

Cela fera apparaître tous les mots-clés pour lesquels le site est classé.

Filtrage des liens annexes et des liens image

L’étape suivante consiste à filtrer tous les mots clés déclenchés en tant que lien annexe ou pack d’images.

Publicité

Continuer la lecture ci-dessous

La raison pour laquelle nous devons filtrer les liens annexes est qu’ils n’ont aucune influence sur le classement de l’URL parent. En effet, seule la page parent se classe techniquement pour le mot clé, et non les URL de lien annexe affichées en dessous.

Le filtrage des liens annexes garantira que nous optimisons la bonne page.

Capture d'écran Ahrefs illustrant le classement des pages pour les mots clés de lien annexeCapture d’écran de Ahrefs.com, octobre 2021

Voici comment le faire dans Ahrefs.

Image montrant comment exclure des images et des liens annexes d'une exportation de mots clésCapture d’écran de Ahrefs.com, octobre 2021

Enfin, je recommande de filtrer les mots clés de marque. Vous pouvez le faire en filtrant directement la sortie CSV, ou en pré-filtrage dans l’outil de mots clés de votre choix avant l’export.

Publicité

Continuer la lecture ci-dessous

Enfin, lors de l’exportation, assurez-vous de choisir Exportation complète et le UTF-8 format comme indiqué ci-dessous.

Image montrant comment exporter des mots-clés au format UTF-8 sous forme de fichier csvCapture d’écran de Ahrefs.com, octobre 2021

Par défaut, le script fonctionne avec les exportations de mots-clés Ahrefs (v1/v2) et Semrush. Il peut fonctionner avec n’importe quel fichier CSV de mots-clés tant que les noms de colonnes attendus par le script sont présents.

Traitement

Maintenant que nous avons nos fichiers exportés, il ne reste plus qu’à les télécharger sur la feuille Google Colaboratory pour traitement.

Publicité

Continuer la lecture ci-dessous

Sélectionner Exécution > Exécuter tout à partir de la navigation supérieure pour exécuter toutes les cellules de la feuille.

Image montrant comment exécuter le script Python Stirking Distance de Google CollaboratoryCapture d’écran de Colab.research.google.com, octobre 2021

Le script vous invitera à télécharger d’abord le mot-clé CSV depuis Ahrefs ou Semrush, puis le fichier d’exploration.

Image montrant comment télécharger les fichiers csv sur Google CollaboratoryCapture d’écran de Colab.research.google.com, octobre 2021

C’est ça! Le script téléchargera automatiquement un fichier CSV exploitable que vous pourrez utiliser pour optimiser votre site.

Image montrant la sortie finale de la distance de frappeCapture d’écran de Microsoft Excel, octobre 2021

Une fois que vous êtes familiarisé avec l’ensemble du processus, l’utilisation du script est vraiment simple.

Publicité

Continuer la lecture ci-dessous

Répartition et explication du code

Si vous apprenez Python pour le référencement et que vous êtes intéressé par ce que le code fait pour produire le rapport, restez dans les parages pour la procédure pas à pas !

Installer les bibliothèques

Installons des pandas pour lancer le bal.

!pip install pandas

Importer les modules

Ensuite, nous devons importer les modules requis.

import pandas as pd
from pandas import DataFrame, Series
from typing import Union
from google.colab import files

Définir les variables

Il est maintenant temps de définir les variables.

Le script considère tous les mots-clés entre les positions 4 et 20 comme étant à distance de frappe.

La modification des variables ici vous permettra de définir votre propre plage si vous le souhaitez. Cela vaut la peine d’expérimenter les paramètres pour obtenir le meilleur résultat possible pour vos besoins.

# set all variables here
min_volume = 10  # set the minimum search volume
min_position = 4  # set the minimum position  / default = 4
max_position = 20 # set the maximum position  / default = 20
drop_all_true = True  # If all checks (h1/title/copy) are true, remove the recommendation (Nothing to do)
pagination_filters = "filterby|page|p="  # filter patterns used to detect and drop paginated pages

Téléchargez le fichier CSV d’exportation de mots-clés

L’étape suivante consiste à lire la liste des mots-clés du fichier CSV.

Il est configuré pour accepter un rapport Ahrefs (V1 et V2) ainsi qu’un export Semrush.

Ce code lit le fichier CSV dans un DataFrame Pandas.

upload = files.upload()
upload = list(upload.keys())[0]
df_keywords = pd.read_csv(
    (upload),
    error_bad_lines=False,
    low_memory=False,
    encoding="utf8",
    dtype={
        "URL": "str",
        "Keyword": "str",
        "Volume": "str",
        "Position": int,
        "Current URL": "str",
        "Search Volume": int,
    },
)
print("Uploaded Keyword CSV File Successfully!")

Si tout s’est déroulé comme prévu, vous verrez un aperçu du DataFrame créé à partir du mot-clé export CSV.

Cadre de données montrant le téléchargement réussi du fichier d'exportation de mots clésCapture d’écran de Colab.research.google.com, octobre 2021

Téléchargez le fichier CSV d’exportation d’exploration

Une fois les mots-clés importés, il est temps de télécharger le fichier d’exploration.

Publicité

Continuer la lecture ci-dessous

This fairly simple piece of code reads in the crawl with some error handling option and creates a Pandas DataFrame named df_crawl.

upload = files.upload()
upload = list(upload.keys())[0]
df_crawl = pd.read_csv(
    (upload),
        error_bad_lines=False,
        low_memory=False,
        encoding="utf8",
        dtype="str",
    )
print("Uploaded Crawl Dataframe Successfully!")

Une fois le téléchargement du fichier CSV terminé, vous verrez un aperçu du DataFrame.

Image montrant une trame de données du fichier d'exploration en cours de téléchargementCapture d’écran de Colab.research.google.com, octobre 2021

Nettoyer et standardiser les données des mots clés

L’étape suivante consiste à renommer les noms de colonnes pour assurer la normalisation entre les types d’exportations de fichiers les plus courants.

Essentiellement, nous mettons le dataframe de mot-clé dans un bon état et filtrons à l’aide des seuils définis par les variables.

df_keywords.rename(
    columns={
        "Current position": "Position",
        "Current URL": "URL",
        "Search Volume": "Volume",
    },
    inplace=True,
)

# keep only the following columns from the keyword dataframe
cols = "URL", "Keyword", "Volume", "Position"
df_keywords = df_keywords.reindex(columns=cols)

try:
    # clean the data. (v1 of the ahrefs keyword export combines strings and ints in the volume column)
    df_keywords["Volume"] = df_keywords["Volume"].str.replace("0-10", "0")
except AttributeError:
    pass

# clean the keyword data
df_keywords = df_keywords[df_keywords["URL"].notna()]  # remove any missing values
df_keywords = df_keywords[df_keywords["Volume"].notna()]  # remove any missing values
df_keywords = df_keywords.astype({"Volume": int})  # change data type to int
df_keywords = df_keywords.sort_values(by="Volume", ascending=False)  # sort by highest vol to keep the top opportunity

# make new dataframe to merge search volume back in later
df_keyword_vol = df_keywords[["Keyword", "Volume"]]

# drop rows if minimum search volume doesn't match specified criteria
df_keywords.loc[df_keywords["Volume"] = max_position, "Position_Too_Low"] = "drop"
df_keywords = df_keywords[~df_keywords["Position_Too_Low"].isin(["drop"])]

Nettoyer et standardiser les données d’exploration

Ensuite, nous devons nettoyer et normaliser les données d’exploration.

Publicité

Continuer la lecture ci-dessous

Essentiellement, nous utilisons la réindexation pour ne conserver que les colonnes « Adresse », « Indexabilité », « Titre de la page », « H1-1 » et « Copie 1 », en éliminant le reste.

Nous utilisons la colonne « Indexabilité » très pratique pour ne conserver que les lignes indexables. Cela supprimera les URL canonisées, les redirections, etc. Je recommande d’activer cette option dans le crawl.

Enfin, nous normalisons les noms de colonnes afin qu’ils soient un peu plus agréables à utiliser.

# keep only the following columns from the crawl dataframe
cols = "Address", "Indexability", "Title 1", "H1-1", "Copy 1"
df_crawl = df_crawl.reindex(columns=cols)
# drop non-indexable rows
df_crawl = df_crawl[~df_crawl["Indexability"].isin(["Non-Indexable"])]
# standardise the column names
df_crawl.rename(columns={"Address": "URL", "Title 1": "Title", "H1-1": "H1", "Copy 1": "Copy"}, inplace=True)
df_crawl.head()

Grouper les mots-clés

À l’approche de la sortie finale, il est nécessaire de regrouper nos mots-clés pour calculer l’opportunité totale pour chaque page.

Ici, nous calculons le nombre de mots-clés à distance de frappe pour chaque page, ainsi que le volume de recherche combiné.

# groups the URLs (remove the dupes and combines stats)
# make a copy of the keywords dataframe for grouping - this ensures stats can be merged back in later from the OG df
df_keywords_group = df_keywords.copy()
df_keywords_group["KWs in Striking Dist."] = 1  # used to count the number of keywords in striking distance
df_keywords_group = (
    df_keywords_group.groupby("URL")
    .agg({"Volume": "sum", "KWs in Striking Dist.": "count"})
    .reset_index()
)
df_keywords_group.head()
DataFrame indiquant combien de mots-clés ont été trouvés à distance de frappeCapture d’écran de Colab.research.google.com, octobre 2021

Une fois terminé, vous verrez un aperçu du DataFrame.

Afficher les mots-clés dans les lignes adjacentes

Nous utilisons les données regroupées comme base pour le résultat final. Nous utilisons Pandas.unstack pour remodeler le DataFrame afin d’afficher les mots-clés dans le style d’un export GrepWords.

DataFrame montrant une vue de type grepwords des mots-clés disposés horizontalementCapture d’écran de Colab.research.google.com, octobre 2021
# create a new df, combine the merged data with the original data. display in adjacent rows ala grepwords
df_merged_all_kws = df_keywords_group.merge(
    df_keywords.groupby("URL")["Keyword"]
    .apply(lambda x: x.reset_index(drop=True))
    .unstack()
    .reset_index()
)

# sort by biggest opportunity
df_merged_all_kws = df_merged_all_kws.sort_values(
    by="KWs in Striking Dist.", ascending=False
)

# reindex the columns to keep just the top five keywords
cols = "URL", "Volume", "KWs in Striking Dist.", 0, 1, 2, 3, 4
df_merged_all_kws = df_merged_all_kws.reindex(columns=cols)

# create union and rename the columns
df_striking: Union[Series, DataFrame, None] = df_merged_all_kws.rename(
    columns={
        "Volume": "Striking Dist. Vol",
        0: "KW1",
        1: "KW2",
        2: "KW3",
        3: "KW4",
        4: "KW5",
    }
)

# merges striking distance df with crawl df to merge in the title, h1 and category description
df_striking = pd.merge(df_striking, df_crawl, on="URL", how="inner")

Définir l’ordre final des colonnes et insérer des colonnes d’espace réservé

Enfin, nous définissons l’ordre final des colonnes et fusionnons les données de mot-clé d’origine.

Il y a beaucoup de colonnes à trier et à créer !

# set the final column order and merge the keyword data in

cols = [
    "URL",
    "Title",
    "H1",
    "Copy",
    "Striking Dist. Vol",
    "KWs in Striking Dist.",
    "KW1",
    "KW1 Vol",
    "KW1 in Title",
    "KW1 in H1",
    "KW1 in Copy",
    "KW2",
    "KW2 Vol",
    "KW2 in Title",
    "KW2 in H1",
    "KW2 in Copy",
    "KW3",
    "KW3 Vol",
    "KW3 in Title",
    "KW3 in H1",
    "KW3 in Copy",
    "KW4",
    "KW4 Vol",
    "KW4 in Title",
    "KW4 in H1",
    "KW4 in Copy",
    "KW5",
    "KW5 Vol",
    "KW5 in Title",
    "KW5 in H1",
    "KW5 in Copy",
]

# re-index the columns to place them in a logical order + inserts new blank columns for kw checks.
df_striking = df_striking.reindex(columns=cols)

Fusionner les données de mot-clé pour chaque colonne

Ce code fusionne les données de volume de mot-clé dans le DataFrame. C’est plus ou moins l’équivalent d’une fonction Excel VLOOKUP.

# merge in keyword data for each keyword column (KW1 - KW5)
df_striking = pd.merge(df_striking, df_keyword_vol, left_on="KW1", right_on="Keyword", how="left")
df_striking['KW1 Vol'] = df_striking['Volume']
df_striking.drop(['Keyword', 'Volume'], axis=1, inplace=True)
df_striking = pd.merge(df_striking, df_keyword_vol, left_on="KW2", right_on="Keyword", how="left")
df_striking['KW2 Vol'] = df_striking['Volume']
df_striking.drop(['Keyword', 'Volume'], axis=1, inplace=True)
df_striking = pd.merge(df_striking, df_keyword_vol, left_on="KW3", right_on="Keyword", how="left")
df_striking['KW3 Vol'] = df_striking['Volume']
df_striking.drop(['Keyword', 'Volume'], axis=1, inplace=True)
df_striking = pd.merge(df_striking, df_keyword_vol, left_on="KW4", right_on="Keyword", how="left")
df_striking['KW4 Vol'] = df_striking['Volume']
df_striking.drop(['Keyword', 'Volume'], axis=1, inplace=True)
df_striking = pd.merge(df_striking, df_keyword_vol, left_on="KW5", right_on="Keyword", how="left")
df_striking['KW5 Vol'] = df_striking['Volume']
df_striking.drop(['Keyword', 'Volume'], axis=1, inplace=True)

Nettoyez encore plus les données

Les données nécessitent un nettoyage supplémentaire pour remplir les valeurs vides (NaN) sous forme de chaînes vides. Cela améliore la lisibilité de la sortie finale en créant des cellules vides, au lieu de cellules remplies de valeurs de chaîne NaN.

Ensuite, nous convertissons les colonnes en minuscules afin qu’elles correspondent lors de la vérification si un mot-clé cible figurait dans une colonne spécifique.

# replace nan values with empty strings
df_striking = df_striking.fillna("")
# drop the title, h1 and category description to lower case so kws can be matched to them
df_striking["Title"] = df_striking["Title"].str.lower()
df_striking["H1"] = df_striking["H1"].str.lower()
df_striking["Copy"] = df_striking["Copy"].str.lower()

Vérifiez si le mot-clé apparaît dans le titre/H1/Copier et retournez vrai ou faux

Ce code vérifie si le mot-clé cible se trouve dans le titre de la page/h1 ou dans la copie.

Il indiquera vrai ou faux selon qu’un mot-clé a été trouvé dans les éléments de la page.

df_striking["KW1 in Title"] = df_striking.apply(lambda row: row["KW1"] in row["Title"], axis=1)
df_striking["KW1 in H1"] = df_striking.apply(lambda row: row["KW1"] in row["H1"], axis=1)
df_striking["KW1 in Copy"] = df_striking.apply(lambda row: row["KW1"] in row["Copy"], axis=1)
df_striking["KW2 in Title"] = df_striking.apply(lambda row: row["KW2"] in row["Title"], axis=1)
df_striking["KW2 in H1"] = df_striking.apply(lambda row: row["KW2"] in row["H1"], axis=1)
df_striking["KW2 in Copy"] = df_striking.apply(lambda row: row["KW2"] in row["Copy"], axis=1)
df_striking["KW3 in Title"] = df_striking.apply(lambda row: row["KW3"] in row["Title"], axis=1)
df_striking["KW3 in H1"] = df_striking.apply(lambda row: row["KW3"] in row["H1"], axis=1)
df_striking["KW3 in Copy"] = df_striking.apply(lambda row: row["KW3"] in row["Copy"], axis=1)
df_striking["KW4 in Title"] = df_striking.apply(lambda row: row["KW4"] in row["Title"], axis=1)
df_striking["KW4 in H1"] = df_striking.apply(lambda row: row["KW4"] in row["H1"], axis=1)
df_striking["KW4 in Copy"] = df_striking.apply(lambda row: row["KW4"] in row["Copy"], axis=1)
df_striking["KW5 in Title"] = df_striking.apply(lambda row: row["KW5"] in row["Title"], axis=1)
df_striking["KW5 in H1"] = df_striking.apply(lambda row: row["KW5"] in row["H1"], axis=1)
df_striking["KW5 in Copy"] = df_striking.apply(lambda row: row["KW5"] in row["Copy"], axis=1)

Supprimer les valeurs vrai/faux s’il n’y a pas de mot-clé

Cela supprimera les valeurs vrai/faux lorsqu’il n’y a pas de mot-clé adjacent.

# delete true / false values if there is no keyword
df_striking.loc[df_striking["KW1"] == "", ["KW1 in Title", "KW1 in H1", "KW1 in Copy"]] = ""
df_striking.loc[df_striking["KW2"] == "", ["KW2 in Title", "KW2 in H1", "KW2 in Copy"]] = ""
df_striking.loc[df_striking["KW3"] == "", ["KW3 in Title", "KW3 in H1", "KW3 in Copy"]] = ""
df_striking.loc[df_striking["KW4"] == "", ["KW4 in Title", "KW4 in H1", "KW4 in Copy"]] = ""
df_striking.loc[df_striking["KW5"] == "", ["KW5 in Title", "KW5 in H1", "KW5 in Copy"]] = ""
df_striking.head()

Supprimer les lignes si toutes les valeurs == True

Cette option configurable est vraiment utile pour réduire le temps d’assurance qualité requis pour la sortie finale en supprimant l’opportunité de mot-clé de la sortie finale si elle se trouve dans les trois colonnes.

Télécharger le fichier CSV

La dernière étape consiste à télécharger le fichier CSV et à lancer le processus d’optimisation.

df_striking.to_csv('Keywords in Striking Distance.csv', index=False)
files.download("Keywords in Striking Distance.csv")

Conclusion

Ce rapport de distance saisissant est un moyen très simple de trouver des gains rapides pour n’importe quel site Web.

Bien que cela ressemble à beaucoup d’étapes lorsqu’il est décomposé, c’est aussi simple que de télécharger une analyse et une exportation de mots clés vers la feuille Google Colab fournie.

La sortie vaut vraiment le coup!

Davantage de ressources:


Image en vedette : BestForBest/Shutterstock

fbq('init', '1321385257908563');

fbq('track', 'PageView');

fbq('trackSingle', '1321385257908563', 'ViewContent', { content_name: 'python--striking-distance', content_category: ' ' });

#Meilleures #opportunités #mots #clés #distance #frappe