Всім подобається Google Trends, але це трохи складно, коли справа стосується ключових слів з довгим хвостом. Всім нам подобається офіційне служба трендів google - - для отримання уявлення про поведінку пошуку. Однак дві речі заважають багатьом використовувати його для надійної роботи;
- Коли потрібно знайти нові нішеві ключові слова, там недостатньо даних про Google Trends
- Відсутність офіційного API для надсилання запитів на тренди Google: Коли ми використовуємо такі модулі, як пітренди, тоді ми повинні використовувати проксі-сервери, або нас заблокують.
У цій статті я поділюсь сценарієм Python, який ми написали для експорту ключових слів у тренді через Google Autosuggest.
Отримати та зберігати результати автосумування з часом
Припустимо, у нас є 1,000 ключових слів для насіння, які слід надіслати до Google Autosuggest. Натомість ми, мабуть, отримаємо близько 200,000 XNUMX Довгий хвіст ключові слова. Потім нам потрібно зробити те ж саме через тиждень і порівняти ці набори даних, щоб відповісти на два запитання:
- Які запити нові ключові слова порівняно з минулим часом? Це, мабуть, той випадок, який нам потрібен. Google вважає, що ці запити стають все більш значущими - цим ми можемо створити власне рішення Google Autosuggest!
- Які запити ключових слів більше немає в тренді?
Сценарій досить простий, і більшість коду я поділився тут. Оновлений код зберігає дані з минулих запусків та порівняння пропозицій з часом. Ми уникали файлових баз даних, таких як SQLite, щоб зробити це простішим - тому все сховище даних використовує файли CSV, наведені нижче. Це дозволяє імпортувати файл у Excel та досліджувати тенденції ключових слів для вашого бізнесу.
Використання цього сценарію Python
- Введіть набір ключових слів, який слід надіслати до автозаповнення: keywords.csv
- Налаштуйте параметри сценарію відповідно до своїх потреб:
- МОВА: за замовчуванням “en”
- КРАЇНА: за замовчуванням “ми”
- Заплануйте, щоб сценарій запускався раз на тиждень. Ви також можете запустити його вручну, як завгодно.
- Використовуйте keyword_suggestions.csv для подальшого аналізу:
- вперше побачено: це дата, коли запит з’явився вперше в автопропозиції
- Востаннє бачили: дата, коли запит бачився востаннє
- є_новим: якщо first_seen == last_seen, ми встановлюємо це значення Правда - Просто відфільтруйте це значення, щоб отримати нові популярні пошукові запити в автосугесті Google.
Ось код Python
# Pemavor.com Autocomplete Trends
# Author: Stefan Neefischer (stefan.neefischer@gmail.com)
import concurrent.futures
from datetime import date
from datetime import datetime
import pandas as pd
import itertools
import requests
import string
import json
import time
charList = " " + string.ascii_lowercase + string.digits
def makeGoogleRequest(query):
# If you make requests too quickly, you may be blocked by google
time.sleep(WAIT_TIME)
URL="http://suggestqueries.google.com/complete/search"
PARAMS = {"client":"opera",
"hl":LANGUAGE,
"q":query,
"gl":COUNTRY}
response = requests.get(URL, params=PARAMS)
if response.status_code == 200:
try:
suggestedSearches = json.loads(response.content.decode('utf-8'))[1]
except:
suggestedSearches = json.loads(response.content.decode('latin-1'))[1]
return suggestedSearches
else:
return "ERR"
def getGoogleSuggests(keyword):
# err_count1 = 0
queryList = [keyword + " " + char for char in charList]
suggestions = []
for query in queryList:
suggestion = makeGoogleRequest(query)
if suggestion != 'ERR':
suggestions.append(suggestion)
# Remove empty suggestions
suggestions = set(itertools.chain(*suggestions))
if "" in suggestions:
suggestions.remove("")
return suggestions
def autocomplete(csv_fileName):
dateTimeObj = datetime.now().date()
#read your csv file that contain keywords that you want to send to google autocomplete
df = pd.read_csv(csv_fileName)
keywords = df.iloc[:,0].tolist()
resultList = []
with concurrent.futures.ThreadPoolExecutor(max_workers=MAX_WORKERS) as executor:
futuresGoogle = {executor.submit(getGoogleSuggests, keyword): keyword for keyword in keywords}
for future in concurrent.futures.as_completed(futuresGoogle):
key = futuresGoogle[future]
for suggestion in future.result():
resultList.append([key, suggestion])
# Convert the results to a dataframe
suggestion_new = pd.DataFrame(resultList, columns=['Keyword','Suggestion'])
del resultList
#if we have old results read them
try:
suggestion_df=pd.read_csv("keyword_suggestions.csv")
except:
suggestion_df=pd.DataFrame(columns=['first_seen','last_seen','Keyword','Suggestion'])
suggestionCommon_list=[]
suggestionNew_list=[]
for keyword in suggestion_new["Keyword"].unique():
new_df=suggestion_new[suggestion_new["Keyword"]==keyword]
old_df=suggestion_df[suggestion_df["Keyword"]==keyword]
newSuggestion=set(new_df["Suggestion"].to_list())
oldSuggestion=set(old_df["Suggestion"].to_list())
commonSuggestion=list(newSuggestion & oldSuggestion)
new_Suggestion=list(newSuggestion - oldSuggestion)
for suggest in commonSuggestion:
suggestionCommon_list.append([dateTimeObj,keyword,suggest])
for suggest in new_Suggestion:
suggestionNew_list.append([dateTimeObj,dateTimeObj,keyword,suggest])
#new keywords
newSuggestion_df = pd.DataFrame(suggestionNew_list, columns=['first_seen','last_seen','Keyword','Suggestion'])
#shared keywords with date update
commonSuggestion_df = pd.DataFrame(suggestionCommon_list, columns=['last_seen','Keyword','Suggestion'])
merge=pd.merge(suggestion_df, commonSuggestion_df, left_on=["Suggestion"], right_on=["Suggestion"], how='left')
merge = merge.rename(columns={'last_seen_y': 'last_seen',"Keyword_x":"Keyword"})
merge["last_seen"].fillna(merge["last_seen_x"], inplace=True)
del merge["last_seen_x"]
del merge["Keyword_y"]
#merge old results with new results
frames = [merge, newSuggestion_df]
keywords_df = pd.concat(frames, ignore_index=True, sort=False)
# Save dataframe as a CSV file
keywords_df['first_seen'] = pd.to_datetime(keywords_df['first_seen'])
keywords_df = keywords_df.sort_values(by=['first_seen','Keyword'], ascending=[False,False])
keywords_df['first_seen']= pd.to_datetime(keywords_df['first_seen'])
keywords_df['last_seen']= pd.to_datetime(keywords_df['last_seen'])
keywords_df['is_new'] = (keywords_df['first_seen']== keywords_df['last_seen'])
keywords_df=keywords_df[['first_seen','last_seen','Keyword','Suggestion','is_new']]
keywords_df.to_csv('keyword_suggestions.csv', index=False)
# If you use more than 50 seed keywords you should slow down your requests - otherwise google is blocking the script
# If you have thousands of seed keywords use e.g. WAIT_TIME = 1 and MAX_WORKERS = 5
WAIT_TIME = 0.2
MAX_WORKERS = 20
# set the autocomplete language
LANGUAGE = "en"
# set the autocomplete country code - DE, US, TR, GR, etc..
COUNTRY="US"
# Keyword_seed csv file name. One column csv file.
#csv_fileName="keyword_seeds.csv"
CSV_FILE_NAME="keywords.csv"
autocomplete(CSV_FILE_NAME)
#The result will save in keyword_suggestions.csv csv file