Python: сценарий автопредложения Google о тенденциях для ключевых слов в поисковой нише
Всем нравится Google Trends, но когда дело доходит до ключевых слов с длинным хвостом, это немного сложно. Нам всем нравится официальная сервис Google трендов для получения информации о поисковом поведении. Однако две вещи не позволяют многим использовать его для прочной работы;
- Когда тебе нужно найти новые ключевые слова в нишеЕсть недостаточно данных в Google Trends
- Отсутствие официального API для выполнения запросов к трендам Google: когда мы используем такие модули, как pytrends, то мы должны использовать прокси-серверы, иначе нас заблокируют.
В этой статье я поделюсь сценарием Python, который мы написали для экспорта ключевых слов с трендами через Google Autosuggest.
Получение и сохранение результатов автозаполнения с течением времени
Предположим, у нас есть 1,000 начальных ключевых слов, которые нужно отправить в Google Autosuggest. Взамен мы, вероятно, получим около 200,000 длинный хвост ключевые слова. Затем нам нужно сделать то же самое через неделю и сравнить эти наборы данных, чтобы ответить на два вопроса:
- Какие запросы новые ключевые слова по сравнению с прошлым разом? Наверное, это тот случай, который нам нужен. Google считает, что эти запросы становятся все более значимыми - тем самым мы можем создать собственное решение Google Autosuggest!
- Какие запросы ключевые слова больше не в тренде?
Скрипт довольно простой, и большая часть кода, которым я поделился здесь. Обновленный код сохраняет данные из прошлых прогонов и сравнивает предложения с течением времени. Мы избегали файловых баз данных, таких как SQLite, чтобы упростить задачу, поэтому все хранилища данных используют файлы CSV, указанные ниже. Это позволяет импортировать файл в Excel и исследовать тенденции нишевых ключевых слов для вашего бизнеса.
Чтобы использовать этот скрипт Python
- Введите свой исходный набор ключевых слов, который следует отправить в автозаполнение: keywords.csv
- Настройте параметры скрипта в соответствии с вашими потребностями:
- ЯЗЫК: по умолчанию «en»
- СТРАНА: по умолчанию «нас»
- Запланируйте запуск сценария один раз в неделю. Вы также можете запустить его вручную, как хотите.
- Используйте keyword_suggestions.csv для дальнейшего анализа:
- первый_просмотренный: это дата, когда запрос впервые появился в автозаполнении
- последний_видимый: дата, когда запрос был замечен в последний раз
- новый: если first_seen == last_seen, мы устанавливаем это значение Правда - Просто отфильтруйте это значение, чтобы получить новые популярные поисковые запросы в автозаполнении Google.
Вот код Python
# Pemavor.com Autocomplete Trends
# Author: Stefan Neefischer (stefan.neefischer@gmail.com)
import concurrent.futures
from datetime import date
from datetime import datetime
import pandas as pd
import itertools
import requests
import string
import json
import time
charList = " " + string.ascii_lowercase + string.digits
def makeGoogleRequest(query):
# If you make requests too quickly, you may be blocked by google
time.sleep(WAIT_TIME)
URL="http://suggestqueries.google.com/complete/search"
PARAMS = {"client":"opera",
"hl":LANGUAGE,
"q":query,
"gl":COUNTRY}
response = requests.get(URL, params=PARAMS)
if response.status_code == 200:
try:
suggestedSearches = json.loads(response.content.decode('utf-8'))[1]
except:
suggestedSearches = json.loads(response.content.decode('latin-1'))[1]
return suggestedSearches
else:
return "ERR"
def getGoogleSuggests(keyword):
# err_count1 = 0
queryList = [keyword + " " + char for char in charList]
suggestions = []
for query in queryList:
suggestion = makeGoogleRequest(query)
if suggestion != 'ERR':
suggestions.append(suggestion)
# Remove empty suggestions
suggestions = set(itertools.chain(*suggestions))
if "" in suggestions:
suggestions.remove("")
return suggestions
def autocomplete(csv_fileName):
dateTimeObj = datetime.now().date()
#read your csv file that contain keywords that you want to send to google autocomplete
df = pd.read_csv(csv_fileName)
keywords = df.iloc[:,0].tolist()
resultList = []
with concurrent.futures.ThreadPoolExecutor(max_workers=MAX_WORKERS) as executor:
futuresGoogle = {executor.submit(getGoogleSuggests, keyword): keyword for keyword in keywords}
for future in concurrent.futures.as_completed(futuresGoogle):
key = futuresGoogle[future]
for suggestion in future.result():
resultList.append([key, suggestion])
# Convert the results to a dataframe
suggestion_new = pd.DataFrame(resultList, columns=['Keyword','Suggestion'])
del resultList
#if we have old results read them
try:
suggestion_df=pd.read_csv("keyword_suggestions.csv")
except:
suggestion_df=pd.DataFrame(columns=['first_seen','last_seen','Keyword','Suggestion'])
suggestionCommon_list=[]
suggestionNew_list=[]
for keyword in suggestion_new["Keyword"].unique():
new_df=suggestion_new[suggestion_new["Keyword"]==keyword]
old_df=suggestion_df[suggestion_df["Keyword"]==keyword]
newSuggestion=set(new_df["Suggestion"].to_list())
oldSuggestion=set(old_df["Suggestion"].to_list())
commonSuggestion=list(newSuggestion & oldSuggestion)
new_Suggestion=list(newSuggestion - oldSuggestion)
for suggest in commonSuggestion:
suggestionCommon_list.append([dateTimeObj,keyword,suggest])
for suggest in new_Suggestion:
suggestionNew_list.append([dateTimeObj,dateTimeObj,keyword,suggest])
#new keywords
newSuggestion_df = pd.DataFrame(suggestionNew_list, columns=['first_seen','last_seen','Keyword','Suggestion'])
#shared keywords with date update
commonSuggestion_df = pd.DataFrame(suggestionCommon_list, columns=['last_seen','Keyword','Suggestion'])
merge=pd.merge(suggestion_df, commonSuggestion_df, left_on=["Suggestion"], right_on=["Suggestion"], how='left')
merge = merge.rename(columns={'last_seen_y': 'last_seen',"Keyword_x":"Keyword"})
merge["last_seen"].fillna(merge["last_seen_x"], inplace=True)
del merge["last_seen_x"]
del merge["Keyword_y"]
#merge old results with new results
frames = [merge, newSuggestion_df]
keywords_df = pd.concat(frames, ignore_index=True, sort=False)
# Save dataframe as a CSV file
keywords_df['first_seen'] = pd.to_datetime(keywords_df['first_seen'])
keywords_df = keywords_df.sort_values(by=['first_seen','Keyword'], ascending=[False,False])
keywords_df['first_seen']= pd.to_datetime(keywords_df['first_seen'])
keywords_df['last_seen']= pd.to_datetime(keywords_df['last_seen'])
keywords_df['is_new'] = (keywords_df['first_seen']== keywords_df['last_seen'])
keywords_df=keywords_df[['first_seen','last_seen','Keyword','Suggestion','is_new']]
keywords_df.to_csv('keyword_suggestions.csv', index=False)
# If you use more than 50 seed keywords you should slow down your requests - otherwise google is blocking the script
# If you have thousands of seed keywords use e.g. WAIT_TIME = 1 and MAX_WORKERS = 5
WAIT_TIME = 0.2
MAX_WORKERS = 20
# set the autocomplete language
LANGUAGE = "en"
# set the autocomplete country code - DE, US, TR, GR, etc..
COUNTRY="US"
# Keyword_seed csv file name. One column csv file.
#csv_fileName="keyword_seeds.csv"
CSV_FILE_NAME="keywords.csv"
autocomplete(CSV_FILE_NAME)
#The result will save in keyword_suggestions.csv csv file