在一群白帽seo人士中说出“scrapebox”这个词,你会注意到一片冷冰冰的目光指向你。某种程度上,这种怒火是可以理解的:你在wordpress的akismet垃圾邮件文件夹中看到的大多数讨厌的垃圾博客评论很可能来源于scrapebox。
但就像任何工具一样,scrapebox关键在于如何使用。实际上,许多白帽seo机构将该软件视为他们的秘密武器。在本指南中,我们将教您如何使用scrapebox做正确的事情,而不是邪恶的事情。
scrapebox 101
对于那些对这个工具还不熟悉的人来说,scrapebox实际上有两个作用:爬取搜索引擎结果和发布自动博客评论。我们将忽略博客评论功能,因为那是一种垃圾策略,没有效果。
不要被它的简单性所迷惑:scrapebox非常强大。您可以使用这个工具轻松优化几十个单调的白帽链接建设流程。
但在我们进入这个之前,让我们给您一个关于该工具如何工作的快速入门。
scrapebox用户界面中有4个框。以下是它们的作用:
我们将忽略右下角,因为这仅用于自动发布博客评论。
还有一个重要的区域需要指出:管理列表。
这是您可以轻松排序和过滤scrapebox为您找到的结果的地方。
如何收集结果
让我们从“harvester”区域开始。
这里有两个重要的部分:
“footprint”
和“keywords”
如果您想查找某些特定站点上经常出现的内容,那么footprint就是您要加入的内容。例如,“powered by wordpress”是用于查找wordpress博客的常见footprint。
假设您想找到关于营养的.gov网站页面。首先,在footprint字段中输入site:.gov。
然后,您可以包含任何您想与footprint结合使用的关键字。例如,如果您输入关键字“减肥”,scrapebox将自动搜索:site:.gov 减肥。
您可以添加数百个关键字,scrapebox将自动将它们与您的footprint结合使用。当您准备好进行爬取时,转到搜索引擎和代理设置。
选择要使用的搜索引擎以及要查找的结果数量。我们通常使用google并爬取500-1000个结果(在大约200个结果后,您获得的大多数结果要么与您无关,要么来自没有多少权威的网站)。
当您设置好几个搜索字符串后,点击“开始采集”:
现在您将在“url's harvested”区域中获得一个url列表:
检查pr
为了让您的爬取列表发挥最大作用,您应该检查您找到的每个页面的pr。在“管理列表”下,选择“检查pagerank”:
选择“检查url pagerank”。
现在您可以轻松通过pr对页面进行排序。
并删除低于某个阈值的页面。假设您不希望pr低于3的页面。滚动直到看到pr2的页面。
点击并滚动以突出显示这些结果(您还可以按住shift键并使用键盘上的方向按钮进行选择):
右键单击并选择“从列表中删除所选的url”
筛选您的结果
如果您从多个搜索引擎抓取,您的列表中可能会有一些重复的结果。您可以通过点击“删除/筛选”按钮轻松从列表中删除它们。
然后选择“删除重复的url”。
如果您不希望在结果中显示相同的域名,您可以选择“删除重复的域名”来删除重复的域名:
现在,您有一个按pr排序的干净列表。您可以通过点击“导出url列表”按钮将该信息导出到excel或文本文件中,并选择最适合您的导出选项(我们个人喜欢excel)。
使用代理
如果您经常使用scrapebox,代理是必不可少的。如果您经常从您的个人ip抓取,google可能会禁用它。这意味着不能再进行google搜索。幸运的是,您可以相当容易地找到免费的有效公共代理。
而且您不需要任何技术技能来设置它们。
使用scrapebox内置的服务
scrapebox有一个很酷的功能,可以找到并为您添加免费的代理。
转到“选择引擎和代理”框。点击“管理”:
在下一个窗口中,选择“收集代理”。选择所有支持的来源。点击“开始”。
点击“应用”。
在使用代理之前进行测试非常重要。如果使用不工作的代理,scrapebox将无法工作。点击“测试代理”按钮。
选择“测试所有代理”。
等待scrapebox测试代理(可能需要一段时间)。完成后,您将看到类似于这样的结果:
点击筛选按钮,选择“保留google代理”。
点击保存按钮,选择“将选择的代理保存到scrapebox”。
这将保存有效的、经过google批准的代理。
现在,您已经掌握了它的工作原理,是时候使用scrapebox来帮助您建立令人难以置信的后向链接了。
资源页面链接建设
资源页面链接建设是地球上最被低估的白帽链接建设策略之一。在哪里还能找到为了链接到其他网站而存在的页面呢?
然而,大多数人都因为找到资源页面、寻找联系信息并联系站长耗费大量时间而避开了这个策略。幸运的是,您可以通过使用scrapebox极大地简化资源页面链接建设的过程。
首先,将其中一个经过测试的足迹输入到scrapebox中:
- intitle:resources
- inurl:resources
- inurl:links
并结合与您的领域相关的关键词。
然后点击“开始收集”。
按pr对页面进行排序,以便关注最有价值的目标。
现在导出您的列表,检查是否有破损的链接,或者只是给网站所有者发送电子邮件乞求一个链接!
竞争对手的后向链接分析
没有比逆向工程竞争对手更好的了。这是快速找到一系列高价值、与利基相关的网站并获取链接的唯一方法之一。虽然 ose、majestic 和 ahrefs 都是很棒的工具,但对于拥有数千个链接的网站来说,它们很难使用。这就是 scrapebox 的用武之地。
打开 scrapebox,点击插件 ? 显示可用插件。
选择 scrapebox backlink checker 2:
然后点击“安装插件”。
为了让插件正常工作,你需要在收割器结果区域中输入竞争对手的主页。只需输入站点的名称即可:
将结果设置为10。
然后开始获取结果。
删除你不感兴趣的页面,不需要获取其背链接信息。
返回插件菜单,选择 backlink checker 插件。
点击“加载 url 列表”。选择“从 scrapebox 收割器加载”。
点击“开始”。
完成后,选择“下载背链接”。
将文件保存为 .txt 文件。
关闭 backlink checker,返回 scrapebox 主菜单。在“管理列表”下选择“导入 url 列表”。
然后上传你保存的文本文件。
检查列表中链接的 pr。
现在你可以按 pr 排序,这样你就能在那些符合你页面 pr 或首页 pr 阈值的背链接目标上花时间:
找到客座文章机会
寻找相关的、权威的站点来发布客座文章是地球上最乏味的链接建设任务之一。借助 scrapebox,你可以在几分钟内找到成千上万个潜在的客座文章目标,并筛选掉低 pr 的站点。
首先,使用一些接受客座文章的站点通常具有的足迹,比如:
- allintitle:guest post guidelines
- intitle:write for us
- “guest blogger”
并将它们与目标关键词结合。
收集结果。但这次,你要删除重复的域名。毕竟,你只需要看到一个已发布的客座文章或客座博主指南,就知道他们接受客座文章。
点击“删除/过滤”,选择“删除重复域名”。
检查 pr。由于客座文章指南页面的 pr 并不重要,选择“获取域名 pagerank”选项。这将显示站点的首页 pr。
现在按 pr 排序,开始行动吧!
外链检查器
你已经知道 pagerank 是有限的。如果一个高 pr 页面被数百个其他页面包围,为了在上面获得一个背链接而辛苦工作是徒劳的。幸运的是,使用 scrapebox,你可以立即找到任何页面(或页面)的外链数量。
点击插件。然后显示可用插件。选择 scrapebox outbound link checker。
点击“安装插件”
如果你已经在 scrapebox 中加载了一些域名列表,你可以使用它们。从插件菜单中打开程序,点击“加载列表”。选择“从 scrapebox 加载”。
如果您愿意,您可以从文本文件中上传url列表。将目标页面复制并粘贴到文本文件中。然后从附加组件中单击“加载列表”和“从文件加载”。
在附加组件中显示url时,单击“开始”。
附加组件将显示内部链接和外部链接的数量。
如果您想要从每个链接获取最大的链接权重,您可能希望将目标限制在具有50-100个或更少外部链接的页面。要做到这一点,请单击“筛选”按钮。
选择您的阈值:
附加组件将自动删除具有100个或更多外部链接的任何url。
查找和帮助被恶意软件感染的网站
一种费时但有效的白帽链接建设策略是帮助有被感染网站的站长。一些网站所有者长时间忽视他们的网站,使其易受黑客攻击。如果您可以介入并解决问题,他们通常会非常乐意以链接形式回报您。您可以使用scrapebox找到数十个与特定领域相关的被感染网站。
对于被恶意软件感染的网站,没有特定的脚印可用。然而,cms pligg往往有异常数量的感染。您可以使用以下两个脚印来找到pligg网站:
- inurl:story.php?title=
- “最少五个字符”
一旦url被加载,安装恶意软件和网络钓鱼过滤器附加组件。
启动附加组件,选择“从harvester加载urls”。
单击“开始”。
该工具将显示列表中是否有被感染的网站。
如果您找到任何被感染的网站,请不要访问它们!它们可能会感染您的电脑。
相反,请选择“将错误的url保存到文件”。
保存该列表。
我们将使用另一个scrapebox附加组件获取被感染网站站主的联系信息:scrapebox whois抓取器。使用此工具,您可以找到被感染网站的whois信息,而无需实际访问它们。
安装完成后,打开该附加组件。加载您的被感染网站文件。
点击“开始”。
完成后,您将看到一系列姓名、电子邮件等信息。
保存该文件。现在,请穿上您的超级英雄斗篷,与被感染网站的站主联系并拯救他们!
本地seo引文逆向工程
如果您从事本地seo,您已经知道引文是您活动的命脉。但是,使用ose或其他工具来逆向工程竞争对手的本地引文并不总是有效的。
为什么?因为nap(姓名、地址和电话号码)引文并非始终是反向链接,因此不会出现在链接分析工具中。而且,如果无法逆向工程,本地社区页面和目录几乎是不可能的任务。但使用scrapebox就不一样了。
以此示例为例,假设您正在尝试为罗德岛州帕塔基特的一位牙医提高排名。首先,在google中进行本地搜索:
访问其中一个顶部结果的网站。
在侧边栏或联系我们页面上查找其地址。
然后将该地址复制到scrapebox的关键字区域。重要提示:确保地址是单行。
并将街道地址用引号括起来(如果不这样做,搜索引擎有时会返回不包含准确街道地址的结果页)。
并添加一些街道名称的变体。这样,如果引文以“ave.”而不是“avenue”或以“rd.”而不是“road”列出,您仍然可以找到它。
最后,您不希望在结果中看到您正在逆向工程的企业的页面。如果该网站在侧边栏或页脚上列出了他们的地址(许多本地企业都有),您会发现您的结果中零散地有数百个来自该域的页面。
通过在关键字搜索中添加-site:运算符,您可以避免这种情况。该运算符将阻止该站点的任何结果显示在您的搜索结果中。
将其添加到已经输入到scrapebox中的关键字的末尾。
点击“开始收集”。然后,您应该会找到大量其他情况下无法找到的引文目标:
白帽博客评论
尽管scrapebox以其自动博客评论功能而臭名昭著,但它对于白帽博客评论来说却非常有用。您可以使用scrapebox快速找到大量权威的、以特定领域为目标的页面,以便在其上进行手动博客评论。
首先,将以下示例足迹之一(有数百个)输入到scrapebox收割机中,以查找允许博客评论的页面:
- site:.edu“you must be logged in to comment”(这是一个不错的选择,因为需要登录的站点通常不会被过度垃圾评论)
- site:.edu“post a comment”
- “post new comment”
然后,在关键字字段中输入一些特定领域的关键字。
点击“开始收集”。当您获得结果时,应该按pr进行排序,并删除任何低于某个特定阈值的结果(对于博客评论,最好按page pr排序,而不是主页pr)。
按pr进行排序:
并删除不值得的结果。
如果您有一个庞大的列表并希望仔细选择目标,您可能还希望检查外部链接的数量。
这次,从scrapebox加载列表:
并过滤掉似乎有过多外部链接的结果。
现在,您可以保存结果并将其用作工作列表。就是这样。开心收集!