in

高级ScrapeBox链接建设指南

在一群白帽seo人士中说出“scrapebox”这个词,你会注意到一片冷冰冰的目光指向你。某种程度上,这种怒火是可以理解的:你在wordpress的akismet垃圾邮件文件夹中看到的大多数讨厌的垃圾博客评论很可能来源于scrapebox。

但就像任何工具一样,scrapebox关键在于如何使用。实际上,许多白帽seo机构将该软件视为他们的秘密武器。在本指南中,我们将教您如何使用scrapebox做正确的事情,而不是邪恶的事情。

scrapebox 101

对于那些对这个工具还不熟悉的人来说,scrapebox实际上有两个作用:爬取搜索引擎结果和发布自动博客评论。我们将忽略博客评论功能,因为那是一种垃圾策略,没有效果。

不要被它的简单性所迷惑:scrapebox非常强大。您可以使用这个工具轻松优化几十个单调的白帽链接建设流程。

但在我们进入这个之前,让我们给您一个关于该工具如何工作的快速入门。

scrapebox用户界面中有4个框。以下是它们的作用:

我们将忽略右下角,因为这仅用于自动发布博客评论。

还有一个重要的区域需要指出:管理列表。

这是您可以轻松排序和过滤scrapebox为您找到的结果的地方。

如何收集结果

让我们从“harvester”区域开始。

这里有两个重要的部分:

“footprint”

和“keywords”

如果您想查找某些特定站点上经常出现的内容,那么footprint就是您要加入的内容。例如,“powered by wordpress”是用于查找wordpress博客的常见footprint。

假设您想找到关于营养的.gov网站页面。首先,在footprint字段中输入site:.gov。

然后,您可以包含任何您想与footprint结合使用的关键字。例如,如果您输入关键字“减肥”,scrapebox将自动搜索:site:.gov 减肥。

您可以添加数百个关键字,scrapebox将自动将它们与您的footprint结合使用。当您准备好进行爬取时,转到搜索引擎和代理设置。

选择要使用的搜索引擎以及要查找的结果数量。我们通常使用google并爬取500-1000个结果(在大约200个结果后,您获得的大多数结果要么与您无关,要么来自没有多少权威的网站)。

当您设置好几个搜索字符串后,点击“开始采集”:

现在您将在“url's harvested”区域中获得一个url列表:

检查pr

为了让您的爬取列表发挥最大作用,您应该检查您找到的每个页面的pr。在“管理列表”下,选择“检查pagerank”:

选择“检查url pagerank”。

现在您可以轻松通过pr对页面进行排序。

并删除低于某个阈值的页面。假设您不希望pr低于3的页面。滚动直到看到pr2的页面。

点击并滚动以突出显示这些结果(您还可以按住shift键并使用键盘上的方向按钮进行选择):

右键单击并选择“从列表中删除所选的url”

筛选您的结果

如果您从多个搜索引擎抓取,您的列表中可能会有一些重复的结果。您可以通过点击“删除/筛选”按钮轻松从列表中删除它们。

然后选择“删除重复的url”。

如果您不希望在结果中显示相同的域名,您可以选择“删除重复的域名”来删除重复的域名:

现在,您有一个按pr排序的干净列表。您可以通过点击“导出url列表”按钮将该信息导出到excel或文本文件中,并选择最适合您的导出选项(我们个人喜欢excel)。

使用代理

如果您经常使用scrapebox,代理是必不可少的。如果您经常从您的个人ip抓取,google可能会禁用它。这意味着不能再进行google搜索。幸运的是,您可以相当容易地找到免费的有效公共代理。

而且您不需要任何技术技能来设置它们。

使用scrapebox内置的服务

scrapebox有一个很酷的功能,可以找到并为您添加免费的代理。

转到“选择引擎和代理”框。点击“管理”:

在下一个窗口中,选择“收集代理”。选择所有支持的来源。点击“开始”。

点击“应用”。

在使用代理之前进行测试非常重要。如果使用不工作的代理,scrapebox将无法工作。点击“测试代理”按钮。

选择“测试所有代理”。

等待scrapebox测试代理(可能需要一段时间)。完成后,您将看到类似于这样的结果:

点击筛选按钮,选择“保留google代理”。

点击保存按钮,选择“将选择的代理保存到scrapebox”。

这将保存有效的、经过google批准的代理。

现在,您已经掌握了它的工作原理,是时候使用scrapebox来帮助您建立令人难以置信的后向链接了。

资源页面链接建设

资源页面链接建设是地球上最被低估的白帽链接建设策略之一。在哪里还能找到为了链接到其他网站而存在的页面呢?

然而,大多数人都因为找到资源页面、寻找联系信息并联系站长耗费大量时间而避开了这个策略。幸运的是,您可以通过使用scrapebox极大地简化资源页面链接建设的过程。

首先,将其中一个经过测试的足迹输入到scrapebox中:

  • intitle:resources
  • inurl:resources
  • inurl:links

并结合与您的领域相关的关键词。

然后点击“开始收集”。

按pr对页面进行排序,以便关注最有价值的目标。

现在导出您的列表,检查是否有破损的链接,或者只是给网站所有者发送电子邮件乞求一个链接!

竞争对手的后向链接分析

没有比逆向工程竞争对手更好的了。这是快速找到一系列高价值、与利基相关的网站并获取链接的唯一方法之一。虽然 ose、majestic 和 ahrefs 都是很棒的工具,但对于拥有数千个链接的网站来说,它们很难使用。这就是 scrapebox 的用武之地。

打开 scrapebox,点击插件 ? 显示可用插件。

选择 scrapebox backlink checker 2:

然后点击“安装插件”。

为了让插件正常工作,你需要在收割器结果区域中输入竞争对手的主页。只需输入站点的名称即可:

将结果设置为10。

然后开始获取结果。

删除你不感兴趣的页面,不需要获取其背链接信息。

返回插件菜单,选择 backlink checker 插件。

点击“加载 url 列表”。选择“从 scrapebox 收割器加载”。

点击“开始”。

完成后,选择“下载背链接”。

将文件保存为 .txt 文件。

关闭 backlink checker,返回 scrapebox 主菜单。在“管理列表”下选择“导入 url 列表”。

然后上传你保存的文本文件。

检查列表中链接的 pr。

现在你可以按 pr 排序,这样你就能在那些符合你页面 pr 或首页 pr 阈值的背链接目标上花时间:

找到客座文章机会

寻找相关的、权威的站点来发布客座文章是地球上最乏味的链接建设任务之一。借助 scrapebox,你可以在几分钟内找到成千上万个潜在的客座文章目标,并筛选掉低 pr 的站点。

首先,使用一些接受客座文章的站点通常具有的足迹,比如:

  • allintitle:guest post guidelines
  • intitle:write for us
  • “guest blogger”

并将它们与目标关键词结合。

收集结果。但这次,你要删除重复的域名。毕竟,你只需要看到一个已发布的客座文章或客座博主指南,就知道他们接受客座文章。

点击“删除/过滤”,选择“删除重复域名”。

检查 pr。由于客座文章指南页面的 pr 并不重要,选择“获取域名 pagerank”选项。这将显示站点的首页 pr。

现在按 pr 排序,开始行动吧!

外链检查器

你已经知道 pagerank 是有限的。如果一个高 pr 页面被数百个其他页面包围,为了在上面获得一个背链接而辛苦工作是徒劳的。幸运的是,使用 scrapebox,你可以立即找到任何页面(或页面)的外链数量。

点击插件。然后显示可用插件。选择 scrapebox outbound link checker。

点击“安装插件”

如果你已经在 scrapebox 中加载了一些域名列表,你可以使用它们。从插件菜单中打开程序,点击“加载列表”。选择“从 scrapebox 加载”。

如果您愿意,您可以从文本文件中上传url列表。将目标页面复制并粘贴到文本文件中。然后从附加组件中单击“加载列表”和“从文件加载”。

在附加组件中显示url时,单击“开始”。

附加组件将显示内部链接和外部链接的数量。

如果您想要从每个链接获取最大的链接权重,您可能希望将目标限制在具有50-100个或更少外部链接的页面。要做到这一点,请单击“筛选”按钮。

选择您的阈值:

附加组件将自动删除具有100个或更多外部链接的任何url。

查找和帮助被恶意软件感染的网站

一种费时但有效的白帽链接建设策略是帮助有被感染网站的站长。一些网站所有者长时间忽视他们的网站,使其易受黑客攻击。如果您可以介入并解决问题,他们通常会非常乐意以链接形式回报您。您可以使用scrapebox找到数十个与特定领域相关的被感染网站。

对于被恶意软件感染的网站,没有特定的脚印可用。然而,cms pligg往往有异常数量的感染。您可以使用以下两个脚印来找到pligg网站:

  • inurl:story.php?title=
  • “最少五个字符”

一旦url被加载,安装恶意软件和网络钓鱼过滤器附加组件。

启动附加组件,选择“从harvester加载urls”。

单击“开始”。

该工具将显示列表中是否有被感染的网站。

如果您找到任何被感染的网站,请不要访问它们!它们可能会感染您的电脑。

相反,请选择“将错误的url保存到文件”。

保存该列表。

我们将使用另一个scrapebox附加组件获取被感染网站站主的联系信息:scrapebox whois抓取器。使用此工具,您可以找到被感染网站的whois信息,而无需实际访问它们。

安装完成后,打开该附加组件。加载您的被感染网站文件。

点击“开始”。

完成后,您将看到一系列姓名、电子邮件等信息。

保存该文件。现在,请穿上您的超级英雄斗篷,与被感染网站的站主联系并拯救他们!

本地seo引文逆向工程

如果您从事本地seo,您已经知道引文是您活动的命脉。但是,使用ose或其他工具来逆向工程竞争对手的本地引文并不总是有效的。

为什么?因为nap(姓名、地址和电话号码)引文并非始终是反向链接,因此不会出现在链接分析工具中。而且,如果无法逆向工程,本地社区页面和目录几乎是不可能的任务。但使用scrapebox就不一样了。

以此示例为例,假设您正在尝试为罗德岛州帕塔基特的一位牙医提高排名。首先,在google中进行本地搜索:

访问其中一个顶部结果的网站。

在侧边栏或联系我们页面上查找其地址。

然后将该地址复制到scrapebox的关键字区域。重要提示:确保地址是单行。

并将街道地址用引号括起来(如果不这样做,搜索引擎有时会返回不包含准确街道地址的结果页)。

并添加一些街道名称的变体。这样,如果引文以“ave.”而不是“avenue”或以“rd.”而不是“road”列出,您仍然可以找到它。

最后,您不希望在结果中看到您正在逆向工程的企业的页面。如果该网站在侧边栏或页脚上列出了他们的地址(许多本地企业都有),您会发现您的结果中零散地有数百个来自该域的页面。

通过在关键字搜索中添加-site:运算符,您可以避免这种情况。该运算符将阻止该站点的任何结果显示在您的搜索结果中。

将其添加到已经输入到scrapebox中的关键字的末尾。

点击“开始收集”。然后,您应该会找到大量其他情况下无法找到的引文目标:

白帽博客评论

尽管scrapebox以其自动博客评论功能而臭名昭著,但它对于白帽博客评论来说却非常有用。您可以使用scrapebox快速找到大量权威的、以特定领域为目标的页面,以便在其上进行手动博客评论。

首先,将以下示例足迹之一(有数百个)输入到scrapebox收割机中,以查找允许博客评论的页面:

  • site:.edu“you must be logged in to comment”(这是一个不错的选择,因为需要登录的站点通常不会被过度垃圾评论)
  • site:.edu“post a comment”
  • “post new comment”

然后,在关键字字段中输入一些特定领域的关键字。

点击“开始收集”。当您获得结果时,应该按pr进行排序,并删除任何低于某个特定阈值的结果(对于博客评论,最好按page pr排序,而不是主页pr)。

按pr进行排序:

并删除不值得的结果。

如果您有一个庞大的列表并希望仔细选择目标,您可能还希望检查外部链接的数量。

这次,从scrapebox加载列表:

并过滤掉似乎有过多外部链接的结果。

现在,您可以保存结果并将其用作工作列表。就是这样。开心收集!

Written by