编辑整理:整理来源:搜狗问问,浏览量:131,时间:2022-06-16 15:42:01
根据关键词生成文章,关键词生成文章系统,提供关键词自动生成文章
刷完生财有术30篇关键词与知乎好物精华文章后我做出了这样一款工具 原创 生财工具 生财工具 生财工具号 shengcaigongju
功能介绍 一个通过关键词挖掘项目的工具类,包括但不限于关键词拓词、分词、分类、知乎问答挖掘工具等。
发表于 收录于合集 从去年国庆第一次看到生财的那篇文章:如何在百万级的数据里找到别人正在赚钱的项目(参考资料1),认识到了君言,再顺藤摸瓜看完君言在知乎的几篇文章,对于一直在摸索尝试用技术从事自媒体写作的一个技术人,终于感觉找到了用技术做点东西的思路。今年4月18号加入了生财有术后,花了2个多月的碎片时间刷完生财28篇SEO的精华,外加几篇关键词引流与知乎好物的精华,再回头来重新把君言的所有文章读了几遍,断断续续把这些文章涉及的功能做成了一个小工具集合:生财工具,生财工具的脑图介绍如下:一、关键词工具1.关键词内容挖掘工具无论是通过SEO获取免费流量,还是通过SEM做竞价投放,我们都会先研究一下关键词目前在搜索引擎的收录情况,为了方便的收集一批关键词在搜索引擎的收录情况,就需要工具自动输入关键词然后收集搜索引擎返回的内容,我们通过收集这些链接,提取标题,还可以通过提取域名快速找到目前做到比较好的同行网站有哪些,研究同行网站的关键词布局与内容向来是做互联网项目的必备技能。演示一下关键词内容工具的使用视频:关键词内容挖掘工具的有关截图:关键词内容工具的使用很简单:输入你想挖掘的词根,比如:抖音,选择包含词根的长尾词文件,关键词内容挖掘工具会自动使用长尾词带入百度搜索挖掘出排名在首页的文章链接。关键词挖掘工具爬取一段时间后我们得到如下的文件:•长尾词对应的百度搜索结果收录链接 包括域名、域名描述、链接标题、链接地址以及在百度的排名权重,如下:•域名统计文件 提取链接的域名,再根据百度的排名权重将域名进行排名统计,我们可以很方便的得到一份有关领域的行业域名库,如下所示:2.关键词内容下载工具通过上面的关键词内容挖掘工具,我们已经找到一批搜索引擎收录的排名靠前的链接,为了更好的研究这些内容,我们通常希望将这些内容直接下载到本地电脑保存起来,这样一是为了方便查看,另外也可以快速的进行模仿再创作,所以还是需要一个工具批量下载这些链接的内容工具,关键词内容下载工具就是用来自动下载这些链接内容,并支持多种格式,如html,纯文本与word格式等。演示一下关键词内容下载工具的使用视频:关键词内容下载工具截图如下:关键词内容下载工具的使用也很简单:•网页地址文件 将需要下载的网页地址保存到文件中,然后选择这个网页地址文件,这里直接可以用前面的关键词内容挖掘工具得到。•网页地址列位置选择的网页地址文件可能有很多列信息,这里需要指定哪一列是网页链接地址。•下载配置 可以选择将网页内容保存为html、txt纯文本和word三种格式。下载一段时间后,我们就得到三种文件格式的内容,分别保存在三个文件夹中,如下:3.关键词基于海量内容挖词工具从事搜索引擎营销都知道,做好SEO和SEM最重要的事情就是关键词挖掘,挖的词越多,就越有可能发现更多的流量机会。关键词挖掘有很多种方法,这里介绍的是基于海量内容挖词方法,也是目前搜索引擎提取关键词的一种常用方法,专业的技术说法是:通过TF-IDF算法提取文章关键词。这个工具的思路也是来自君言的文章(参考资料:6),这里我们利用一批新闻语料库和目标行业文章来保证收集的关键词的行业准确性,新闻语料库可以直接从一些自然语言处理网站下载现成的,另外就是需要收集你需要提取的关键词目标行业的文章,这些文章从哪里下载?很简单,上面的关键词内容下载工具就可以用来下载这些行业文章,另外也可以直接通过知乎来收集。演示一下关键词海量内容挖词工具的使用视频:关键词基于海量内容挖词工具的的使用截图:•目标内容文件夹 目标内容就是我们准备提取的关键词内容,目前支持主流的文件格式:html、txt、word和pdf格式。•提取词百分比 为了认为控制提取词的准确度,我们一般提取TF-IDF得分排名前20%的关键词,具体可以根据提取的效果调整这个比值。•语料库文件夹 语料库需要预先准备,一般以新闻语料库为主。•语料库加载百分比 为了加快语料库的加载速度,我们可以加载每份语料库的一部分,具体使用可以根据提取关键词的准确度调整这个比值。•过滤关键词包含文档数阈值算法不是万能的,当某些词很频繁的出现在很多语料库中时,我们认为通过这个阈值过滤掉这些关键词,保证提取的准确度。这里我以君言的一些文章作为目标内容,挖掘君言部分文章得到的关键词如下:4.关键词有关词搜索工具如果你已经明确准备研究一个领域的需求,有什么方式可以把这个领域所涉及的需求尽可能都提取出来,无论用户是怎么表达的?君言的一篇付费文章(参考资料:5)给出了一种非常巧妙可操作性强的方法:搜索引擎的有关词搜索。挖掘百度搜索引擎的有关词有一个难点:如何保证有关词的有关性?如果不做有关性校验,直接爬取的关键词会很快偏离我们的要求,比如:引流,这个词根很容易爬取到很多医学类关键词,所以必须控制关键词的有关性。君言在付费文章提出了一种方法解决了这个问题:使用有关词搜索结果的链接域名判断,具体细节这里不作展开,感兴趣的可以直接看那篇付费文章,非常值得一看,如果你是生财有术星球的会员可以直接在星球找到这篇文章免费查看。使用这个工具还有一个小困难点:怎么收集一个领域的行业域名库?很简单,上面的关键词内容挖掘工具就可以解决这个问题,工具在收集内容的同时自动提取链接的域名并按照搜索引擎的排名对域名进行排序,我们就得到了一份行业域名库了。关键词有关词搜索工具工具的使用视频:关键词有关词搜索的工具的使用截屏如下:•词根 就是我们需要爬取的关键词词根,比如:引流。•域名有关性校验 如果开启域名有关性校验,我们会使用百度收录关键词链接的域名判断该关键词是否与要搜索的词根有关。•行业域名库文件 行业域名库文件保证关键词的链接域名包含在这份域名库文件中,这个域名库文件可以通过前面的关键词内容挖掘工具整理得到,如下: •排除域名库文件排除域名库文件是为了排除很多大的域名基本覆盖了任何行业的搜索结果:比如百度、百度知道、知乎、新浪等。这个手动整理一次就可以了,再根据爬取结果调整这份域名库文件,如下所示: 关键词有关词搜索工具会爬取得到如下几份文件: 有关词文件 异常词文件 有些异常词是我们判断错误的文件,主要是域名库整理的不够准确完整,可以根据爬取结果调整: 关键词完全匹配统计我们将关键词是否完整包含在搜索链接标题进行统计,并根据关键词长度进行排名,我们就可以得到一个关键词在百度搜索结果的竞争激烈程度,这里重点完全匹配数为0的关键词,这些关键词可能意味着还没有匹配的内容提供,这里我们就可以撰写相应的文章吸引收录,如下: 异常词域名统计我们在判断词词不是有关词的同时,记录下这些我们判断为非有关词的链接的域名与域名的描述,从这份域名文件我们可以判断出哪些域名是我们收集行业域名库漏掉的,我们可以加进去提高判断关键词是否有关的准确性,不断丰富关键词行业域名库,如下: 有关词含空格为什么要将这部分关键词单独提取出来一个文件?因为这些包含空格的关键词都包含用户强烈的搜索需求,想一想自己的搜索习惯,当搜不到自己需要的结果时,是不是下意识的加些空格希望搜索引擎更准确的给出搜索结果,一些示例关键词如下: 有关词爬取记录我们将关键词在百度的搜索结果也记录下来,便于二次分析,比如我们调整了行业域名库,就可以直接分析上次的爬取结果,不用在重新爬取了,如下: 5.关键词分词工具通过关键词找项目的重点在于挖掘海量用户的需求,再去做自动化归类,数据量越大,归类越智能,找到的需求就越清晰,而分词是关键词挖掘项目的必备操作。一个简单的分词举例如下:怎么下载抖音的视频 --> 怎么、下载、抖音、的、视频。当我们拿到一批长尾词,通常需要对长尾词进行分词,统计词根词频,关键词往往符合2/8定律,结合分词统计的词根覆盖率就能把能覆盖80%词量的20%词根重新进行拓展,基本就能收集到有代表性的词库。演示一下关键词分词工具的使用视频:关键词分词工具的有关截图:•词根 词根比如:抖音,这个词根就是准备分词的长尾词文件的词根。•词库语言目前支持中文与英文,英文的分词效果不太好,后面会专门抽出时间来优化这个英文分词功能。•关键词文件 这次准备分词的长尾词文件,不限于长尾词也可以是一批短文本,比如链接标题、文章标题等短文本都可以。•关键词排除文件 把你不想要的关键词词根,比如一些黑词的词根,还有我们明确知道不想要的词根,比如我们从5118上导出了一批“引流“长尾词,想对这些长尾词进行分析,我们已经知道比如一些医学词根比如:导管、试管、手术这些明显是不有关的词根,我们可以用一个文件把这些不有关的词放在一起排除掉,这样分类结果就不会有这些词了。•自定义不可分割词文件 不可分割词是为了保证一些词不要被拆开,因为分词工具也不是万能的,比如:今日头条、视频号这两个词不要被拆开成:今日、头条,视频、号。我们将这些不想被拆开的词也整理成一个文件放到一起,这样就可以提高分词的准确性。这里我们还是以"抖音"给出一份分词后的效果截屏:我们简单解释一下上面excel的含义:•词频 比如,第4行:视频,就是“视频”这个词根在这份“抖音”长尾词中出现的次数。•词频覆盖率 比如,第4行:视频,该词根的词频占“抖音”长尾词数量的比例。有了词频覆盖率的参考,便能一眼看出该词根的比重,快速了解该词根的重要程度。•词频累计覆盖率有了词频覆盖率,为什么还要一个词频累计覆盖率指标了?因为关键词往往符合2/8定律,为了方便的统计一份长尾词库中覆盖了80%长尾词的词根,我们在生成这个文件的同时从上到下累计每个词根的覆盖率就得到了词频累计覆盖率,然后直接观察“词频统计覆盖率”这一列,从上到下拖到80%这个值就表示之前的所有行就是代表整个长尾词库80%的词根了。我们还可以用词根:把能覆盖80%词量的20%词根都去拓展与一些描述词进行重新组合继续拓展更多的长尾词词,这样基本就能收集到有代表性的词库了。6.关键词分类工具在搜索引擎上,找到 50 万个属于某个行业长尾词词库绝对是一种很强的能力,现在我们已经可以通过一些第三词库网站拿到50万甚至更多的词库,但是如果对50万乃至百万级长尾词进行自动化分类,这是有点技术难度的,通过excel基本无法做到,我们其实通过机器学习的文本分类技术是能够在几十分钟内完成百万级长尾词的分类。其实通过上面的一系列工具,我们已经准备了一批长尾词,下面将使用关键词分类工具对关键词进行分类,在分类的过程中会对关键词去重、去短、去长,还可以自定义排除词文件将非目标词移除等处理:关键词分类工具的视频操作如下:关键词分类工具的有关截屏如下:我们还是以一份50万的抖音长尾词为例,给出分类的效果截屏:从上面的excel文件我们可以很方便的将一份几十万长尾词按照分类数量整理到一份excel中,每一列就是分成一类的长尾词,列的标题是这一列长尾词除了词根(抖音)之外出现最频繁的2个词根,还统计了这一类长尾词有多少个以及在整个长尾词库的占比。另外,关键词分类工具同时将每一列单独生成一个文件方便查看,如下:至于,如何我们应该如何使用分类后的文件,这里给出君言文章的一些片段说明:这样一份Excel,已经自动帮我们归类好相似的关键词,不同类的词会间隔开,好处在于:某些词可能只是小部分字眼不同,但实际表述的都是一件事,程序能帮你归类出来
聚集在一起的一批词,我们一眼就可以看出这是一个什么样的需求,越多越清晰
有关的已经归类在一起了,后面不会再出现类似需求,不会反复干扰
在生财有术的精华文章里,也有一篇关于“口水”小病种的淘宝蓝海选品的文章值得一读(参考资料9的第4个链接)。归类后的长尾词还可以直接用来搭建SEM关键词账户结构。另外,经过归类的长尾词库也是一份非常好的自媒体写作思路来源,特别是那些带有疑问词的长尾词,比如:抖音怎么类的长尾词,这对于从事抖音有关自媒体培训创作的作者来说,在你没有写作思路的时候不妨从这些长尾词中找些灵感,毕竟这些长尾词都是用户真实的搜索需求。7.关键词思维导图生成通过关键词归类工具归类后的长尾词是没有结构的,一份词库生成之后,你只能从上往下看,看到什么是什么。其实我们可以使用我们日常工作经常用的脑图工具来可视化呈现关键词的分类效果,关键字分类工具就是采用君言介绍的关键词根提取法“的方式来归类,使归类好的关键词自动按照思维导图的结构展示出来。演示一下关键词思维导图工具的使用视频:关键词思维导图工具的有关截图:还是以抖音为例,生成一份关键词思维导图工具如下:另外,根据多个用户的反馈,长尾词达到百万级以后生成的思维导图太大很难打开,所以参考了知乎问天文章(最近发现该文章已被删除)的做法做了多文件夹显示长尾词,如下:二、问答挖掘工具1.知乎优质问答挖掘自从2020年知乎推出知乎好物带货功能后,迅速成为互联网最火热的赚钱项目,只要在知乎回答问题、写文章、上传视频都可以带货,但是粉丝很少的知乎小白新用户如果想运营"好物推荐",短期很难产生效益,因为知乎的海量问题不知道优先回答哪些,所以君言提供了一种基于百度搜索流量运营知乎好物方法(参考资料:4),这篇文章君言本来发在知乎上的,但是由于文章内容太爆料,文章大部分内容已经在知乎裁剪了,强烈建议大家移步到君言详细看这篇文章,这个工具就是根据君言的这篇文章开发,工具大概思路如下:•搜集一批目标类目长尾词比如冰箱,可以使用艾奇关键词助手批量导出长尾词;•统计长尾词的搜索结果将准备的长尾词逐个到百度搜索,检查搜索结果中有指向知乎问题或文章的链接;根据搜索结果中的指向知乎问题或文章的链接,统计问题或文章覆盖的长尾词数量,根据统计结果优先回答那些覆盖长尾词数量多,回答人数少的问题,并研究有关的文章进行学习再模仿写作。为了更好的挑选合适的问题回答,工具还爬取了问题的浏览量、回答中是否已经有知乎好物的回答、问题的人数以及文章的点赞数、评论数等指标。先给出知乎问答挖掘工具的操作视频:知乎问答挖掘工具的软件截屏如下:知乎问答挖掘工具爬取一段时间后,会得到下面几组统计文件:从上面的汇总统计文件,我们可以统计有关关键词覆盖的问题数量和文章数量。1.1 问题统计文件对于问题统计表,提取出预估流量高并且覆盖词数多的问题ID,这些问题都是在百度拥有相对高的流量来源的,优先在这些问题底下推荐才有机会获得更高的曝光量,下面是问题统计的excel截屏:我们收集了每个关键词在百度搜索结果中知乎问题的有关指标:覆盖词数量、回答数、浏览量、人数已经这个问题是否已经有知乎好物的回答,另外由于关键词的问题太多,根据80/20原则,工具还统计了有关指标TOP20的问题,可以优先选择这些问题进行回答,如下:覆盖词数TOP20的问题统计预估得分TOP20的问题统计问题人数TOP20的问题统计问题浏览量TOP20的问题统计1.2 文章统计文件对于文章统计表,提取出预估流量高并且覆盖词数多的文章ID。虽然文章是别人发表的,我们也没办法回答,但是可以研究对方的标题和内容,知乎在百度的权重已经足够高了,不用担心我们发布的文章不被收录或者排名不好,剩下的就是在比拼标题和内容,研究对方的标题和内容是如何布局关键词的,这是文章在百度排名优异的一部分关键,如下:和问题统计一样,依然根据80/20原则,工具还统计了有关指标TOP20的文章,可以优先选择这些问题进行回答,如下:覆盖词数量TOP20的文章统计排名预估得分TOP20的文章统计评论数TOP20统计的文章统计赞同数TOP20的文章统计1.3 关键词统计文件涉及问题数较多说明该词在目标类目里具有相对代表性,才能在搜索时出现相对多的各种同类问题,同时,如果该词涉及的文章数较少,或者几乎为0,说明用户目前在百度搜索该词时,还没有能排得上来的好文章,那么显然我们应该以该关键词为标题,围绕该关键词撰写一篇优质的推荐文章,用这种方式布局用户可能会搜索到的各种需求,如下:2.悟空优质问答挖掘虽然今日头条已经停止了悟空问答app的维护,但是悟空问答网页端依然积累了大量的原创内容,在悟空问答回答问题依然有可观的广告收益,而且是一个很好的引流渠道。所以参考上面知乎问答挖掘的思路,开发了悟空问答挖掘工具。悟空问答工具操作视频演示如下:悟空问答工具有关截图如下:我们采用类似的方法统计悟空问答的有关指标,具体参考上面的知乎问答挖掘分析方法,这里简单给出统计的问题统计示例截屏:三、参考资料下面列出我在开发工具过程中参考的一些文章链接,具体如下:1.如何在百万级的数据里找到别人正在赚钱的项目https://mp.weixin.qq.com/s/tGJaXgdPBmDwc2A2YYBzyQhttps://zhuanlan.zhihu.com/p/1578462042.如何轻松找到抖音里不起眼的赚钱项目https://zhuanlan.zhihu.com/p/1591519413.学会这几点,就可以在百万数据里找到能赚钱的项目https://zhuanlan.zhihu.com/p/1790466664.零粉丝,运用错位竞争,运营「好物推荐」https://mp.weixin.qq.com/s/z0DM5iaWjQ5aax10mNe7FA5.用逆向思维收集大量被忽略的"声音"https://mp.weixin.qq.com/s/H9AlHdLFTxqezMEjVKSIhQ6.百度竞价广告:穷尽蓝海流量-收集篇https://mp.weixin.qq.com/s/zbG_ZEXb69M0mJxo3MxmHw7.SEO采集海量文章,用倒排索引找出"类似的标题"https://mp.weixin.qq.com/s/7C8spfWXL_dkrfxSgEfEeg8.我在阿里巴巴的流量方法论https://zhuanlan.zhihu.com/p/956260729.生财有术SEO精华https://search.shengcaiyoushu.com/cdetail?id=148关键字基础篇,进阶篇,及12个应用方法https://t.zsxq.com/a6mujY知乎的千万级流量套利机会 https://t.zsxq.com/Ubiimq7 百度另类流量词挖掘方式分享 https://t.zsxq.com/Bq3BqzR海量长尾词蓝海选品 https://t.zsxq.com/7ubuFMj10.TF-IDF的应用:自动提取关键词http://www.ruanyifeng.com/blog/2013/03/tf-idf.html11.通过Google挖掘细分市场的一个案例https://mp.weixin.qq.com/s/cXa6Rwiet5gN8bSe-h4QNw最后以君言的一段话来结束这篇文章做个总结:研究好关键词就成功了⼀半!那其实我们还有听过⼀句话:解决核⼼问题就解决了80%的问题。对于这些领域,关键词就是核⼼问题 所以以我过往的经验来看:何⽌⼀半!。这些工具是付费的,如果有兴趣加如下咨询价格::后台回复:数据,可以获得一份文章中提到的一些工具的数据。
热搜弹幕:根据关键词生成文章,关键词生成文章系统,提供关键词自动生成文章