1、一篇文章里发两条重复外链,对seo会有影响吗
那要看你怎么发了,比如论坛里的签名,那都是无所谓的。但是建议不要只在一个网站上发,效果不好,因为那一个网站给你的权重不可能是无限的!所以,建议你多在一些网站上发布信息重复发相通文章会收录效果不高,不同网站可以发。综合说就是所带链接无所谓,关键承载的平台得不一样,同时参数权重越高效果越好。
2、网站首页有几个重复地址,对SEO的影响有哪些
URL是搜索引擎对页面的唯一标识,多个重复地址,意味着多个重复页面。
影像如下:
1.在站内就有多个页面竞争同一个关键词排名
2.站内页面相似度过高会判罚
3. 如果有大量重复页面,浪费搜索引擎对你网站的各项配额。
4. 丢失很多本应拿到的链接加分,站外渠道的链接往往是最优质的。同一个URL的分值可能分散成几十份。
解决方案:
1.规范URL
2.不规范的URL301到规范的URL
排名掉光肯定不是这一个问题导致的,需要对网站完全的诊断
3、SEO:完全相同的关键字重复出现2-3次,是否合理?
这样是肯定不行的,对Google和Bai而言,一篇文章的关键字密度大约是3%-7%左右,超过这个数值就会被怀疑;同样的关键字最好不要超过3次;不仅如此,关键字需要恰到好处地自然融入到词句中,类似XXX|XXX|XXX肯定不太好,会有堆砌的嫌疑(不是因为密度关系,而是因为内容可读性).
4、SEO优化之如何处理重复链接
301跳转重复链接
每个网站都难免会经历结构或者内容的调整。我在做姐妹祛痘网的时候也经历了这样的事,因为当初建这个站的时候,不是很注意目录结构的优化,导致后来用户体检不好,对搜索引擎也不是很好。所以决定改,而这一改就就需要吧旧的url变成新的,但是同时要保证旧的url可以访问,如果处理不好搜索就会导致有2个或者更多的url指向同一个页面,虽然对用户来讲是感觉不出什么,但是对搜索引擎来说确实个不好的体验,所以这个时候我们需要做的是用301将就得url跳转到新的url,这样既兼顾了用户体验,也照顾了搜索引擎,同时还还能将就得url权重转移到新的url上。所以在进行网站改版的时候一点要注意301跳转的处理。
robots.txt屏蔽掉重复的链接
这类问题多半是由于程序本身的漏洞,或者由伪静态而造成的,比如我的姐妹祛痘网论坛,用的是dz论坛程序,但是这个程序本身会有很多重复的url,所以如果处理不好那会造成很多的重复页面,我的处理方式,是先用吧url设置成伪静态的,然后用robots.txt 带有 “?”参数的页面,和以".php"结尾的页面。当然这只能避免大部分重复,如果你想细化,还需要分析网站日志,看看还有那些重复的url,然后屏蔽掉。
link标签解决重复
很多时候我们的,一些内容页比如产品页,只是在型号或者在颜色上有一些区别,而本身所指的是一种商品的时候,这个时候就需要规范url,< link rel="canonical" href="URL" / > 不过这个标签只对google有效,而百度却不支持此标签,针对百度我们只能屏蔽掉这个url< meta name="Baispider" contect= "noindex" > 。
5、《疯狂seo》网站内容重复该如何解决
1、原创内容才是根本
要想减少网站内容的重复性,原创内容是根本,搜索引擎比较喜欢原创且质量高的内容,用户同样是如此,如果能够原创文章的更新,就可以从根本上避免文章过度重复的可能了。
2、网站页面设置独立meta属性
各个页面最好是设置独立的关键词、描述,尽可能的手动修改,减少meta标签的重复性。
3、设置404错误页面
404错误页面的作用就是要告诉用户和搜索引擎某些页面不存在,防止搜索引擎进一步收录,造成网站出现大量死链接。
4、网站固定版块内容随意展示
虽然有些页面不能避免会出现固定的版块,但是将这些版块的内容设置为随意展示,也就可以减少网站内容的重复性了。
6、SEO实战:网站同一个页面重复收录怎么办
你网站系统出问题了或者设置有问题,首先要设置一下,避免出现重复页面,如果设置不了,那么就需要将重复页面人工设置一个返回值(如404)就可以了,或者禁止抓取也可以
7、SEO:标题重复对网站有哪些影响?
“清风算法”,严惩标题作弊,标题重复可能被看成作弊行为。
8、网站SEO问题:网站首页被重复收录了很多次怎么办?
一、网站页面重复收录的原因是什么?
在网站优化过程中,搜索引擎并不喜欢重复内容的收录,一直强调的也是原创,那为什么网站同一页面还会重复收录呢?
一般后缀出现了一个问号或者其他的字符串,是因为百度收录文章的同时,会给该篇文章加一个标签,但是访问网站的时候,会自动跳转回来原来的网站,首页或者内页,至于内页的链接被收录到首页有可能是因为该篇文章设置在首页上显示,所以最终的链接地址指向了首页。
1.搜索引擎识别问题—搜索引擎毕竟只是人为编写的一套规则,做不到充分的识别,所以导致部分URL地址的内容重复收录。
2.程序设计问题—有些程序在设计中为了“预览”方便在后台存在动态页面。但因设计不当,导致搜索引擎依旧通过目录的索引便可发现这一存在,进而对其索引收录。
3.模板问题—在模板制作中常常易忽视这一问题,最后模板完成后既存在动态页面,又存在静态页面,如此怎能不被搜索引擎重复收录呢?
4.网站改版—网站改版可能会导致一些URL地址的重复收录。
二、网站页面重复收录该如何处理?
可以从以下四个方面着手:
1.URL标准化
在网站建设过程中尽量统一URL地址,勿使用动态页面进行链接,一来是搜索引擎青睐静态页面,另一方面也可以防止相同内容被搜索引擎重复收录。
2.利用robots.txt屏蔽动态文件
利用robots.txt进行动态文件的屏蔽,如:“Disallow: /?”即屏蔽了根目录下带”?”的页面,这个可以自己灵活设置。
3.及时的清除缓存
每个网站都会带有两个网址,一般网站更新文章后都需要生成静态的网址,本身就存在一个动态的,自然生成静态后就会多出一个网址,这样的话,如果没及时清除缓存,就可能使得同一个页面的静态,动态URL网址都被收录,因为这搜索引挚把同一篇文章的两个网址看作是独立的,自然就两个都被收录了。所以,及时清除缓存可以很大程度上减少网页被重复收录。
4.利用网站地图引导蜘蛛
网站地图的作用不单单是把整站的内容进行归纳,而且还可以让蜘蛛爬行更加的顺畅无阻,有序的抓取网站内的各个页面,从而也能减少蜘蛛对网站页面重复收录的概率。
9、SEO中 关键词重复的目的是什么。
关键词堆积(Keyword Stuffing)是什么?
关键词堆积是指在页面上本来没有必要出现关键词的地方刻意重复或者说堆积关键词,寄希望于提高页面对关键词的相关度或关键词密度,进而提高排名。
关键词堆积(Keyword Stuffing)出现在哪?
出现关键词堆积的地方即可能是可见文字,也可能是用户看不见的文字,如:
● 网页标题标签
● 说明标签
● 关键词标签
● 页面可见正文
● 图片ALT文字
● 页面内部链接描文字中,尤其容易出现在页脚部分
● 页面HTML代码中的评论部分
● 隐藏在表格中
关键词堆积在程度上有很大区别,所以也是一个比较模糊的作弊概念。