1、为什么百度蜘蛛对CSS和JS代码不抓取?那么这两种代码是在网站上怎样写才是适合SEO优化的?
一般来来说:JS代码百度搜索引擎还不太能源够全面的识别,所以,在做优化的时候,把这些JS代码,尽量放在最底部,不要放在最前面,而CSS是没有问题的,百度是能够识别的,但是,也别太多了,不然,会加大它的抓取的。费时间了就不太好了。
2、SEO中抓取是什么意思?
关于这个问题yyseoer顾问表示:
抓取是搜索引擎蜘蛛从待抓地址库中提取要抓的URL,浏览这个URL,把读取的HTML代码存进数据表。蛛蛛的爬取就是说像游览器相同开启这一网页页面,和客户电脑浏览器浏览相同,也会在网络服务器最原始日记中留下来记录查询。
3、SEO时,如何查看网站被百度抓取的情况?
百度蜘蛛,我们查看网站被百度抓取的情况主要是分析,网站日志里百度蜘蛛Baispider的活跃性:抓取频率,返回的HTTP状态码。具体可以咨询中搜客服电话问问那些专家
4、网站html页面里嵌一个大swf,想做seo,怎样插入访客不可见的文字,以及链接,用于搜索引擎抓取内容呢
SWF好似不能这样做的。但你可以在TDK上进行设置,或者将SWF做成浮动层,下面加文字,然后将SWF盖在文字上面。
5、SEO 怎么禁止百度蜘蛛爬某个文件夹?
经常有站长咨询说百度蜘蛛频繁抓取网页的js文件和css文件,想屏蔽百度蜘蛛不让百度蜘蛛抓取这些文件,但是很多站长有担心如何屏蔽了百度蜘蛛抓取css文件和js文件是否会对网站排名产生不利影响,于是这些站长很纠结。
从百度站长优化指南我们就可以指定,百度排名不会考虑js文件或者css文件,也就是说js文件和css文件不参与百度排名,但是大量站长反馈,虽然禁止百度抓取js和css文件,但是百度蜘蛛还是照样抓取不误,毫无疑问,它们是用来支撑网站整体上的功能性和美观性,任何网站都需要js和css。
禁止百度收录和抓取css文件的方法
通过robots.txt文件实现禁止百度收录
我们看看其他站长对禁止百度蜘蛛收录js和css的看法。
1、谷歌管理员指南说明
阻止你的CSS和js文件可能会影响你在谷歌的搜索排名,所以建议robots.txt不要禁止JS和CSS文件访问。
谷歌索引的建议:
网页加载速度对用户和索引依然非常重要。
屏蔽JS和CSS,谷歌索引将无法向普通用户那样读取页面。
如果JS太复杂,渲染页面可能不正确。
2、夫唯 - SEOWHY创始人
我认为“蜘蛛抓取一个网站的时间是一定的,限制了某文件被抓取,则它又更多时间去抓取别的网页”
如果不成立,则完全没必要屏蔽CSS和JS了。
如果成立,那要屏蔽的就不止CSS和JS了,很多没实质意义的文件都值得屏蔽。
3、站长:小小马
顺其自然最好,该出现的还是让它出现,该让蜘蛛抓取还是要抓取的,没有必要去限制太多,这样反而不好。
4、站长:张立博
我觉得没必要屏蔽,因为搜索引擎会知道哪些是JS、CSS,哪些是网页文件。抓取js和css的蜘蛛应该不会影响网页的抓取频率。
至于搜索引擎抓取js和css,可能跟快照有关,因为现在网站的页面大多是用div+css来建设的,如果没有css的页面会惨不忍睹的。
所以不排除搜索引擎在试图解释JS和CSS文件,来丰富网页的内容,让搜索更精确。
5、站长:冯涵
经过试验和跟踪数据表明:
1>被屏蔽掉的js/css文件依然会被baidu和google大量crawl
2>屏蔽后跟踪观察其他page
type
蜘蛛crawl量,发现并未增加
3>如果网站大部分js/css文件里包含较多URL可以不屏蔽,蜘蛛爬取js/css文件的同时可以爬取里面的link
4>如果网站大部分js/css文件里基本上都是代码之类的,屏蔽也可,没发现明显的好处也没发现坏处
。
冲浪网站优化网:我们不建议禁止百度收录js或者css文件,毕竟百度抓取这些文件对网站整体性能影响微乎其微,如果禁止百度抓取js或者css,可能会影响百度快照js特效和css样式得不偿失,建议不要这样做。
6、SEO 网站抓取404 页面问题
我们都知道蜘蛛抓取的内容只读文字,像图片、代码css、js、都是不读取的,蜘蛛是通过链接来前进的。如果蜘蛛抓取了一堆代码还没有新的链接,那么就会把它当做404了,这是就想到了robots的好处了,你可以找到这些404的“页面”如果是一些代码、或者是功能性的文件,那你就可以用robots屏蔽啦,如果是真的404页面,你就要手动去修改啦。修改好后也可以做一下404页面优化。
7、SEO蜘蛛会不会抓取注释的内容~代码<!> 中的内容
网站代码中的注释只是为了方便程序员理解和修改代码
蜘蛛可以判断注释的,不会抓取不会收录
虽然注释的代码不会被抓取,但也会造成代码冗杂的情况,所以能少则少
8、SEO优化怎么抓取手机网站图?
企业在网站建设时,很多同时也做了手机端的网站,为了丰富网站的版面和内容,给网站添加了大量的图片做美化。网站的图片是一个网站能给用户最直观的信息表现,而对于搜索引擎而言,蜘蛛在随机抓取网站图片时候的识别能力还没有那么强。如果文字很少,图片很多也会给手机端网站SEO优化带来一定的困难。
一、不要盗用图片尽量原创
尽量自己做图片,有很多免费的图片素材,我们可以通过拼接,做出我们需要的图片。
在平时工作的时候,发现和自己网站相关的图片可以先保存下来,在本地做出分类和标记。网站需要图片的时候,看看相关的图片,自己着手做一个图片。这是一个长期积累的过程,随之时间的增加,自己的素材量也会越来越大。熟练了再做图片就得心应手了。
SEO优化:如何抓取手机网站图片 思考 网站运营 站长 经验心得 第2张
图片版权
再这里特别要注意,现在很多图片是有版权的,一点不要去使用那些有版权的图片,不然不光会侵权,还会让搜索引擎降低对你网站的信任值。
二、网站图片保存路径
这个问题很多站长都没有注意,图片在传到到网站的时候,尽量把图片保存在一个目录下面,或者根据网站栏目做好相应的图片目录,上传的时候路径要相对固定,方便蜘蛛抓取,蜘蛛在访问到这个目录的时候就会“知道”这个目录里面保存的是图片;
图片文件命名最好使用一些有规律的或者意义的方法,可以使用时间、栏目名称或者网站名称来命名。例如:SEO优化下面的图片可以使用“SEOYH2018-6-23-36”这种命名,前面“SEOYH”是SEO优化的简拼,中间是时间,最后是图片的ID。
为什么要这么做呢?其实这样是培养搜索引擎蜘蛛抓取习惯,方便将来更快的识别网站图片内容。让蜘蛛抓的顺心了,网站被收录的几率就增加了,何乐而不为呢!
三、图片周围要有相关文字
文章的开头就说了,网站图片是能把信息直接呈现给用户一个方法,搜索引擎在抓取网站内容的时候,也会检测这篇文章是否有配图、视频或者表格等等,这些都是可以增加文章分数值的元素,其他的几个形式暂时不表,这里我们只说说关于图片周围相关文字的介绍。
SEO优化:如何抓取手机网站图片 思考 网站运营 站长 经验心得 第3张
图片符合主题
首先图片周边文字要与图片本身内容相符,例如你的文章说的是做网站优化,里面配图是一道菜谱的图片,这不是挂羊头卖狗肉么?用户的访问感会极差,搜索引擎通过相关算法识别这张图片以后,也会觉得图文不符,给你差评哦。
所以,每篇文章最少要配一张相应的图片,而且在图片的周围要出现和你网站标题相关的内容。不但能帮助搜索引擎理解图片,还可以增加文章的可读性、用户体验友好度以及相关性。
四、图片添加alt、title标签
许多站长在添加网站图片时可能没有留意这些细节,有的可能觉得麻烦,希望大家千万别有这种想法,这是大错特错的。
搜索引擎抓取网站图片的时候,atl标签是它首先抓取的,也是识别图片内容最重要的核心因素之一,图片的alt属性是直接告诉搜索引擎这是啥网站图片,以及这张要表达什么意思;
title标签是用户指向这张图片的时候,会显示的提示内容,这是增加用户体验度和增加网站关键词的一个小技巧。
SEO优化:如何抓取手机网站图片 思考 网站运营 站长 经验心得 第4张
alt和title标签
还有就是这两个属性,会给有阅读障碍的访问者提供访问的便利,例如:有盲人在访问你网站的时候,他看不到屏幕上的内容,可能是通过读屏软件来阅读的,如果有alt属性,软件会直接读出alt属性里的文字,给他们的访问提供方便。
五、图片的大小和分辨率
尽管两者看起来有些相同,但还是有很大的差别,相同大小的图片,分辨率更高的话,网站最终体积也会越大。这一点大家要搞清楚。
网站的上的图片,一直以来都提倡用尽量小的图片,去最大化呈现内容。为什么要这样呢?因为小尺寸的图片会加载的更快,不会让访问者等待太久,特别是手机访问的时候,由于手机上网速度和流量的限制,用户更愿意访问能立即打开的页面,小尺寸图片就更有优势了。
在这里我们尽量做好平衡,在图片不失真的情况下,尺寸最好尽量的小。现在有很多在线给图片瘦身的工具,各位站长可以去尝试一下,把网站的图片适当的压缩一下,一方面可以减少你服务器带宽的压力,另外还能给用户有流畅的体验。
六、手机端自动适应
很多站长都遇到过网站在电脑访问图片显示很正常,可是从手机端就会出现错位等等情况,这就是大尺寸的图片给不同尺寸的终端造成错位和显示不全的情况。
SEO优化:如何抓取手机网站图片 思考 网站运营 站长 经验心得 第5张
图片自适应手机端
其实这个问题很好解决,在添加图片的时候宽高最好不要使用绝对大小,使用百分比就解决了。具体说,CSS代码不能指定像素宽度:width:xxx px;只能指定百分比宽度:width: xx%;或者width:auto就可以了。
这样做的目的也是为了让百度的移动蜘蛛抓取的时候有个良好的体验,这也是为了更符合百度移动落地页体验。
9、【SEO】动态的网站关键字有利于搜索引擎抓取么
我感觉不会,se一般不收录需要调用数据库的网页
10、SEO中禁止抓取和禁止索引是同一个概念吗
问:SEO中禁止抓取和禁止索引是同一个概念吗?
答:两者是不同的概念。
1.主流搜索引擎都会遵守robots.txt文件指令,robots.txt文件禁止抓取的文件搜索引擎将不会访问,不会抓取。但需要注意的是,被robots.txt文件禁止抓取的URL可能会被索引并出现在搜索结果中。禁止抓取代表着搜索引擎会知道这个URL的存在,虽然不会抓取页面内容,但是索引库还是会有这个URL的信息。淘宝网就是最好的例子。
2.如果要想使URL完全不出现在搜索结果中,那么我们必须使用另外一个标签:noindex meta robots标签。这个标签的意思是禁止搜索引擎索引本页面,禁止搜索引擎跟踪本页面链接。noindex meta robots标签用于指令搜索引擎禁止索引本页内容,因此不会出现在搜索结果页面中。
同时,要想让noindex meta robots标签起作用,则首先必须允许抓取,如果搜索引擎蜘蛛不抓取这个页面,它就看不到noindex meta robots标签。