前言 cloudflare 是一家国外的 CDN 加速服务商,还是很有名气的。提供免费和付费的加速和网站保护服务。以前推荐过的百度云加速的国外节点就是和 cloudflare 合作使用的 cloudflare 的节点。 cloudflare 提供了不同类型的套餐,即使是免费用户,cloudflare 提供的功能也是很全面的。 对于访客来自于国外的网站很不错;对于访客来自于国内的网站加速效果有限,有些甚至会变慢,不过其安全防护功能也很不错。 添加网站 官网: www.cloudflare.com 使用邮箱注册,注册完后自动进入添加网站界面。 添加网站分为四步:添加网站域名、添加DNS记录、选择方案、更新域名服务器。 Paste_Image.png 1.添加网站 填入自己的主域名(不带 www 的),“Scan DNS Records”。 2.添加DNS记录 添加完成后会自动扫描 DNS 记录,等待完成,“Continue”。 下面会列出所有扫描到的 DNS 记录。黄色云朵表示该解析通过 CDN 访问,灰色云朵表示不通过 CDN 访问,点击云朵可以切换状态。 这里建议全部调为黄色云朵走 CDN 访问,隐藏网站真实 IP 地址。全站通过 CDN 访问可以有效防止网站真实IP泄漏,保护原站安全。 记录简单的话可以直接按默认条目;如果没有扫描出来原记录或要手动添加,建议至少添加 @ 和 www 两条指向原网站 IP 的 A 记录,TTL 默认。 Paste_Image.png 3.选择方案 选择适合自己的方案,一般小站博客免费方案就够了。当然,有更高需求的可按需选择付费方案。 Paste_Image.png 4.更新域名服务器 右侧是新的域名服务器。进入域名管理面板,更改域名服务器为新的。 Paste_Image.png 域名服务器更改成功后会收到邮件提示。“Continue”,完成。 Paste_Image.png from:https://www.jianshu.com/p/95a8f8e28649 最后成功以后,你 ping 你的域名 则发现其返回的IP地址已经不是真实IP了!例如:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 |
dig www.xixifriend.com ; <<>> DiG 9.10.3-P4-Ubuntu <<>> www.xixifriend.com ;; global options: +cmd ;; Got answer: ;; ->>HEADER<<- opcode: QUERY, status: NOERROR, id: 56283 ;; flags: qr rd ra; QUERY: 1, ANSWER: 2, AUTHORITY: 0, ADDITIONAL: 0 ;; QUESTION SECTION: ;www.xixifriend.com. IN A ;; ANSWER SECTION: www.xixifriend.com. 300 IN A 104.24.123.191<strong> 这个IP就是cloudflare的!!!</strong> www.xixifriend.com. 300 IN A 104.24.122.191 ;; Query time: 235 msec ;; SERVER: 223.6.6.6#53(223.6.6.6) ;; WHEN: Thu Mar 29 16:27:10 CST 2018 ;; MSG SIZE rcvd: 68 |
摘录自:http://www.freebuf.com/articles/web/41533.html 大部分通过CloudFlare保护的网站都有一个direct-xxx(xxx对应网站域名)的子站,通过这个子站我们可以获得该网站的真是IP。例如这里我随便找个网站,我们手工测试一下: 我们不做DDOS,没必要去较真网站的真实IP是什么,但如果渗透过程中需要从Web入手,而暂时又找不到可利用的漏洞,需要通过其他弱智的方式来进行入侵,如各种C段的渗透等,那样真实的网站IP就显得比较重要了。OK,先ping一下,看看, 141.101.122.201,美国。 试试刚才说的那个方法 蛋疼了,被CloudFlare隐藏的那是相当的深了,这果然是特殊照顾的客户啊。这里就不得不祭出神站了,提到一个比较叼的网站,www.crimeflare.com,网站有个DomainSearchBox,可以对CloudFlare客户网站进行真实IP查询。这个估计是哪个哥们跟CloudFlare网站过不去建立的吧。 果断发现真实IP,147开头,香港大学的,具体地址就不透露了,免得顺丰快递上门服务。如何验证真实性呢,最简单的办法就是修改本地的Host文件,真实的IP对应与之对应的域名即可。但是验证了一下,发现不对,这只是曾经用过的一台服务器IP地址,应该是这鸟网站扛不住的时候CF帮忙搬家了,这里只能呵呵一下。看了下C段,全是香港大学的机器,没啥兴趣,搞来意义不大,就不浪费时间了。然后各种抓包分析,后来还是没突破,最终拿到了个CDN的小工具,类似于核总写的CDN终结者一样吧(某大牛,具体名字就不方便透露了),配和工具倒腾了会,竟然还真让我找到了一个在美国的IP地址(54.xxx.xxx.xx),查一下地址看看。 验证后果然为真实服务器,果然是AWS地址上,也验证了之前所有的想法,原来躲在了在亚马逊云上面,又是用的EC2产品,对ec2不太了解,注册了个aws看了看,对于EC2这种产品没有0Day是基本直接渗透没希望的。 from: https://www.cnblogs.com/bonelee/p/8670660.html
View Details免费的SEO诊断工具,还是国外的做的比较好,用过几款不错的,推荐给大家。 http://www.seoptimer.com/ 这个SEO页面检查工具非常赞!,不仅检查维度丰富,页面的用户体验也做得超级榜,页面质量情况一目了然。比较有特色的功能是文本覆盖率的检查(文本和html代码的比率,推荐在 25%~70% 之间)。截图如下: http://tools.neilpatel.com/ 这个在线检查工具可以对页面速度,页面的SEO质量进行综合评分。并给出比较详细优化建议,相比于其他工具,她比较有特色的是对页面样式和组件结构的优化建议,比如应该有索引链接,返回首页的链接,以及页面的主题内容应该在那个位置等等。但不支持中文,所以对关键词相关的指标识别不准。截图:她的WEB性能分析体验还是很好的,简单明了,一目了然,一眼就能看出问题在哪,如图: https://seositecheckup.com/ 免费版的诊断维度挺多,有60几项,包括 sitemap 文件、robots 文件的检查等,相对来说还是比较全面的,还有一些高级的SEO指标检查,比如 Google 的 Mirodata,Canonical 标签等等。但又一点不爽,一个IP地址在一段之间之内只能测试一个地址,而且还只能是主域,可能是为了向她的收费产品引导吧。截图如下: http://www.seowebpageanalyzer.com/ 这个在线工具纯免费,但功能也略差一些,只能对基本SEO标准进行检测,还有对“keywords” Meta标签的检查(这个标签已经无效)。比较有特色的是对社交属性检查,比如twitter账号,Linkedin 账号等等(在Google的SEO中,社交媒体属性也是一像指标,有助于提权)。 免费的SEO校验工具有很多,正所谓“各村有各村的高招”,每一家都有一些特色功能,可以结合起来一起使用。 再推荐几款国内的SEO诊断工具 http://www.5118.com/ (推荐) 这款工具很赞,除了SEO综合分析意外,还提供词库,流量趋势的分析。 http://seo.addpv.com/SiteCheck/ http://s.tool.chinaz.com/seocheck http://tool.lizseo.com/ https://www.producthunt.com/posts/serptimizer 爱站综合查询:http://www.aizhan.com/cha/taobao.com/ from:https://www.coderxing.com/seo-online-checker.html
View Details@echo off echo start backup…… set d=%date:~0,4%%date:~5,2%%date:~8,2% set srcDir=D:\wwwroot\eolinker_os_4_0\ set dstDir=D:\wwwroot\bak\eolinker_os_4_0\ set name=%d%.rar set name=%name: =% "C:\Program Files\WinRAR\WinRAR.exe" a -k -r -s -m1 -agYYYYMMDD %dstDir% %srcDir% rem ftp set user=FtpUser set pass=dd373 set ip=192.168.101.143 set RemoteFolder=eolinker_os_4_0 set LocalFolder=D:\wwwroot\bak\eolinker_os_4_0 set ftpFile=D:\wwwroot\bak\eolinker_os_4_0\ftp.txt echo open %ip%>%ftpFile% echo %user%>>%ftpFile% echo %pass%>>%ftpFile% echo cd %RemoteFolder%>>%ftpFile% echo lcd %LocalFolder%>>%ftpFile% echo binary>>%ftpFile% echo put %name%>>%ftpFile% echo bye>>%ftpFile% ftp -s:"%ftpFile%" echo backup is compate. del %ftpFile% pause
View Details几年前做网站的时候,新网站上线基本上两到三天百度,谷歌等搜索引擎都会收录,而且不需要发布推广外链接,如果关键字、产品竞争不是太强大,只要稍微做一下META头部设置就会有很好的排名。而如今网站每天都是成百上千的上线,做网站的站长一波又一波的出现,如今一个新网站被百度收录也不是那么容易。尤其是一些网络上已经充斥的产品,内容类型网站,如果你一个新域名网站希望在短期内被百度收录,不是一件简单的事情。几个星期之前,我同事的新网站,已经几个星期过去了,一直还没有收录。今天问我如何处理,我将采用我常用的几个方法促使网站收录以及有良好的排名效果。我先整理关于新网站不被百度收录的几个原因,希望大家有一个参考,可以改正我们现有网站的不足。 首先,选择域名。我们在注册域名的时候需要注意该域名是不是被用过,如果注册了一个之前被降权的域名,那是一件很悲哀的事情,如果被你注册到,以后要再次被收录,那需要一个相当长的考验期。我们在注册域名之前,先通过各种搜索引擎,查看有没有收录记录,如果有看下一是什么内容。如果内容正规的,应该没有问题,可能是企业网站到期没有续费或者换域名;如果是其他内容我们可以考虑不采用这个域名。 其次,网站空间的选择。有时候新网站不被收录,很多情况下是因为我们选择的主机商问题,如果主机商的IP被搜索引擎惩罚,蜘蛛不来爬行我们的网站,那也不会被收录。我们可以先让主机商给该主机的IP给我们看下,或者可以先使用几天不要付款。通过同IP检测网站,看其他网站是不是收录正常,如果大部分收录,快照以及site首页有问题,那我们还是换一家主机商吧。 第三,网站程序的选择。我们需要选择常规网站程序内核。不要下载或者使用有很多漏洞的,尤其是对搜索引擎不友好的网站。基本的SEO尝试我们需要知道,比如每个页面的标题需要不同,对应不同的页面内容。网站可以伪静态或者生成静态文件。如果是用的CMS,我们可以查看下用这款CMS的其他网站收录如何。 第四,网站内容。新网站对内容更为严格,从我们的网站上线到被收录,都处于被百度等搜索引擎考核阶段。我们内容千万不要采集或者是复制别人的。需要进行原创,或者伪原创更新。关于量上面,我们可以一天几篇,也可以一天一篇,根据自己的实际情况。只有等待被收录后,可以继续伪原创甚至适当转载。搜索引擎喜欢新内容。 第五,适当的外链接推广。如今网站竞争激烈,搜索引擎不会主动过来找你爬行内容,一个有外链接推广的网站,搜索引擎会顺着推广收录新的内容,尤其是收录速度上肯定比我们做好网站什么都不管挂在哪里强。对于推广的量我是这么做的,新网站一天10-20个外链接,持续每天都要去做。 第六,界面的友好程度。如今搜索引擎变得很聪明,我们在网站架构的时候需要考虑网站的“重度”,如果你网站图片或者动画太多,搜索引擎会跳过不抓取。因为他们喜欢抓取文字内容。而且在界面和代码布局上,需要有条理,减少垃圾代码的多余。 第七,不要过度优化。新网站我们站内优化要自然,不要关键字堆砌严重,因为这样搜索引擎会获悉你是一个作弊网站,新网站发展要自然,在以后收录或者权重高了后,再进行微调整。这些都是随着网站的发展,不断的提高和补充的。 第八,认真维护。往往成功就在一刹那间,不要认为几天或者几个礼拜不收录没长进,你就不更新,不维护了。往往很多站长都是这样的,做网站不会一夜成名,成功的背后都有辛酸。我们需要做的是坚持,坚持以上几点,做好了,不管我们做的什么网站,肯定有所回报。 from:http://jingyan.baidu.com/article/72ee561aa8061ae16138dfd8.html
View Detailscanonical 标签已经存在两年了,但我想至今一定还有很多人不知道canonical 标签是个什么东东,下面我会详细讲解一下,让大家认识它,理解它。 简单而言,canonical 标签可以为搜索引擎指明当前页面权重的侧重点在于哪个链接,从而有助于SEO. canonical 标签是在09年二月份由Google、Yahoo、Microsoft 共同发布,用来解决由于 URL 形式不同而造成的重复内容的问题。因为重复内容是SEO中的大忌,但对于一些页面而言,重复内容又是在所难免的。 为了给搜索引擎留下友好的印象,我们可以利用网站SEO优化中的一个小技巧即canonical 标签来实现。这样不但可以为搜索引擎分担一些工作,还能告诉他们哪个才是真正的权重高的页面,从而不用再费力气到处爬到处找了。 使用canonical 标签还有3个作用,其实这3个作用在前面的文章中我有提到,但为了让大家更好的理解,我再强调一下: 1.使用Canonical标签使网址规范化。 2.避免内容重复页面,搜索引擎收录更准确。 3.集中传递页面权重。 Canonical链接标签只能作用于同一个域名所在的网址,不能作用于不同域名上的重复内容。如果是跨站,可以使用301重定向。 具体使用方法,您可以通过以下两种方式指定规范网址: ?在每个非规范版本的 HTML 网页的部分中,添加一个 rel="canonical" 链接。 要指定指向网页 http://www.example.com/product.php?item=swedish-fish 的规范链接,请按以下形式创建元素: http://www.example.com/product.php?item=swedish-fish"/>将上述链接复制到某网页(例如 http://www.example.com/product.php?item=swedish-fish&sort=price)所有非规范版本的部分中。 如果您在 http://www.example.com/product.php?item=swedish-fish 和 https://www.example.com/product.php?item=swedish-fish 上都发布了内容,则可以指定该网页的规范版本。创建元素: http://www.example.com/product.php?item=swedish-fish"/>将上述链接添加到 https://www.example.com/product.php?item=swedish-fish 的部分中。 ?使用 Linkrel="canonical" HTTP 标头进行回应,从而指明网址的规范版本。向网页中的 head 部分添加rel="canonical" 的方法适用于 HTML 内容,但是不适用于 PDF 以及其他由"Google 网页搜索"编入索引的文件类型。在这种情况下,您可以使用Link rel="canonical" HTTP 标头进行回应,从而指明规范版本的网址,如下所示(请注意,要使用该选项,您需要拥有配置服务器的权限): Link: <http://www.example.com/downloads/white-paper.pdf>;rel="canonical" 目前,Google 仅针对"Google 网页搜索"支持这些链接标头元素。 更详细可以参见:http://www.google.com/support/webmasters/bin/answer.py?answer=139394 注意:不要耍小聪明,使用 canonical 标签把其他不相关的页面指定想提高权重的页面,如果被发现的话,你的网站肯定会死的很惨。 文章地址:http://www.fkseo.net/thread-194099-1-1.html
View Details什么是robots.txt? robots.txt是 搜索引擎 中访问网站的时候要查看的第一个文件。Robots.txt文件告诉 蜘蛛程序 在服务器上什么文件是可以被查看的。 当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。 robots.txt必须放置在一个站点的 根目录 下,而且文件名必须全部小写。 语法:最简单的 robots.txt 文件使用两条规则: · User-Agent : 适用下列规则的漫游器 · Disallow: 要拦截的网页 编辑本段robots.txt使用误区 误区一:我网站上所有的文件都需要被蜘蛛抓取,那我就没必要添加robots.txt文件了。反正如果该文件不存在,所有的搜索蜘蛛将默认能够访问网站上所有没有被口令保护的页面。 每当用户试图访问某个不存在的 URL 时,服务器都会在日志中记录 404错误 文件(无法找到文件)。每当搜索蜘蛛来寻找并不存在的robots.txt文件时,服务器也将在日志中记录一条404错误文件,所以你应该在网站中添加一个robots.txt。 误区二:在robots.txt文件中设置所有的文件都可以被搜索蜘蛛抓取,这样可以增加网站的收录率。 网站中的 脚本程序 、样式表等文件即使被蜘蛛收录,也不会增加网站的收录率,还只会占用服务器存储空间。因此必须在robots.txt文件里设置不要让搜索蜘蛛索引脚本程序、样式表等文件,具体哪些文件需要排除,在robots.txt使用技巧一文中有详细介绍。 误区三:搜索蜘蛛抓取网页太浪费服务器资源,在robots.txt文件中设置所有的搜索蜘蛛都不能抓取全部的网页。 如果这样的话,会导致整个网站不能被 搜索引擎收录 。 编辑本段robots.txt使用技巧 1. 每当用户试图访问某个不存在的URL时,服务器都会在日志中记录404错误(无法找到文件)。每当搜索蜘蛛来寻找并不存在的robots.txt文件时,服务器也将在日志中记录一条404错误,所以你应该在网站中添加一个robots.txt。 2. 网站管理员必须使蜘蛛程序远离某些服务器上的目录——保证服务器性能。比如:大多数网站服务器都有程序储存在“cgi-bin”目录下,因此在 robots.txt文件中加入“Disallow: /cgi-bin”是个好主意,这样能够避免将所有程序文件被蜘蛛索引,可以节省服务器资源。一般网站中不需要蜘蛛抓取的文件有:后台管理文件、程序脚 本、附件、 数据库文件 、编码文件、样式表文件、模板文件、导航图片和背景图片等等。 下面是 VeryCMS 里的robots.txt文件: User-agent: * Disallow: /admin/ 后台管理文件 Disallow: /require/ 程序文件 Disallow: /attachment/ 附件 Disallow: /images/ 图片 Disallow: /data/ 数据库文件 Disallow: /template/ 模板文件 Disallow: /css/ 样式表文件 Disallow: /lang/ 编码文件 Disallow: /script/ 脚本文件 3. 如果你的网站是 动态网页 ,并且你为这些动态网页创建了静态副本,以供搜索蜘蛛更容易抓取。那么你需要在robots.txt文件里设置避免动态网页被蜘蛛索引,以保证这些网页不会被视为含重复内容。 4. robots.txt文件里还可以直接包括在 sitemap 文件的链接。就像这样: Sitemap: http://www.***.com/sitemap.xml (此处请填写完整URL,如果按习惯填写Sitemap: /sitemap.xml,提交后会提示:检测到无效的 Sitemap 网址;语法错误) 目前对此表示支持的搜索引擎公司有 Google , Yahoo, Ask and MSN。而中文搜索引擎公司,显然不在这个圈子内。这样做的好处就是,站长不用到每个搜索引擎的 站长工具 或者相似的站长部分,去提交自己的sitemap文件,搜索引擎的蜘蛛自己就会抓取robots.txt文件,读取其中的sitemap路径,接着抓取其中相链接的网页。 5. 合理使用robots.txt文件还能避免访问时出错。比如,不能让搜索者直接进入购物车页面。因为没有理由使购物车被收录,所以你可以在robots.txt文件里设置来阻止搜索者直接进入购物车页面。 robots.txt文件的格式 "robots.txt"文件包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL, or NL作为结束符),每一条记录的格式如下所示: "<field>:<optionalspace><value><optionalspace>"。 在该文件中可以使用#进行注解,具体使用方法和UNIX中的惯例一样。该文件中的记录通常以一行或多行User-agent开始,后面加上若干Disallow和Allow行,详细情况如下: User-agent: 该项的值用于描述搜索引擎 robot 的 名字。在"robots.txt"文件中,如果有多条User-agent记录说明有多个robot会受到"robots.txt"的限制,对该文件来 说,至少要有一条User-agent记录。如果该项的值设为*,则对任何robot均有效,在"robots.txt"文件中,"User- agent:*"这样的记录只能有一条。如果在"robots.txt"文件中,加入"User-agent:SomeBot"和若干Disallow、 Allow行,那么名为"SomeBot"只受到"User-agent:SomeBot"后面的Disallow和Allow行的限制。 Disallow: 该项的值用于描述不希望被访问的一组URL,这个值可以是一条完整的路径,也可以是路径的非空 前缀,以Disallow项的值开头的URL不会被robot访问。例如"Disallow:/help"禁止robot访问/help.html、 /helpabc.html、/help/index.html,而"allow:/help/"则允许robot访问/help.html、 /helpabc.html,不能访问/help/index.html。"Disallow:"说明允许robot访问该网站的所有url,在" /robots.txt"文件中,至少要有一条Disallow记录。如果"/robots.txt"不存在或者为空文件,则对于所有的搜索引擎 robot,该网站都是开放的。 Allow: 该项的值用于描述希望被访问的一组URL,与Disallow项相似,这个值可以是一条完整的 路径,也可以是路径的前缀,以Allow项的值开头的URL是允许robot访问的。例如"Allow:/hibaidu"允许robot访问 /hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一个网站的所有URL默认是Allow的,所以 Allow通常与Disallow搭配使用,实现允许访问一部分网页同时禁止访问其它所有URL的功能。 需要特别注意的是Disallow与Allow行的顺序是有意义的,robot会根据第一个匹配成功的Allow或Disallow行确定是否访问某个URL。 使用"*"和"$": Baiduspider支持使用通配符"*"和"$"来模糊匹配url。 "$" 匹配行结束符。 "*" 匹配0或多个任意字符。 robots.txt文件用法举例 例1.禁止所有搜索引擎访问网站的任何部分 User-agent: * Disallow: / 例2.允许所有的robot访问 (或者也可以建一个空文件 "/robots.txt") User-agent: * Allow: / 另一种写法是 User-agent: * Disallow: 例3. 仅禁止Baiduspider访问您的网站 User-agent: Baiduspider Disallow: / 例4. 仅允许Baiduspider访问您的网站 User-agent: Baiduspider Allow: / 例5. 禁止spider访问特定目录 在这个例子中,该网站有三个目录对搜索引擎的访问做了限制,即robot不会访问这三个目录。需要注意的是对每一个目录必须分开声明,而不能写成 "Disallow: /cgi-bin/ /tmp/"。 User-agent: * Disallow: /cgi-bin/ Disallow: /tmp/ Disallow: /~joe/ 例6. 允许访问特定目录中的部分url User-agent: * Allow: /cgi-bin/see Allow: /tmp/hi Allow: /~joe/look 例7. 使用"*"限制访问url 禁止访问/cgi-bin/目录下的所有以".htm"为后缀的URL(包含子目录)。 User-agent: * Disallow: /cgi-bin/*.htm 例8. 使用"$"限制访问url 仅允许访问以".htm"为后缀的URL。 User-agent: * Allow: .htm$ 例9. 禁止访问网站中所有的动态页面 User-agent: * Disallow: /*?* 例10. 禁止Baiduspider抓取网站上所有图片 仅允许抓取网页,禁止抓取任何图片。 User-agent: Baiduspider Disallow: .jpg$ Disallow: .jpeg$ Disallow: .gif$ Disallow: .png$ Disallow: .bmp$ 例11. 仅允许Baiduspider抓取网页和.gif格式图片 允许抓取网页和gif格式图片,不允许抓取其他格式图片 User-agent: Baiduspider Allow: .gif$ Disallow: .jpg$ Disallow: .jpeg$ Disallow: .png$ Disallow: .bmp$ 例12. 仅禁止Baiduspider抓取.jpg格式图片 User-agent: Baiduspider Disallow: .jpg$
View Details为了吸更多网友的眼球,让访问者停留,网站都会经常进行一些改版,最主要的就是要提升网站在搜索引擎中的排名,网站改版的目的也就是在原有的网站基础上更上一层楼。在网站设计改版中SEO最怕的就是现有的排名、某些关键词的排名会受到影响,那么我们应该怎样去避免这些风险呢? 一、检查之前的排名情况 通过一些流量统计或者搜索引擎查询来检查原先的相关网站排名情况,用记事本或者word记录好当前的排名情况可以根据某些特别的关键词或网页的标题来实行。把检查排名放在第一步的原因是因为在建新站时,这些页面的标题、内容、关键字密度尽量少改动,避免在新改版后排名的浮动。 二、保留原有的网页命名 在网页的结构和内容更改的基础上也要保留原来的网页,这样有利于搜索引擎根据原来的方法找到页面。也能让蜘蛛更快的再次收录原先的网页内容,保护了原有的排名及页面的PR值。对于一些不合理的页面,对搜索引擎或者设计需要来说不恰当的可以删除掉。 三、保留旧网站结构和内容 建立新站后只需要在原来的旧站页面上建立一些链接指向新的网页而不是把原来的内容马上删除掉。在网页被删的情况下需做404页面避免蜘蛛来找时找不到内容,对于那些排名或PR值很高而又不得不删的网页可以用301永久转向到新的网页。 四、Sitemaps 更新 最好建立Sitemaps,让搜索引擎知道你的网站已改变,让蜘蛛去收录新的也面,这样就可以让搜索引擎更好更快的收录你的新网站。 五、一段时间内保持原创更新 经常一些新改版的网站内容与旧版没什么差别,然而新旧的结构又不一样,所以对于搜索引擎来说是不友好的,它可能需要花费更多的时间来观察和分析,所以在新旧站之间要处理好那些链接和相关内容,避免重复。 六、后期维护 基本工作完成后,一个新网站就诞生了,所以要定期对网站的内容进行更新。为了让搜索引擎很快的收录你的网站,最好去找一些质量比较高的链接,由于刚建立的网站可能会导致一些流量的损失,这个时候可以做PPC广告来弥补目前流量的损失。 来源:http://www.maoblog.com/t/Correcting-Protection-SEO.aspx
View Details万事开头难,网站优化也是如此,很多新手站长做站都是非常的浮躁,例如今天刚建一个新的站点,恨不得明天就能够把排名推到最前面,明天不行的话就后天,后天再不行就到处的咨询,到处的提问,为什么我的网站不被百度收录、为什么我的网站没有排名。 以上均属于新手站长的“浮躁”心情,那作为新手站长该如何面对一个新站点的优化呢,首先我们要总内部结构做起,当然这里面设计到了一些网站代码,但是对于我们站长来说,搞定这些代码都是小菜一碟。 第一:网站结构 做好网站结构对于搜索引擎的收录是非常有帮助的,首先要从优化代码开始,将错误、重复的代码删除,然后进行权重的分配,例如给网站主标题加上 标签等,给主导航、次导航等各个地方添加关键词,这可以提高关键词的整体密度。 第二:网站内容 说到内容,对于新手站长来说是一件非常头疼的问题,很少新手站长能够自己写原创的,大部分都是伪原创、甚至有的更直接,直接复制、采集,这是很多新手站长失败的原因,作为站长一定要具备写作能力,所以在这里推荐各位新手站长做站的时候前期尽量要坚持原创,这样对于网站权重、网站排名、网站收录都是非常有帮助的,后期可以慢慢的进行伪原创。 第三:内部链接 所谓的内部链接,其实就是文章与文章之间的关联性,例如A文章的内容里含有B文章的关键词,通过锚文本链接的模式连接到B文章,这样就产生了一个内部链接,所以为什么一直要推荐新手站长坚持原创,因为原创你可以控制内容,从而达到文章内的关键词布局、内部链接、整体密度等。 第四:外部链接 外部链接是每个站长每天必须做的一件事,因为外部链接对于网站的排名、权重等都是影响非常大的,这块可以通过论坛签名、问答、博客来完成,一般就是在对方的站点中留下自己站点的链接即可,但是这里有一点需要注意,要注重链接的质量,而不是追求数量,同时要注意有节制的使用锚文本链接,也就是带关键词的链接,这样对于排名是非常有帮助的。 以上就是新手站长建站的最基本知识了,这里的第二、第三、第四是站长每天必须坚持做的事情,简单的来说,网站优化就是每天做重复的事情,当然了这里只谈论到网站前期优化而已,后期的优化设计到数据分析、排名分析等方面,但作为新手站长前期学的就是这些了,不断的实践、积累、总结。 来源:http://www.maoblog.com/t/Novice-Website-SEO.aspx
View Details关键词位置、密度、处理 URL中出现关键词(英文) 网页标题中出现关键词(1-3个) 关键词标签中出现关键词(1-3个) 描述标签中出现关键词(主关键词重复2次) 内容中自然出现关键词 内容第一段和最后一段出现关键词 H1,H2标签中出现关键词 导出链接锚文本中包含关键词 图片的文件名包含关键词 ALT属性中出现关键词 关键词密度6-8% 对关键词加粗或斜体 内容质量、更新频率、相关性: 原创的内容最佳,切忌被多次转载的内容 内容独立性,与其他页面至少30%互异 1000-2000字,合理分段 有规律更新,最好是每天 内容围绕页面关键词展开,与整站主题相关 具有评论功能,评论中出现关键词 导入链接和锚文本: 高PR值站点的导入链接 内容相关页面的导入链接 导入链接锚文本中包含页面关键词 锚文本存在于网页内容中 锚文本周围出现相关关键词 导入链接存在3个月以上 导入链接所在页面的导出链接少于100个 导入链接来自不同IP地址 导入链接自然增加 锚文本多样化 网站PR值下降的主要原因: 网站高质量的外部链接在短时间内大量减少 外部链接指向垃圾站点过多或者指向被谷歌惩罚的站点 网站的结构布局不合理,脉络不清晰 没有使用静态页面 被谷歌判定为买卖链接或者作弊 采取非常手段劫持了别人的PR值 网站的内容质量比较低 网站不稳定或者经常出现打不开等情况 网站正在改版 同一服务器的网站PR值不高的原因 网站不诚信链接 惩罚不尊重知识产权的行为 违反国家政策的文字大量涌现 站点内容更新频率非常缓慢 网站长期存在死链接 其他不良的因素 网站的美工,网站的性质等,其主要原因就是影响了网站的用户体验。 只有合理地设置网站的广告位,才能使网站的广告收入最大化。: 广告尺寸不是越大越好 广告内容要符合网站自身主题 广告数量并非越多越好 广告商的选择 SEO优化总结: 每个网页的标题简洁精炼,不超过30字。 最重要的关键词放在标题首位,依次类推。 每个网页核心关键词不超过3个。 网站内容简洁,信息丰厚。关键词分布其中合理,自然。假如你自己都读不懂,那就放弃。 网站导航采用文字导航。 与主题无关内容作成JS或者图片。 网站图片原创,添加alt标签,切忌讳乱加。搜索引擎能读懂图片。 网站的描述,简洁,明了,最开始和结束部分自然出现关键词。 网站联系人信息要原创,比如邮箱,电话,姓名等。 网站设计大方,美观。 与主题相关的JS,框架,做兼容优化。 网站代码简洁。 域名最好出行最核心关键词,针对除百度以外搜索引擎有效。 网站域名时间超过2年以上,最好是3年。 假如新域名,联系人信息一定要公布,切为新信息。 空间要稳定,那种经常网站打不开的网站,肯定没有排名。 友情链接不看PR,看快照,看核心关键词排名,看SITE首页是否存在。 友情链接要找外地的网站。 网站外链要丰富,新闻类的,行业类的,生活类的,公关类的,越丰厚越好。 网站外链不在数量,在质量。增加要掌握好节奏。 网站外链要出现网址,占70%,锚文本要适当。原因自己去想。 网站外链要首先提高首页权重,首页快照在7天内,核心关键词在前3页,则网站权重及格。 网站外链要出现在流行度较高的地方。 网站外链出现的地方,切忌垃圾链接,链接过多。 网站添加流量统计,大概数据要公开。 适当刷网站IP和来路,切忌网站流量来自某一个搜索引擎。 网站内容要围绕主题展开。切忌发布无关内容。 网站添加XML和HTML格式地图,有助于各大搜索引擎收录抓取。 网站按规律更新,切忌一个不更新,或者一下更新上百篇。 分布好网站内链接。核心关键词指向核心关键词页面。 网页内容中出现关键词加粗效果并不好,避免全加粗加链接。 每个页面最好出现一次H标签,此内容和网友标题一致。 网站404页面。 […]
View Details