现在的位置: 首页 > 综合 > 正文

【转载】淘宝百度之争

2012年05月16日 ⁄ 综合 ⁄ 共 2402字 ⁄ 字号 评论关闭

淘宝最近和百度干上了,起因大概是由于百度比较牛B,即将推出自己的C2C(个人对个人)电子交易平台,与淘宝争夺市场,而作为百度C2C最大的竞争对手,淘宝网则通过Robots规则拒绝百度搜索引擎的爬虫对其网站的抓取。

我不是研究互联网的人,在这里,我只是作为一个普通的网购用户谈谈我的看法。

首先,从一个普通的销售者、购买者来说,没有人会排斥百度C2C的推出。目前国内的C2C几乎只有淘宝、eBay旗下的易趣,腾讯旗下的拍拍,除了淘宝混得不错,其他两家都在竞争中处于绝对劣势,按百度搜索的口号“百度,更懂中文”,淘宝可以说“淘宝(阿里巴巴),更懂网上贸易”,淘宝今天为什么那么牛B,比较普遍的看法是当初的免费战略吸引了很多商家,这是题外话,总之,淘宝现在在市场中几乎处于垄断地位,百度C2C的推出,将成为淘宝有利的竞争者,从市场竞争、反垄断的角度来说,这绝对是一件好事。

再说淘宝封杀百度,如果不知情的人第一眼看到这个标题,肯定会认为淘宝疯了,包括我看到这篇消息的第一眼感受一样。淘宝为什么封杀百度,毫无道理呀?百度自称为淘宝带来70%流量,我想百度再吹牛,应该也没有把牛吹倒的地步,至少30%应该是有的吧?据说淘宝封杀百度后,淘宝的商家的日交易量普遍萎缩。

既然如此,为什么淘宝会不顾商家的利益而拒绝百度呢?我不太清楚,互联网专家的说法是,百度C2C即将推出,如果淘宝此时不主动出击,将在市场中处于劣势,而主动出击的方法就是拒绝百度收录,有人评论说,百度搜索会将淘宝的商业机密外泄。另一种说法是,如果百度提供了淘宝的搜索结果,可能会导致用户对百度的依赖,比如买东西不使用淘宝的搜索引擎搜索而使用百度,一旦养成这种依赖后,百度突然封杀淘宝,带给淘宝的损失将是灾难性的,所以在未造成这种结果前淘宝主动出击也是必然的。

C2C市场对搜索引擎的依赖是相当大的,我认为。在茫茫几百万几千万商品中找到一件合适自己的商品,如果没有搜索引擎的帮忙,无异于大海捞针。依我对淘宝内置搜索引擎(应该是雅虎中国提供的技术)的使用感受来看,淘宝的搜索引擎功能并不强大,有时候指定条件的搜索倒是不能取得好的结果,而且由于淘宝的页面复杂,浏览时严重拖慢速度,再加上雅虎中国的搜索引擎基本上是完败,而百度搜索如日中天,我相信用户对百度C2C的精确搜索绝对满意!

我对百度和淘宝的纠纷倒是不如我对卖家的担忧来得大,目前淘宝的卖家是一个相当庞大的团体,而淘宝和百度的纠纷目前损失最大的就是这些卖家,特别是全职的卖家。这些卖家已经花费一定代价通过网站优化(SEO)、在百度上投放广告等方法扩大店铺知名度和消费群体,而一旦百度对他们的商店停止收录,损失可想而之。

当然,淘宝的做法也未必能取得好的效果,反正百度C2C即将推出,想必在淘宝开店的卖家一般也会在易趣,拍拍等开设店铺,到时候又会有一部分卖家将主战场转移到百度,并且由于百度在C2C推出的初期必然会加大宣传力度,给卖家很大的优惠(可能是低额的广告费用、搜索引擎结果排名前列,就像百度知道、百度贴吧一样),百度C2C将会很大程度上夺取淘宝的用户资源。

淘宝和百度之争毫无疑问反应了当前中国互联网的企业为追求最大利益而不顾用户感受和利益的做法(晕,又扯回来骂中国互联网了)。此前阿里巴巴和百度的名声都不是很好,淘宝常常对某些销售额大的卖家提出过分要求,淘宝工作人员也经常恶意删除用户账户,在Google上搜一下就能得到很多结果,百度更别说了,过分追求利益的结果必将是引火自焚,这对一个依靠用户口碑发展起来的网站是一个致命打击。

扯完了百度淘宝表面冲突,再看技术层面上的问题。

淘宝封杀百度,通过的是在网站根目录的 robots.txt 文件进行的。通过robots.txt宣布禁止某些搜索引擎的机器人的访问,从而达到拒绝让该搜索引擎收录的目的。在淘宝的 robots.txt 文件中,清晰地标明了禁止“Baiduspider”访问,而且担心百度蜘蛛不能分辨大小写,还加了一行小写的“baiduspider”,如果百度遵守Robots.txt协议(百度官方宣称遵守该协议),那么百度就应当无条件移除关于淘宝网 (*.taobao.com)的所有搜索结果页面,当大家关心的是,百度在现实中几乎不遵守该协议,在淘宝已经宣称封杀百度后,百度依旧对淘宝进行更新,今天(9月15日),百度照样抓取淘宝的内容。

这里涉及到一个 robots.txt 缓存的问题,几乎所有的搜索引擎都宣称会缓存 robots.txt 结果,因为搜索引擎如果每次对一个网站进行抓取都要访问robots.txt文件的话,这对网站带宽是一个浪费。这意味着对 robots.txt 做出的修改应该在一段时间后才会起作用,估计当前淘宝新的robots.txt文件尚未被百度读取,而这个时间是多长呢?谁都不知道,所以百度还是有理有据地照样进行抓取。而且robots.txt标准并非是强制性标准,百度也可以不按常规出牌,大不了改了他们的指南,宣布“百度搜索引擎不遵守robots.txt规则,老子爱收录你就收录,不收录就拉倒”。

再让很多人感到“无耻”的是,百度宣称不排除提供绿色通道,让淘宝卖家直接提交网页到百度,从而绕过淘宝的robots.txt限制的目的。robots.txt只限制不能让搜索引擎对网站进行抓取,并没有说不能让用户直接把网站内容录入到搜索引擎中。这一点让我也感到气愤。首先百度这奸诈的伎俩实在让人作呕,再则如果推出绿色通道,并且只对淘宝卖家有效的话,这可能导致某些人利用这个绿色通道恶意欺诈。并且,这也是“不平等”的规则,它必将引起搜索结果的人为干预(虽然百度的人为干预不在少数),破坏了作为一个搜索引擎应当持有的“客观、公平、公正”的原则。这样一个搜索引擎,那他就不配作为一个“最大的中文搜索引擎”,或许和那些假冒搜索引擎,实际上是域名停放的垃圾网站有得一比。

抱歉!评论已关闭.