企业网站建设

建站知识

今日已发布信息: 344115
累计注册用户: 82739866

在线营销将成企业推广首选渠道

腾讯智慧 在线营销 经济危机 网络媒体

概述: 今年腾讯智慧峰会的主题就是如何利用在线营销的智慧来应对经济危机的挑战。曾任哈佛商学院副主任的著名营销学者John Quelch也认为,简单地切割营销投入不是好的做法。有智慧的企业在困境中应以创新的思维与手段,强化与消费者的联系。   据介绍,从去年下半年起,腾讯的营销团队就开始全面深入研究金融危机可能给品牌企业及消费者的行为模式与价值观念造成的冲击与影响,而网络媒体也开始被市场所认可。“基于这些洞察与分析,在线营销恰恰是能同时化解消费者与品牌广告主的潜在忧虑,并同时满足他们在新的价值观念下的行为需求的最佳营销平台。”刘胜义说。

   哈佛商学院的资深教授与前任副主任、WPP集团全球数字业务CEO、阳狮集团的董事合伙人、奥美亚太区的首席执行官、FACEBOOK刚刚卸任的全球业务发展总监……从5月20日起,这些在全球数字营销领域声名显赫、成就非凡的顶尖人物,将陆续来华参加“腾讯智慧·2009高效在线营销峰会”访问交流并发布主题演讲。

  在全球经济危机蔓延的背景下,改进营销对企业来说尤为重要,而2009年腾讯智慧峰会的意义也显得格外不同。面对经济衰退压力,许多企业选择了紧缩甚至放弃营销投入。然而,被动消极的做法果真是渡过危机的惟一选择吗?有没有更具主动创意的思路帮助大家尽快走出困境、化危为机呢?

  “危机时刻最需要营销智慧的支撑。” 腾讯公司网络媒体执行副总裁刘胜义表示,今年腾讯智慧峰会的主题就是如何利用在线营销的智慧来应对经济危机的挑战。曾任哈佛商学院副主任的著名营销学者John Quelch也认为,简单地切割营销投入不是好的做法。有智慧的企业在困境中应以创新的思维与手段,强化与消费者的联系。

 

  陆丰做网站  母猪产床   今日推荐免费建站   分类信息   陆丰网站建设公司

 

  据介绍,从去年下半年起,腾讯的营销团队就开始全面深入研究金融危机可能给品牌企业及消费者的行为模式与价值观念造成的冲击与影响,而网络媒体也开始被市场所认可。“基于这些洞察与分析,在线营销恰恰是能同时化解消费者与品牌广告主的潜在忧虑,并同时满足他们在新的价值观念下的行为需求的最佳营销平台。”刘胜义说。

  峰会北京站的主讲嘉宾、全球营销巨头WPP数字业务的掌门人Mark Read对互联网当前的作用也表示了高度的赞同:“市场营销人员会被网络营销的可测量性、快速响应性和更快的市场推广速度所吸引,并且这些因素在经济衰退期会显得更有价值——这些优势可能会加速向网络广告的转移,使得网络媒体在走出经济衰退中处于一个更重要的位置。”

  作为会议的主办方,腾讯以独有的“IM+门户+社区”的营销模式,不仅最广泛地覆盖到国内的上网人群,还能应用定向工具完成对目标消费者在不同场景、不同行为的锁定,从而为品牌广告主们提供了结合广度与深度的媒体投放建议。

  由于在线营销本身也在经历一个技术与模式不断创新的演变过程,在5月21日开幕的峰会北京站以及随后的上海与广州两站中,全球营销与互联网界的精英人物,将与来自央视国际、惠普、宝马、宝洁等多家知名传媒与企业的领导人物一起,就全球化视野下的在线营销趋势、不确定的营销环境下广告主洞察、经济危机下的数字营销解决之道,以及SNS营销、内容营销、精准营销等一系列当今在线营销的前沿实务问题进行深入探讨。  

 

SEO手册之(4)控制蜘蛛轨迹

有些时候我们会遇到这样的困难:我们原本不想被搜索引擎收录的网站后台地址却被搜索引擎“无情”的收录,这样只要在Google里输入一个“后台、管理site:www.***.com”,自己的后台地址就会显露无疑,因此网站安全性也无从谈起。遇到这样的情况时,我们如何阻止搜索引擎收录我们不想被收录的文件呢?

一般在这个时候,我们常用的办法有两个,一个是编辑robots.txt文件,另外一个是在不想被收录的页面头部放置META NAME="ROBOTS"标签。

所谓的robots.txt文件,是每一个搜索引擎到你的网站之后要寻找和访问的第一个文件,robots.txt是你对搜索引擎制定的一个如何索引你的网站的规则。通过这个文件,搜索引擎就可以知道在你的网站中,哪些文件是可以被索引的,哪些文件是被拒绝索引的。

在很多网站中,站长们都忽略了使用robots.txt文件。因为很多站长都认为,自己的网站没有什么秘密可言,而且自己也不太会使用robots.txt的语法,因此一旦写错了会带来更多的麻烦,还不如干脆不用。

其实这样的做法是不对的。在前面的文章中我们知道,如果一个网站有大量文件找不到的时候(404),搜索引擎就会降低网站的权重。而robots.txt作为蜘蛛访问网站的第一个文件,一旦搜索引擎要是找不到这个文件,也会在他的索引服务器上记录下一条404信息。

虽然在百度的帮助文件中,有这样的一句话“请注意,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。”但是我个人还是认为建立robots.txt还是必须的,哪怕这个robots.txt文件是一个空白的文本文档都可以。因为我们的网站毕竟不是仅仅会被百度收录,同时也会被其他搜索引擎收录的,所以,上传一个robots.txt文件还是没有什么坏处的。

 

如何写一个合理的robots.txt文件?

首先我们需要了解robots.txt文件的一些基本语法。

语法作用

写法

允许所有搜索引擎访问网站的所有部分

或者建立一个空白的文本文档,命名为robots.txt

User-agent: *

Disallow:

或者

User-agent: *

Allow: /

禁止所有搜索引擎访问网站的所有部分

User-agent: *

Disallow: /

禁止百度索引你的网站

User-agent: Baiduspider

Disallow: /

禁止Google索引你的网站

User-agent: Googlebot

Disallow: /

禁止除Google外的一切搜索引擎索引你的网站

User-agent: Googlebot

Disallow:

 

User-agent: *

Disallow: /

禁止除百度外的一切搜索引擎索引你的网站

http://lufeng.kvov.com.cn/jzxx24479.html