现在的位置: 首页 > 综合 > 正文

财富从哪里来?财富从变革中来!

2011年03月28日 ⁄ 综合 ⁄ 共 6216字 ⁄ 字号 评论关闭

 前言

 

前几天上班,闲着无聊,在路上的时候,就思考,到底怎么赚钱。简单说,怎么赚钱更容易。

 

想着想着,就想到了我们正在开发的游戏,想起里面的玩家是怎么转空子暴富的。

 

顿时!感觉思路清晰了很多,也逐渐明白我的几个身价过亿的老板们 到底是怎么成功的。 

 

正文

 

圈子我不饶了,简单的先说明下结论:

 

 

财富,就是在每一次体制变革中,出现的机遇中挖掘出来,并迅速积累。

 

传统的、经历了验证的体系中,希望通过挖掘为数不多的用户需求并创造出财富,可能性非常低。中国13亿人,13亿个竞争对手,再有智慧,也被别人想光了。

 

所以,只有在体系出现变更、甚至被新体系取代的时候,会出现机遇,从而出现财富增长点。

 

用游戏举个例子,我们游戏每次新版本发布的时候,总会遗留一下小BUG,如果玩家迅速发现了, 并且在极短的时间内利用这些漏洞,就可以积累大量的财富,比如游戏中的装备、宝石、现金等等。

 

这个例子非常简单的说明了,要发现机遇积累财富,需要: 变革+速度

 

理论说完了,那么这个是个人都可能想过的结论,有啥意义??意义太重大了。这两点,就告诉了我们要做的是:

 

1. 能够最快速度获取第一手信息,掌握变革的趋势。

 

2. 能够最快速度利用变革产生的机遇,积累大量财富。 

 

第二点,核心就是强调 正在拼搏的人,要积厚而发,储备强大的技术力量和团队力量,特别注意:团队力量

 

那么第一点,就是要拥有比别人更有优势的信息渠道

 

 从博客园中挖掘强大的信息渠道

 

 希望DUDU别因为这个标题封了我的号。呵呵。博客园首页右方有个 最新新闻,不知道各位有没有留意。我经常在里面看到有趣的信息。

 

但是可惜的是,我不能系统的去跟踪这些信息,就是没有一个 Follow的机制。那么,就让我来挖掘下,这里面的最新新闻到底来自哪里。

 

我通过http采集器,收集了100页的所有新闻的 COME_FROM,  你懂的,得到以下结论:

 

前100页,一共有来自241家不同的网站信息,其中前30名为: 

 

1 新浪科技 325
2 腾讯科技 284
3 驱动之家 245
4 ifanr 爱范儿 177
5 TechWeb 162
6 www.leiphone.com 156
7 搜狐IT 156
8 www.36kr.com 154
9 Solidot 139
10 新浪科技 57
11 Donews 50
12 赛迪网 50
13 网易科技 42
14 InfoQ 39
15 赛迪网 38
16 开源中国社区 36
17 谷奥 35
18 外刊IT评论 27
19 南方都市报 22
20 腾讯科技 21
21 blog.jobbole.com 19
22 CSDN 18
23 21世纪经济报道 18
24 www.iteye.com 17
25 mrjamie.cc 17
26 新京报 14
27 www.rtdot.com 12
28 www.gbin1.com 11
29 京华时报 11
30 搜狐IT 11

 

数据可能有些重复,但是伟大的博客园已经帮助我们程序员提供了一个 最新 信息的来源清单了。

 

不知道,你懂了没? 

 

结论

 

博客园已经提供了很强大的信息来源,我们要做的是,从这些来源中每天不断follow各种信息。看一天不行,就看一个星期,总会看到一些规律,技术趋势等。

 

从而比别人更加超前的感受到变革的来临,进而打一场漂亮的闪电战。

 

代码下载

 

最后,我附上挖掘代码,相关的DLL可以加入我们的群获取。

 

我们的群是: 192700436

 

         static void Main(string[] args)

        {
            Dictionary<string, List<string>> urls = new Dictionary<string, List<string>>();

            for (int pageIndex = 1; pageIndex < 100; pageIndex++)
            {
                HttpPoster poster = new HttpPoster();
                HttpResult result = poster.Get("http://news.cnblogs.com/n/page/" + pageIndex);
                IHtmlDocument doc = HtmlManager.Deserialize(result.Response);
                IHtmlDivCollection collection = doc.Divs[1].Divs;
                IHtmlDiv div_sideleft = collection.SearchById("sideleft")[0];
                IHtmlDiv div_news_list = div_sideleft.Divs.SearchById("news_list")[0];
                IHtmlDiv[] news = div_news_list.Divs.SearchByClass("news_block");

                foreach (IHtmlDiv news_atom in news)
                {

                    IHtmlDiv news_content = news_atom.Divs.SearchByClass("content")[0];
                    IHtmlNode news_title = news_content.HtmlNode.Nodes[0];
                    IHtmlNode news_href = news_title.Nodes[0];

                    string raw_href = news_href.RawAttribute;
                    string href = raw_href.Split(new char[] { ' ' }, StringSplitOptions.RemoveEmptyEntries)[0];
                    href = href.Replace("\"""").Replace("href=""");

                    string url = "http://news.cnblogs.com" + href;

                    try
                    {
                        HttpPoster contentPoster = new HttpPoster();
                        HttpResult contentResult = contentPoster.Get(url);
                        IHtmlDocument contentDoc = HtmlManager.Deserialize(contentResult.Response);

                        IHtmlDiv content_sideleft = contentDoc.Divs[1].Divs.SearchById("sideleft")[0];//
                        IHtmlDiv content_news_main = content_sideleft.Divs.SearchById("news_main")[0];//
                        IHtmlDiv content_news_content = content_news_main.Divs.SearchById("news_content")[0];//
                        IHtmlDiv content_come_from = content_news_content.Divs.SearchById("news_otherinfo")[0].Divs.SearchById("come_from")[0];

                        string come_from_name = "";
                        string come_from_href = "";

                        if (content_come_from.HtmlNode.Nodes.Count == 0)
                        {
                            come_from_name = content_come_from.HtmlNode.Text;
                            come_from_href = "";
                            Console.WriteLine(come_from_name + ":" + come_from_href);

                            //<div id="come_from">
                            
//        来自: 杭州日报                                               
                            
//</div><!--end: come_from -->
                        }
                        else
                        {
                            IHtmlNode content_come_from_text = content_come_from.HtmlNode.Nodes[0];

                            come_from_name = content_come_from_text.Text;
                            come_from_href = Regex.Match(contentResult.Response, "#link_source2\"\\)\\.attr\\(\"href\",[ \\w\"\\:\\/\\.]+").Value;
                            come_from_href = come_from_href.Replace("#link_source2\").attr(\"href\", \"""").Replace("\"""");

                            //$("#link_source2").attr("href", "http://news.csdn.net/a/20111230/309939.html");

                            //<div id="come_from">
                            
//    来自:
                            
//    <a id="link_source2" target="_blank">
                            
//        CSDN
                            
//    </a>
                            
//</div>
                        }

                        Console.WriteLine(come_from_name + ":" + come_from_href);

                        if (!urls.ContainsKey(come_from_name))
                            urls.Add(come_from_name, new List<string>());

                        urls[come_from_name].Add(come_from_href);
                    }
                    catch (Exception ex)
                    {
                        Console.WriteLine("ERROR::" + url);
                    }
                }
            }

            string path = @"D:\张辰的学习资料\cnblogs.txt";
            StringBuilder builder = new StringBuilder();
            foreach (string url in urls.Keys)
            {
                builder.AppendLine(string.Format("{0} {1}", url, urls[url].Count));
            }
            builder.AppendLine("-------------------------------");
            foreach (string url in urls.Keys)
            {
                builder.AppendLine(url);
                foreach (string urlcontent in urls[url])
                {
                    builder.AppendLine(urlcontent);
                }
                builder.AppendLine();
                builder.AppendLine();
            }
            File.WriteAllText(path, builder.ToString());
            Console.Read();
        }

 

 

 

抱歉!评论已关闭.