本打算做一个网络爬虫(crawler)的,但水平有限只做了基本的一些功能. 思路: 肯定是要能先通过url连接到http服务器了,然后发送一个"GET url \n"的请求才能下载网页. 之后就是分析网页,比如辨认超链接和搜索关键词.
就是GET 这个东西搞不懂, 有的网页需要给完整的url, 有的只需要相对路径才正确. 怎么才能自动知道需要哪个啊?
source:
http://www.cppblog.com/Files/tompson/getwebpage.rar(写的很烂, 供学习网络编程的同学参考)
这几天读了下<薛定鄂的猫>, 这是一本叙述量子学发展的科普读物.
量子的性质可以用几个例子来说明: 雨过天晴,天上出现了彩虹,但是由于每个人所处的位置不同,看到的彩虹都是不一样的. 就是说这个东西是通过观察才会出现, 而实际上是不存在的. 又比如把猫和毒药放在盒子里,打开盒子后猫是死是活? 根据多维宇宙的说法,在没打开盒子的时候对于观察者来说猫死和活两种状态并存,打开盒子后宇宙就会分裂为两个,而观察者选择其中一个.
能否把这个性质用在程序中呢?