计算器、字符编码
计算器
掌握了python的基本语法后,可以使用python shell来代替各平台带的计算器了
>>> (50-5*6)/4.0 # 数学表达式
5.0
>>> a=100
>>> hex(a) # 十六进制
'0x64'
>>> oct(a) # 八进制
'0144'
>>> import math
>>> math.cos(math.pi / 4.0)
0.70710678118654757
>>> math.log(1024, 2)
10.0
>>> math.pow(2,3)
8.0
编码转换
- 查看ascii码值
>>> ord('a') # 字母转数值
97
>>> chr(97) # 数值转字母
'a'
文本处理
简单的解析可以使用正则表达式来,第3章已经举了个解析objective-c获取类中属性的例子。
正则对多重嵌套的处理会有问题,如html中
<table>
又有一个table
,那解析就会乱掉。这时就要用更专门的库了来解析html了,如BeautifulSoup
就比较方便,可以用它做爬虫什么的。
demo
展示把几个简单的java类的定义转换成objective-c的类定义。
测试网络发包
- 使用pcurl构造http get、post请求,在第3章中已经给了例子
- 使用struct的pack、unpack快速生成、解析网络包
>>> from struct import *
>>> pack('hhl', 1, 2, 3)
'\x00\x01\x00\x02\x00\x00\x00\x03'
>>> unpack('hhl', '\x00\x01\x00\x02\x00\x00\x00\x03')
(1, 2, 3)
>>> calcsize('hhl')
8
其中,类型对照如下:
wxPython编写gui程序
wxwidgets是一个跨平台的GUI库,与qt类似,现在比qt活跃。wxPython是python对应的库。一个简单的窗口如下
import wx
app = wx.PySimpleApp()
frame = wx.Frame( None, -1, '' )
frame.SetToolTip( wx.ToolTip( 'This is a frame' ) )
frame.SetCursor( wx.StockCursor( wx.CURSOR_MAGNIFIER ) )
frame.SetPosition( wx.Point( 0, 0 ) )
frame.SetSize( wx.Size( 300, 250 ) )
frame.SetTitle( 'simple2.py' )
frame.Show()
app.MainLoop()
Django部署网站
Django是python的web框架。有了它,就可以使用python来写网页了。现在很多人已经开始用它来部署网站了,如国内新浪云SAE,就同时支持php建站和django建站。
有兴趣可以玩下。
sphinx-doc编写文档
sphinx-doc是一种基于python的文档编写工具。python的官方帮助文档就是使用它编写的(本文也是哈)。 sphinx-doc是reStructuredText,即使用带有简单语法的文本文件
来编写文件,然后通过编译,可以生成html,epub,man,pdf等多种格式。
plain text VS. WYSIWYG
使用文本文件编写,再使用工具编译生成文档(tex,docbook,sphinx都可算这个阵营),和所见即所得(微软的word,mac的page等)的编写方式相比有啥优缺点呢?
优点
- 开源跨平台,文本文件任何平台都可以打开,编译工具也可以在任何平台运行
- 能产生多种格式的文档,甚至可以简单地转为博客的markdown语法
- 能够生成html等格式,便于发布交流,如发到网上,大家都可以看到了
- 由于是文本,方便版本控制,也可以加注释,多人编写、合并文档更方便
- WYSIWYG的编写,如果加载图片多了,会导致越来越卡,而plain text只是include一个文件,编译后才会加载
- 基于网页的技术可以方便地调整文档格式,编写时可以更加注重内容
- 插件较多,如特别适合各种代码的插入、语法高亮等
缺点
- 没有WYSIWYG直观,只能编译后才能生成实际的文档,才能看到效果
- 国内用的人比较少
sphinx-doc的安装
使用pip安装sphinx
pip install sphinx
sphinx使用
官方文档: http://sphinx-doc.org/contents.html
中译文地址: http://zh-sphinx-doc.readthedocs.org/en/latest/contents.html
demo
用sphinx创建一个文档工程。并加入一些简单的内容
One more thing: 爬虫
爬虫可以使用任何语言,如果你只是做一个简单功能、不考虑效率的爬虫,用脚本是最快的。有些网站的网页相当简单,有些甚至直接使用正则表达式就能全部匹配出想要的结果。为了让大家对python脚本更有兴趣,这里提供一个脚本,让大家学习,它能实现从xxx网站上,批量下载种子,哈哈[种子下载站jandown如果发生变化,需要修改代码],
# encoding:utf8
'''
Created on 2015-03-27@author: vincent
'''import pycurl, urllib
import StringIO
import os
import re
import sys
from optparse import OptionParserg_janDownURL=r"""http://www.jandown.com"""
g_janDownFetchURL=r"""http://www.jandown.com/fetch.php"""
g_janDownLinkRef=r"""http://www.jandown.com/link.php?ref="""g_fid=r"""16""" #版块
g_ac168URL=r"""http://ac168.info/bt/thread.php?fid=%s&page=%d"""
g_ac168DataURL=r"""http://ac168.info/bt/"""
g_pages=1g_downloadDir=r"""c:\mybts"""
g_re_item=re.compile(r'''<h3><a\shref="(htm_data.*?)" id.*?target=_blank>(?!<)''', re.S)
g_re_jandown=re.compile(r'''<a href="(http://www.jandown.com.*?)"''', re.S)testURL=r"""http://www.jandown.com/link.php?ref=UgyMkq6s"""def getHtmlRead(url):c = pycurl.Curl()c.setopt(pycurl.URL, url)c.setopt(pycurl.USERAGENT, "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 2.0.50727)")b = StringIO.StringIO()c.setopt(pycurl.WRITEFUNCTION, b.write)c.setopt(pycurl.FOLLOWLOCATION, 1)c.setopt(pycurl.MAXREDIRS, 5)
# c.setopt(pycurl.CONNECTTIMEOUT, 60)
# c.setopt(pycurl.TIMEOUT, 300)try:c.perform()except Exception as e:print "html read error %s\r\n" % urlreturn Nonereturn b.getvalue()def postHtmlRead(referUrl, data):c = pycurl.Curl()c.setopt(pycurl.URL, g_janDownFetchURL)c.setopt(pycurl.USERAGENT, "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 2.0.50727)")b = StringIO.StringIO()c.setopt(pycurl.WRITEFUNCTION, b.write)c.setopt(pycurl.POSTFIELDS, urllib.urlencode(data))c.setopt(pycurl.FOLLOWLOCATION, 1)c.setopt(pycurl.REFERER, referUrl)# c.setopt(pycurl.HEADER, 1)# c.setopt(pycurl.CONNECTTIMEOUT, 0)c.setopt(pycurl.MAXREDIRS, 5)# c.setopt(pycurl.COOKIEJAR, "cookie.txt")try:c.perform()except Exception as e:print "html read error\r\n"return Nonereturn b.getvalue()g_total=0
def parseJanDown(url):global g_totalif url.find(g_janDownLinkRef)<-1:return Nonecode = url[len(g_janDownLinkRef)-len(url):]value = {'code':code}bt=postHtmlRead(testURL, value);if bt != None:fd=open(os.path.join(g_downloadDir, code+".torrent"), "w");fd.write(bt)fd.close()g_total+=1print "download %s.torrent complete..total %d" % (code, g_total)passdef crawlerOneItemPage(itemPageUrl):
# print "crawlerOneItemPage %s" % itemPageUrlhtml=getHtmlRead(itemPageUrl)if html==None:return None# 只取一个item=re.search(g_re_jandown, html)if item != None:parseJanDown(item.groups()[0])# testPageUrl = r'''http://ac168.info/bt/thread.php?fid=16'''
def crawlerPageItems(pageUrl):html=getHtmlRead(pageUrl)items=re.findall(g_re_item, html)for i in items:url=g_ac168DataURL+icrawlerOneItemPage(url)def ac168_work(pages):g_pages = pagesfor i in range(1,g_pages):pageUrl= g_ac168URL % (g_fid, i)
# print pageUrlcrawlerPageItems(pageUrl)passMSG_USAGE = "python getTorrent.py [-n pages]"def main():optParser = OptionParser(MSG_USAGE)optParser.add_option("-n","--pages",action = "store",type="int",dest = "pages")options, args = optParser.parse_args()pages = 1
# if len(sys.argv)>2:
# optParser.print_help()
# exit()if options.pages == None:pages=1else:pages=options.pagesac168_work(pages)if __name__ == '__main__':main()
用脚本爬虫,爬href的链接是比较容易的,但是有些跳转链接是用js实现的,这些如果要爬的话,需要解释js,或者效率低点的做法,搞个ui,调用系统的浏览器控件来处理。
兴趣练习
使用python编写一个自动代码生成器
把常用的实现某些功能的代码归类,tag化,以后如果要用,只要使用关键字进行搜索,就能把代码提取出来。使用sphinx编写一份教程,并发布
选一个你比较熟悉的领域,使用sphinx编写入门教程或笔记。