小编Nol*_*lty的帖子

Mysql:唯一字段需要索引吗?

我的表中有一个独特的字段,我需要快速搜索它.我需要索引吗?

对唯一字段和索引字段的搜索在速度或资源使用方面有所不同吗?

mysql indexing field unique

34
推荐指数
3
解决办法
9602
查看次数

为什么list [:: - 1]不等于list [:len(list): - 1]?

当切片在Python,省略了end该片段的部分(即,端部list[:end:]中)的结果end被定义为"串的大小被切片".*

然而,这似乎并没有使用的时候是成立的step参数(list[::step]的切片),至少在step说法是-1.一个简单的例子:

>>> l = [1, 2, 3]
>>> l[::-1]
[3, 2, 1]
>>> l[:len(l):-1]
[]
Run Code Online (Sandbox Code Playgroud)

这表明在step传递参数的情况下,省略的end等于显式传递被切片的对象的大小.

也许这只是我阅读文档的失败,但我想了解为什么我的上述示例似乎与Python文档中有关省略end切片中的值的理由相矛盾,理想情况下,这些文档的不同之处.


*切片索引具有有用的默认值; 省略的第一个索引默认为零,省略的第二个索引默认为要切片的字符串的大小.

python slice

7
推荐指数
1
解决办法
129
查看次数

Python的"重新"模块无法正常工作?

我正在使用Python的"re"模块,如下所示:

request = get("http://www.allmusic.com/album/warning-mw0000106792")
print re.findall('<hgroup>(.*?)</hgroup>', request)
Run Code Online (Sandbox Code Playgroud)

我正在做的就是获取此网站的HTML ,并寻找这个特定的代码片段:

<hgroup>
    <h3 class="album-artist">
        <a href="http://www.allmusic.com/artist/green-day-mn0000154544">Green Day</a>        </h3>

    <h2 class="album-title">
        Warning        </h2>
</hgroup>
Run Code Online (Sandbox Code Playgroud)

但是,它继续打印一个空数组.为什么是这样?为什么re.findall找不到这个片段?

python string get

6
推荐指数
2
解决办法
220
查看次数

使用python,如何阅读文件的"创建日期"?

我正在python中编写一个简短的脚本,它将扫描图像文件的文件夹列表,然后重新组织它们.

组织它们的一种可选方式是我们希望它们创建日期.

目前,我正在尝试按如下方式阅读图像创建日期

import os.path, time

f = open("hi.jpg")
data = f.read()
f.close()
print "last modified: %s" % time.ctime(os.path.getmtime(f))
print "created: %s" % time.ctime(os.path.getctime(f))
Run Code Online (Sandbox Code Playgroud)

但是我得到一个错误

Traceback (most recent call last):
  File "TestEXIFread.py", line 6, in <module>
    print "last modified: %s" % time.ctime(os.path.getmtime(f))
  File "/usr/lib/python2.7/genericpath.py", line 54, in getmtime
    return os.stat(filename).st_mtime
TypeError: coercing to Unicode: need string or buffer, file found
Run Code Online (Sandbox Code Playgroud)

谁能告诉我它意味着什么?

python exif image datecreated

5
推荐指数
1
解决办法
1万
查看次数

为什么会出现这种情况?

def function(s):
 if len(s) == 1:
    print s[0],
 else:
    function(s[1:])
    print s[0],
Run Code Online (Sandbox Code Playgroud)

function("1234") 最终印刷 4 3 2 1

为什么会这样?在功能中,显然第一个条件不符合.在else条件下,s[1:]为s而放,但它的长度不是1.我只是看不到外面的任何东西s[0]会被打印到屏幕上.该功能中没有任何东西看起来像打印s[1:],更不用说反过来了.我很困惑.

python

2
推荐指数
1
解决办法
174
查看次数

使用HTML.py模块在python中对表行着色

htmlcode=HTML.table(table_data,header_row=['Check','Setup','status','Logs','Comment'],
            col_width=['30%','20%','20%','10%','30%'])
Run Code Online (Sandbox Code Playgroud)

在这里,我想用灰色颜色表标题行.作为这种语言的初学者,我无法弄明白.我在这里使用HTML.py模块

我从http://www.decalage.info/en/python/html获得了这个模块, 所以请帮助着色标题行.

python

2
推荐指数
1
解决办法
2021
查看次数

为什么python scrapy显示"twisted.internet.error.TimeoutError"错误

我试图使用python scrapy废弃页面.经过一些报废操作后,scrapy正在戒烟

twisted.internet.error.TimeoutError error
Run Code Online (Sandbox Code Playgroud)

这是我的代码:

#infobel_spider.py
from scrapy.spider import BaseSpider
from scrapy.selector import HtmlXPathSelector
from scrapy.http.request import Request
from scrapy.http import FormRequest
from infobel.items import InfobelItem
import sys
import xlwt
import re
import codecs    

class InfobelSpider(BaseSpider):
    name = 'infobel'
    start_urls = ['http://www.infobel.com/en/italy/business/20300/accessories']

    def parse(self,response):

        hxs = HtmlXPathSelector(response)

        next_page = hxs.select("//a[@id='Pagination1_lnkNextRec']/@href").extract()
        if not not next_page:
             yield Request("http://www.infobel.com"+next_page[0],self.parse)

        qs = hxs.select("//div[@class='result-item clearfix']")
        items = []
        for q in qs:
            item = InfobelItem()
            item['name'] = q.select('div/div/h2/a/span/text()').extract()
            item['address'] = q.select('div/div/ul/li[1]/div/span/text()').extract()
            item['phone'] = q.select('div/div/ul/li[2]/div/text()').extract()
            item['email'] …
Run Code Online (Sandbox Code Playgroud)

python scrapy

1
推荐指数
1
解决办法
4282
查看次数

标签 统计

python ×6

datecreated ×1

exif ×1

field ×1

get ×1

image ×1

indexing ×1

mysql ×1

scrapy ×1

slice ×1

string ×1

unique ×1